
截至2024年12月,重慶研究院現(xiàn)有創(chuàng)新人才隊伍近500人,其中各類專業(yè)技術(shù)人才近400人,包括國家級人才6人、中國科學(xué)院院級人才127人次、重慶市市級人才95人次;現(xiàn)有博士研究生導(dǎo)師37名,碩士研究生導(dǎo)師75名。在冊職工中92%具有研究生學(xué)歷,59%具有博士學(xué)位,45%具有海外留學(xué)或工作經(jīng)歷。人才隊伍以專業(yè)技術(shù)崗位為主(占88%),其中高級專業(yè)技術(shù)人員占比53%。
查看更多 +科學(xué)研究
科研進(jìn)展
重慶研究院在人工智能公平性研究中取得進(jìn)展
時間:2023-10-24編輯:大數(shù)據(jù)研究中心
決策公平性是人類對人工智能最普遍關(guān)注的問題之一。以大模型為代表的人工智能公平性缺失可能會導(dǎo)致智能系統(tǒng)決策不公、信任度降低、系統(tǒng)失靈等后果,隨之帶來司法不公、資源分配不均、就業(yè)歧視、機會不均等一系列嚴(yán)重的社會和倫理道德問題。造成人工智能決策不公平的原因主要有兩點:一是用于人工智能模型訓(xùn)練的數(shù)據(jù)大多來源于人為采集數(shù)據(jù),本身存在天然的偏差;二是模型在訓(xùn)練過程中由于迭代交互的原因?qū)е缕畹倪M(jìn)一步放大。
大數(shù)據(jù)挖掘及應(yīng)用中心成員聚焦人工智能的典型應(yīng)用場景——推薦系統(tǒng),針對物品曝光偏差所導(dǎo)致的推薦決策不公平、用戶不信任,進(jìn)而造成推薦系統(tǒng)失效的嚴(yán)重后果,解析交互推薦過程中產(chǎn)生曝光偏差的本質(zhì)原因,構(gòu)建基于馬爾科夫決策過程的動態(tài)交互新范式,提出推薦多樣性和新穎性共融的強化學(xué)習(xí)去偏方法,助力高質(zhì)量低曝光度物品的發(fā)現(xiàn)。進(jìn)一步采用信息熵來對物品曝光公平程度進(jìn)行精準(zhǔn)刻畫,建立基于動態(tài)軟約束的公平推薦模型,實現(xiàn)了在長期交互過程中推薦效用和公平性的共同提升。
該研究揭示了曝光度偏差對交互式推薦的具體影響機制,強調(diào)了多樣性和新穎性在消除推薦系統(tǒng)偏差中的重要性,同時也論證了在長期交互中推薦效用和公平性公贏的可能性,為人工智能、大模型公平性的研究提供了全新視角。相關(guān)研究成果發(fā)表在數(shù)據(jù)挖掘頂刊ACM Transactions on Information Systems(CCF-A)和服務(wù)計算領(lǐng)域頂級國際學(xué)術(shù)會議IEEE International Conference on Web Services(CCF-B)。
上述工作得到國家自然科學(xué)基金、中國科學(xué)院“西部之光”計劃,重慶市教委重點合作項目、教育教學(xué)改革研究計劃項目支持。
相關(guān)論文鏈接:
https://www.computer.org/csdl/proceedings-article/icws/2023/048500a118/1QzhT2tdnGg
https://dl.acm.org/doi/10.1145/3618107
推薦系統(tǒng)中的流行度偏差
基于不同策略的離線強化學(xué)習(xí)方法的交互式推薦以及項目公平性問題
中國科學(xué)院重慶綠色智能技術(shù)研究院 版權(quán)所有京ICP備05002857號渝公網(wǎng)安備50010943035號