
截至2024年12月,重慶研究院現(xiàn)有創(chuàng)新人才隊伍近500人,其中各類專業(yè)技術(shù)人才近400人,包括國家級人才6人、中國科學(xué)院院級人才127人次、重慶市市級人才95人次;現(xiàn)有博士研究生導(dǎo)師37名,碩士研究生導(dǎo)師75名。在冊職工中92%具有研究生學(xué)歷,59%具有博士學(xué)位,45%具有海外留學(xué)或工作經(jīng)歷。人才隊伍以專業(yè)技術(shù)崗位為主(占88%),其中高級專業(yè)技術(shù)人員占比53%。
查看更多 +科學(xué)研究
科研進(jìn)展
重慶研究院在多視角三維人體姿態(tài)估計研究中取得進(jìn)展
時間:2024-04-19編輯:智能安全技術(shù)研究中心
近年來隨著深度攝像機和多攝像頭系統(tǒng)的出現(xiàn),多視角三維人體姿態(tài)估計逐漸成為三維人體姿態(tài)估計領(lǐng)域的最熱門研究方向之一。多視角三維人體姿態(tài)估計能夠通過利用多個視角的數(shù)據(jù),來補充在遮擋、相機運動等復(fù)雜情況下缺失的關(guān)節(jié)點位置信息,減輕單視角三維人體姿態(tài)估計存在的深度模糊問題。但在實際應(yīng)用的非限定環(huán)境下,受場景背景、相機拍攝角度、光照、遮擋等復(fù)雜因素的影響,不同視角的圖像信息間存在很大的視覺表征差異,導(dǎo)致跨視角有效特征提取和融合十分具有挑戰(zhàn)性。
我院研究團(tuán)隊針對許多現(xiàn)有的多視角三維人體姿態(tài)估計方法存在忽略關(guān)節(jié)點多維度隱含信息、依賴特定場景的相機參數(shù)、語義特征挖掘不足等問題,研究了基于深度語義圖編碼器和基于漸進(jìn)性時空融合的多視角三維人體姿態(tài)估計方法。該研究通過提取描述人體關(guān)節(jié)點豐富空間結(jié)構(gòu)信息的語義圖嵌入特征,構(gòu)建實現(xiàn)不同特征間動態(tài)交互和融合的空間語義圖編碼器以及跨視角時空特征融合方法,充分挖掘不同視角關(guān)節(jié)點隱含的深層語義知識,增強姿態(tài)特征的表征性。
方法框架圖
該研究在不依賴相機外參的情況下,有效減輕了深度模糊問題,提升了三維人體姿態(tài)估計性能。相關(guān)成果發(fā)表在人工智能頂會AAAI Conference on Artificial Intelligence(CCF A類)和計算機圖形學(xué)與多媒體頂會ACM International Conference on Multimedia(CCF A類)上。
上述工作得到國家自然科學(xué)基金項目的支持。
相關(guān)論文鏈接:
https://ojs.aaai.org/index.php/AAAI/article/view/28549
https://dl.acm.org/doi/abs/10.1145/3581783.3612098
中國科學(xué)院重慶綠色智能技術(shù)研究院 版權(quán)所有京ICP備05002857號渝公網(wǎng)安備50010943035號