廣州畫魂網(wǎng)絡(luò)科技有限公司周麗芳獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉廣州畫魂網(wǎng)絡(luò)科技有限公司申請的專利一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號為:CN114842534B 。
龍圖騰網(wǎng)通過國家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-05-13發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202210492125.5,技術(shù)領(lǐng)域涉及:G06V40/16;該發(fā)明授權(quán)一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法是由周麗芳;王懿;江志程;丁相;栗思秦;鄧廣設(shè)計(jì)研發(fā)完成,并于2022-05-07向國家知識(shí)產(chǎn)權(quán)局提交的專利申請。
本一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法在說明書摘要公布了:本發(fā)明請求保護(hù)一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法,屬于模式識(shí)別與計(jì)算機(jī)視覺技術(shù)領(lǐng)域包括以下步驟:首先,利用VGG16網(wǎng)絡(luò)提取輸入圖像的深度全局特征,在提取特征的同時(shí)保留面部表情的全局信息。其次,通過設(shè)計(jì)的區(qū)域局部多值模式與改進(jìn)的K?means算法對像素進(jìn)行動(dòng)態(tài)聚類,保證表情變化區(qū)域特征的魯棒性,并將二值模式擴(kuò)展到多個(gè)模式,整合區(qū)域內(nèi)像素間的灰度差信息,增強(qiáng)紋理描述。此外,通過自注意機(jī)制形成區(qū)域權(quán)值,并使用秩正則化損失約束不同區(qū)域的權(quán)值。最后,將加權(quán)特征與深度網(wǎng)絡(luò)提取的特征相結(jié)合,增強(qiáng)特征的表征能力。本發(fā)明旨在建立一個(gè)魯棒的人臉表情識(shí)別網(wǎng)絡(luò)來準(zhǔn)確地估計(jì)真實(shí)環(huán)境中面部表情的類別。
本發(fā)明授權(quán)一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法在權(quán)利要求書中公布了:1.一種基于區(qū)域自注意力卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法,其特征在于,包括以下步驟:步驟1:將原始表情圖像輸入到以VGG16為基礎(chǔ)的特征提取網(wǎng)絡(luò),提取輸入表情圖像的深度全局特征;步驟2:設(shè)計(jì)區(qū)域局部多值模式,將原始表情圖像輸入到區(qū)域局部多值模式對區(qū)域紋理進(jìn)行增強(qiáng);其中,所述的區(qū)域局部多值模式利用改進(jìn)的K-means算法對像素進(jìn)行動(dòng)態(tài)聚類;在改進(jìn)的K-means算法中,首先計(jì)算每個(gè)數(shù)據(jù)點(diǎn)到原點(diǎn)的距離;然后,根據(jù)排序后的距離對原始數(shù)據(jù)點(diǎn)進(jìn)行排序,將排序后的數(shù)據(jù)點(diǎn)劃分為k個(gè)相等的集合,每組中以中間點(diǎn)為初始質(zhì)心;這些初始質(zhì)心獲得更好的獨(dú)特聚類結(jié)果;通過改進(jìn)的K-means算法能夠保證表情變化區(qū)域特征的魯棒性,并將二值模式擴(kuò)展到k個(gè)模式,整合區(qū)域內(nèi)像素間的灰度差信息,增強(qiáng)區(qū)域紋理特征;步驟3:將增強(qiáng)過的區(qū)域紋理特征輸入到區(qū)域自注意模塊,區(qū)域自注意模塊包含區(qū)域自注意機(jī)制和秩正則化損失,區(qū)域自注意機(jī)制增強(qiáng)表情顯著變化區(qū)域特征的權(quán)重,量化不同區(qū)域?qū)Ρ砬樽R(shí)別的貢獻(xiàn),得到增強(qiáng)后的區(qū)域紋理注意特征;而秩正則化損失被用來約束不同區(qū)域的權(quán)重,使不同區(qū)域的權(quán)重值更有區(qū)分度;步驟4:將步驟3提取到的區(qū)域加權(quán)特征與VGG網(wǎng)絡(luò)提取的深度全局特征進(jìn)行融合;所述步驟3,將增強(qiáng)過的區(qū)域紋理特征輸入到區(qū)域自注意模塊,區(qū)域自注意模塊包含區(qū)域自注意機(jī)制和秩正則化損失,區(qū)域自注意機(jī)制增強(qiáng)表情顯著變化區(qū)域特征的權(quán)重,量化不同區(qū)域?qū)Ρ砬樽R(shí)別的貢獻(xiàn),得到增強(qiáng)后的區(qū)域紋理注意特征;而秩正則化損失被用來約束不同區(qū)域的權(quán)重,使不同區(qū)域的權(quán)重值更有區(qū)分度;具體包含以下步驟:C1:將在B4步驟中得到的魯棒的特征表示Fr輸入到降維卷積神經(jīng)網(wǎng)絡(luò),得到每個(gè)區(qū)域的深度特征圖,定義輸入的區(qū)域紋理圖像為I1,I2,…,I9,降維卷積神經(jīng)網(wǎng)絡(luò)的定義如下:X=[F1,F2,…,F9]=[VI1;θ,VI2;θ,…,VI9;θ]4其中V·;θ為降維卷積神經(jīng)網(wǎng)絡(luò),θ為降維卷積神經(jīng)網(wǎng)絡(luò)中的參數(shù),X是通過降維卷積神經(jīng)網(wǎng)絡(luò)提取到的區(qū)域特征集合;C2:為了得到每個(gè)區(qū)域在人臉表情識(shí)別任務(wù)中的貢獻(xiàn),利用自我注意機(jī)制獲取每個(gè)區(qū)域的權(quán)重,通過FC和Sigmoid函數(shù)計(jì)算特征的粗略權(quán)值,定義如下:W=[a1,a2,…,ak]=[fF1Tq,fF2Tq,…,fF9Tq]5其中ai表示第i個(gè)區(qū)域的權(quán)值,f表示Sigmoid函數(shù),q表示全連接層的參數(shù),將所有具有注意權(quán)重的局部特征歸納為一個(gè)整體表示Fm,其定義如下: 這里,s表示特征塊之間的級聯(lián)操作;C3:引用秩正則化損失RRLoss來約束不同區(qū)域的權(quán)值;首先對不同區(qū)域的權(quán)重進(jìn)行排序,然后按照一定的比例將其分為高權(quán)重組和低權(quán)重組;其次,計(jì)算高、低權(quán)重組的平均權(quán)重,分別用ahigh和alow表示;在RRLoss中添加差值M以限制這些組的平均權(quán)重,其定義如下所示: LRR=max{0,M-ahigh-alow}9Ghigh和Glow分別表示高權(quán)重組和低權(quán)重組的權(quán)重均值,λ表示高權(quán)重組所占的比例,N表示區(qū)域的個(gè)數(shù);M是一個(gè)差值,它是一個(gè)固定的可學(xué)習(xí)參數(shù)或超參數(shù),LRR用于增強(qiáng)區(qū)域關(guān)注的權(quán)重,鼓勵(lì)網(wǎng)絡(luò)在訓(xùn)練過程中優(yōu)先關(guān)注表情變化區(qū)域。
如需購買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人廣州畫魂網(wǎng)絡(luò)科技有限公司,其通訊地址為:510000 廣東省廣州市天河區(qū)天河北路721號三樓自編01-255房;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報(bào)告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。