CVPR20203篇論文入選,人臉防偽檢測挑戰(zhàn)賽獲冠亞軍
2020-04-22
今年,人臉防偽、人臉識別依然是全球計(jì)算機(jī)視覺頂級會議CVPR2020(即IEEE國際計(jì)算機(jī)視覺與模式識別會議)的熱門主題,數(shù)篇論文被收錄,其中,明略科技集團(tuán)明略科學(xué)院與中科院自動(dòng)化研究所、奧盧大學(xué)、AIBEE等合作的3篇論文被接收(兩篇為Oral)。
在CVPR2020 ,由中科院自動(dòng)化研究所模式識別國家重點(diǎn)實(shí)驗(yàn)室主辦的ChaLearnFace Anti-spoofing Attack Detection Challenge人臉防偽檢測挑戰(zhàn)賽上,由奧盧大學(xué)與明略科學(xué)院深度學(xué)習(xí)實(shí)驗(yàn)室等組成的團(tuán)隊(duì),斬獲多模態(tài)賽道冠軍和單模態(tài)賽道亞軍。人臉防偽是、活體檢測是人臉識別應(yīng)用中最重要的一環(huán),人臉防偽的方法能夠抵御不法分子通過照片、面具等手段對人臉識別系統(tǒng)進(jìn)行攻擊從而牟利,是一項(xiàng)非常有落地實(shí)用價(jià)值的研究領(lǐng)域。而ChaLearn Face Anti-spoofing Attack Detection Challenge是近年來活體檢測、人臉防偽領(lǐng)域最熱門的比賽,吸引了眾多全球知名CV大廠、明星創(chuàng)業(yè)公司和頂級院校團(tuán)隊(duì)參與。
此次挑戰(zhàn)賽中,奧盧大學(xué)和明略科學(xué)院團(tuán)隊(duì)運(yùn)用的方法,主要來自于以下兩篇論文的研究成果:
《Searching CentralDifference Convolutional Networks for Face Anti-spoofing(CDCN), CVPR2020》(文章鏈接:https://arxiv.org/abs/2003.04092)
《Deep Spatial Gradient and Temporal Depth Learning forFace Anti-spoofing(FAS-SGTD), CVPR2020 (Oral)》(文章鏈接:https://arxiv.org/abs/2003.08061)
人臉防偽(FAS)在人臉識別系統(tǒng)中起著至關(guān)重要的作用。大多數(shù)最先進(jìn)的FAS方法依賴于堆疊卷積和專家設(shè)計(jì)的網(wǎng)絡(luò),在描述詳細(xì)的紋理信息方面比較弱,在環(huán)境變化(如不同的光照度)時(shí)容易失效,并且傾向于使用長序列作為輸入來提取動(dòng)態(tài)特征,這使得該方法很難部署到需要快速響應(yīng)的場景中。
《Searching Central Difference Convolutional Networks forFace Anti-spoofing(CDCN [1]), CVPR2020》論文,提出了一種基于中心差分卷積(CDC)的新型幀級FAS方法,它能夠通過聚合強(qiáng)度和梯度信息來捕獲內(nèi)在的詳細(xì)模式。用CDC構(gòu)建的網(wǎng)絡(luò),稱為中心差分卷積網(wǎng)絡(luò)(CDCN),相較于用普通卷積構(gòu)建的網(wǎng)絡(luò),能夠提供更穩(wěn)健的建模能力。
此外,在一個(gè)專門設(shè)計(jì)的CDC搜索空間上,可利用神經(jīng)結(jié)構(gòu)搜索(NAS)發(fā)現(xiàn)更強(qiáng)大的網(wǎng)絡(luò)結(jié)構(gòu)(CDCN++),該網(wǎng)絡(luò)結(jié)構(gòu)可與多尺度注意力融合模塊(MAFM)組裝,進(jìn)一步提升性能。在6個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行了綜合實(shí)驗(yàn),結(jié)果表明:1)所提出的方法不僅在數(shù)據(jù)集內(nèi)部測試中取得了優(yōu)異的性能(特別是在OULU-NPU數(shù)據(jù)集(Protocol1)實(shí)現(xiàn)了0.2%的ACER),2)在跨數(shù)據(jù)集測試中也有很好的通用性(特別是從CASIAMFSD到Replay-Attack數(shù)據(jù)集,實(shí)現(xiàn)了6.5%的HTER)。
人臉防偽對人臉識別系統(tǒng)的安全性至關(guān)重要。目前,深度監(jiān)督學(xué)習(xí)被證明是最有效的方法之一。雖然取得了巨大成功,但以往大多數(shù)的研究工作是把問題表述為單幀多任務(wù)的問題,只是簡單地用深度增強(qiáng)損失,而忽略了詳細(xì)的紋理信息以及面部深度和運(yùn)動(dòng)模式之間的相互作用。
《Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing(FAS-SGTD [2]), CVPR2020 (Oral)》論文,提出了一種新的方法來檢測來自多幀多任務(wù)的攻擊,該方法基于兩點(diǎn)洞察:
1. 通過堆疊的普通卷積,活體人臉和偽造人臉之間詳細(xì)的判別性線索(例如,空間梯度幅度)可能會被丟棄
2. 三維移動(dòng)人臉的動(dòng)態(tài)提供了檢測偽造人臉的重要線索。該方法能通過殘差空間梯度塊(RSGB)捕捉判別細(xì)節(jié),并對時(shí)空傳播模塊(STPM)的時(shí)空信息進(jìn)行有效編碼。此外,還提出了一種新的對比性深度損失法(ContrastiveDepth Loss),以實(shí)現(xiàn)更準(zhǔn)確的深度監(jiān)督。為評估此方法的有效性,還收集了雙模態(tài)防偽數(shù)據(jù)集(DMAD),提供了每個(gè)樣本的實(shí)際深度。實(shí)驗(yàn)表明,所提出的方法在OULU-NPU、SiW、CASIA-MFSD、Replay-Attack和新的DMAD五種基準(zhǔn)數(shù)據(jù)集上取得了當(dāng)前最佳成績。
目前,明略科學(xué)院深度學(xué)習(xí)實(shí)驗(yàn)室的研發(fā)成果,已在智能餐飲、智能零售、供應(yīng)鏈物流、智能營銷、智能工業(yè)等業(yè)務(wù)場景實(shí)際落地。
信息填寫