首次!用合臉數(shù)據(jù)集訓(xùn)練的識(shí)別模型,性能高于真實(shí)數(shù)據(jù)集
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:首次!用合臉數(shù)據(jù)集訓(xùn)練的識(shí)別模型,性能高于真實(shí)數(shù)據(jù)集
關(guān)鍵字:身份,數(shù)據(jù),向量,模型,圖片
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報(bào)道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com研究動(dòng)機(jī)
一個(gè)高質(zhì)量的人臉識(shí)別訓(xùn)練集要求身份 (ID) 有高的分離度(Inter-class separability)和類內(nèi)的變化度(Intra-class variation)。然而現(xiàn)有的方法普遍存在兩個(gè)缺點(diǎn):
1)實(shí)現(xiàn)了大的 intra-class variation,但是 inter-class separability 很低;
2)實(shí)現(xiàn)了較高的 inter-class separability,但是 intra-class variation 需要用額外的模型來(lái)提高。
這兩點(diǎn)要么使得在合成的人臉數(shù)據(jù)集訓(xùn)練的模型性能表現(xiàn)不佳,要么難以合成大型數(shù)據(jù)集。
因此,我們通過(guò)讓提出的 Vec2Face 模型學(xué)習(xí)如何將特征向量轉(zhuǎn)化為對(duì)應(yīng)的圖片,并且在生成時(shí)對(duì)隨機(jī)采
原文鏈接:首次!用合臉數(shù)據(jù)集訓(xùn)練的識(shí)別模型,性能高于真實(shí)數(shù)據(jù)集
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:
作者簡(jiǎn)介: