基于多模態(tài)數(shù)據(jù)的學(xué)習(xí)者專注度研究
AIGC動態(tài)歡迎閱讀
原標(biāo)題:基于多模態(tài)數(shù)據(jù)的學(xué)習(xí)者專注度研究
關(guān)鍵字:特征,學(xué)習(xí)者,數(shù)據(jù),生理,面部
文章來源:大數(shù)據(jù)文摘
內(nèi)容字?jǐn)?shù):12750字
內(nèi)容摘要:
大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自中國人工智能學(xué)會
文 / 武法提專注是產(chǎn)生有效學(xué)習(xí)的先決條件,在以自主學(xué)習(xí)為主的在線學(xué)習(xí)場景中具有更為重要的作用,但在線學(xué)習(xí)時空分離的特性難以保證學(xué)習(xí)者的專注度得到及時監(jiān)控,故而探究精準(zhǔn)識別在線學(xué)習(xí)專注度的可行方法至關(guān)重要。本研究主要關(guān)注在線學(xué)習(xí)中學(xué)習(xí)者的面部線索、眼動特征與生理數(shù)據(jù),基于從視頻數(shù)據(jù)中提取的眼部視線、頭部姿態(tài)、面部動作單元等面部線索特征,從眼動數(shù)據(jù)中提取的注視停留時間、注視點、眼跳等眼動特征,以及從生理數(shù)據(jù)中提取的心跳間期、血液容積脈搏波、皮膚電活動、皮膚溫度等生理特征,分別通過三類單模態(tài)特征,以及“視頻+生理”和“視頻 + 眼跳”兩種多模態(tài)特征進行學(xué)習(xí)專注度識別,采用常用的六種機器學(xué)習(xí)方法構(gòu)建相應(yīng)的評估模型,對六種分類器的專注度預(yù)測性能進行了比較。實驗結(jié)果表明,相較于面部線索,眼動特征與生理特征具有更好的識別潛力;與單一模態(tài)相比,模態(tài)融合能顯著提高學(xué)習(xí)專注度識別效果,揭示了多模態(tài)數(shù)據(jù)特征的融合對學(xué)習(xí)專注度識別的互補性。關(guān)鍵詞:學(xué)習(xí)專注度;面部線索;眼動;生理信號;多模態(tài)數(shù)據(jù)如今,以人工智能為核心的智能技術(shù)正在推動人類教育向智能教育階段轉(zhuǎn)型和演進,為
原文鏈接:基于多模態(tài)數(shù)據(jù)的學(xué)習(xí)者專注度研究
聯(lián)系作者
文章來源:大數(shù)據(jù)文摘
作者微信:BigDataDigest
作者簡介:普及數(shù)據(jù)思維,傳播數(shù)據(jù)文化