基于多模態(tài)數(shù)據(jù)的學習者專注度研究
AIGC動態(tài)歡迎閱讀
原標題:基于多模態(tài)數(shù)據(jù)的學習者專注度研究
關鍵字:特征,學習者,數(shù)據(jù),生理,面部
文章來源:大數(shù)據(jù)文摘
內(nèi)容字數(shù):12750字
內(nèi)容摘要:
大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自中國人工智能學會
文 / 武法提專注是產(chǎn)生有效學習的先決條件,在以自主學習為主的在線學習場景中具有更為重要的作用,但在線學習時空分離的特性難以保證學習者的專注度得到及時監(jiān)控,故而探究精準識別在線學習專注度的可行方法至關重要。本研究主要關注在線學習中學習者的面部線索、眼動特征與生理數(shù)據(jù),基于從視頻數(shù)據(jù)中提取的眼部視線、頭部姿態(tài)、面部動作單元等面部線索特征,從眼動數(shù)據(jù)中提取的注視停留時間、注視點、眼跳等眼動特征,以及從生理數(shù)據(jù)中提取的心跳間期、血液容積脈搏波、皮膚電活動、皮膚溫度等生理特征,分別通過三類單模態(tài)特征,以及“視頻+生理”和“視頻 + 眼跳”兩種多模態(tài)特征進行學習專注度識別,采用常用的六種機器學習方法構(gòu)建相應的評估模型,對六種分類器的專注度預測性能進行了比較。實驗結(jié)果表明,相較于面部線索,眼動特征與生理特征具有更好的識別潛力;與單一模態(tài)相比,模態(tài)融合能顯著提高學習專注度識別效果,揭示了多模態(tài)數(shù)據(jù)特征的融合對學習專注度識別的互補性。關鍵詞:學習專注度;面部線索;眼動;生理信號;多模態(tài)數(shù)據(jù)如今,以人工智能為核心的智能技術(shù)正在推動人類教育向智能教育階段轉(zhuǎn)型和演進,為
原文鏈接:基于多模態(tài)數(shù)據(jù)的學習者專注度研究
聯(lián)系作者
文章來源:大數(shù)據(jù)文摘
作者微信:BigDataDigest
作者簡介:普及數(shù)據(jù)思維,傳播數(shù)據(jù)文化