AI模型評(píng)測(cè)

LLMEval3
LLMEval3官網(wǎng)入口網(wǎng)址,LLMEval是由復(fù)旦大學(xué)NLP實(shí)驗(yàn)室推出的大模型評(píng)測(cè)基準(zhǔn),最新的LLMEval-3聚焦于專業(yè)知識(shí)能力評(píng)測(cè),涵蓋哲學(xué)、經(jīng)濟(jì)學(xué)、法學(xué)、教育學(xué)、文學(xué)、歷史學(xué)、理學(xué)、工學(xué)、農(nóng)學(xué)、醫(yī)學(xué)、軍事學(xué)、管理學(xué)、藝術(shù)學(xué)等教育部劃定的13個(gè)學(xué)科門類、50余個(gè)二級(jí)學(xué)科,共計(jì)約20W道標(biāo)準(zhǔn)生成式問(wèn)答題目。

MMBench
MMBench官網(wǎng)入口網(wǎng)址,MMBench是一個(gè)多模態(tài)基準(zhǔn)測(cè)試,該體系開發(fā)了一個(gè)綜合評(píng)估流程,從感知到認(rèn)知能力逐級(jí)細(xì)分評(píng)估,覆蓋20項(xiàng)細(xì)粒度能力,從互聯(lián)網(wǎng)與權(quán)威基準(zhǔn)數(shù)據(jù)集采集約3000道單項(xiàng)選擇題。打破常規(guī)一問(wèn)一答基于規(guī)則匹配提取選項(xiàng)進(jìn)行評(píng)測(cè),循環(huán)打亂選項(xiàng)驗(yàn)證輸出結(jié)果的一致性,基于ChatGPT精準(zhǔn)匹配模型回復(fù)至選項(xiàng)。