<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        打破紀(jì)錄!谷歌全網(wǎng)扒1000億圖像文本對,ViT大佬坐鎮(zhèn):數(shù)據(jù)Scaling潛力依舊

        AIGC動態(tài)7個月前發(fā)布 量子位
        314 0 0

        千億規(guī)模或成多元多模態(tài)模型必備

        打破紀(jì)錄!谷歌全網(wǎng)扒1000億圖像文本對,ViT大佬坐鎮(zhèn):數(shù)據(jù)Scaling潛力依舊

        原標(biāo)題:打破紀(jì)錄!谷歌全網(wǎng)扒1000億圖像文本對,ViT大佬坐鎮(zhèn):數(shù)據(jù)Scaling潛力依舊
        文章來源:量子位
        內(nèi)容字?jǐn)?shù):3581字

        谷歌發(fā)布史上最大規(guī)模視覺語言數(shù)據(jù)集WebLI-100B

        本文總結(jié)了谷歌DeepMind團(tuán)隊發(fā)布的最新研究成果:史上最大規(guī)模視覺語言數(shù)據(jù)集WebLI-100B,包含1000億圖像-文本對,是此前紀(jì)錄的十倍。該研究由Xiao Wang和Ibrahim Alabdulmohsin一作,ViT核心作者翟曉華也參與其中,并于2024年12月加入OpenAI蘇黎世實驗室。

        數(shù)據(jù)集規(guī)模與模型性能

        1. **數(shù)據(jù)規(guī)模的突破:** WebLI-100B的數(shù)據(jù)量巨大,進(jìn)一步驗證了數(shù)據(jù)Scaling Law的潛力,表明數(shù)據(jù)規(guī)模提升仍有很大空間。 該數(shù)據(jù)集涵蓋多元文化和多語言,能更好地覆蓋長尾場景,提升模型性能,尤其是在非英語世界。

        2. **對模型性能的影響:** 研究人員通過對比10億、100億和1000億規(guī)模數(shù)據(jù)集訓(xùn)練的模型,發(fā)現(xiàn)數(shù)據(jù)規(guī)模越大,模型對圖像細(xì)節(jié)的理解越精準(zhǔn)。1000億規(guī)模數(shù)據(jù)集在多語言能力和公平性任務(wù)上表現(xiàn)顯著優(yōu)于較小規(guī)模數(shù)據(jù)集,但在以西方文化為主的傳統(tǒng)基準(zhǔn)測試上提升有限。

        3. **數(shù)據(jù)過濾的影響:** 研究發(fā)現(xiàn),使用CLIP等模型進(jìn)行數(shù)據(jù)過濾,雖然能提高模型在傳統(tǒng)基準(zhǔn)測試上的性能,但會無意中降低模型的文化多樣性。 這表明在構(gòu)建多元多模態(tài)大模型時,需要謹(jǐn)慎處理數(shù)據(jù)過濾步驟。

        研究方法與實驗結(jié)果

        1. **數(shù)據(jù)收集與處理:** 研究人員從網(wǎng)絡(luò)上收集了1000億圖像-文本對,并進(jìn)行了初步的清洗和篩選,剔除有害內(nèi)容和敏感信息。隨后利用CLIP模型進(jìn)行質(zhì)量評估,并訓(xùn)練分類器模型進(jìn)一步篩選,提高圖像文本對齊的準(zhǔn)確性。為了提升低資源語言的代表性,研究人員對低資源語言進(jìn)行了上采樣。

        2. **模型訓(xùn)練與評估:** 研究人員使用SigLIP模型在不同規(guī)模的數(shù)據(jù)集上進(jìn)行對比視覺語言預(yù)訓(xùn)練,訓(xùn)練了不同大小的模型(ViTB/16、ViT-L/16、ViT-H/14),并采用大規(guī)模批量大小和學(xué)習(xí)率調(diào)度。評估維度包括傳統(tǒng)基準(zhǔn)測試(ImageNet、COCO Captions等)、文化多樣性、多語言能力以及公平性。

        3. **主要發(fā)現(xiàn):** 1000億規(guī)模數(shù)據(jù)集顯著提升了模型的多語言能力和公平性,但對以西方文化為主的傳統(tǒng)基準(zhǔn)測試的提升有限。數(shù)據(jù)過濾雖然能提升傳統(tǒng)任務(wù)性能,但會降低文化多樣性。調(diào)整低資源語言的混合比例能顯著提升其在低資源語言基準(zhǔn)測試上的性能。

        研究團(tuán)隊與未來展望

        該研究團(tuán)隊由Xiao Wang和Ibrahim Alabdulmohsin領(lǐng)銜,ViT核心作者翟曉華也參與其中。翟曉華已加入OpenAI。這項研究表明,千億級數(shù)據(jù)規(guī)模將成為構(gòu)建多元多模態(tài)大模型的重要參考,同時也強(qiáng)調(diào)了在數(shù)據(jù)處理過程中保持文化多樣性的重要性。


        聯(lián)系作者

        文章來源:量子位
        作者微信:
        作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破

        閱讀原文
        ? 版權(quán)聲明
        蟬鏡AI數(shù)字人

        相關(guān)文章

        蟬鏡AI數(shù)字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 日本一道一区二区免费看| 久久午夜夜伦鲁鲁片免费无码| 免费AA片少妇人AA片直播| 黑人大战亚洲人精品一区| 免费看一级一级人妻片| 午夜亚洲av永久无码精品| 美女被暴羞羞免费视频| 亚洲国产主播精品极品网红| 亚洲人成亚洲精品| 99在线观看视频免费| 亚洲综合无码一区二区三区| 又黄又爽又成人免费视频| 中国china体内裑精亚洲日本| 在线免费观看a级片| 黄页网址在线免费观看 | 免费无码肉片在线观看| 久久精品国产亚洲αv忘忧草 | 99视频精品全部免费观看| 亚洲精品一区二区三区四区乱码| 免费观看美女用震蛋喷水的视频| 亚洲卡一卡二卡乱码新区| 又色又污又黄无遮挡的免费视| 五级黄18以上免费看| 久久亚洲免费视频| 中文字幕无码免费久久99| 国产av无码专区亚洲av毛片搜| 亚洲永久无码3D动漫一区| 最近最好最新2019中文字幕免费| 亚洲中文字幕一二三四区苍井空| 国产成人高清精品免费鸭子 | 免费看片免费播放| 亚洲视频在线免费| 亚洲精品中文字幕麻豆| 国产美女无遮挡免费网站| 手机看片国产免费永久| 精品亚洲456在线播放| 亚洲片国产一区一级在线观看| 6080午夜一级毛片免费看 | 在线观看免费视频网站色| 亚洲六月丁香六月婷婷色伊人 | 亚洲妇女熟BBW|