AIGC動態歡迎閱讀
原標題:三年16篇一作,前谷歌研究科學家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
關鍵字:模型,基準,語言,性能,研究者
文章來源:機器之心
內容字數:4491字
內容摘要:
機器之心報道
編輯:陳萍該團隊的新模型在多個基準測試中都與 Gemini Pro 、GPT-3.5 相媲美。
如果你經常讀 AI 大模型方向的論文,Yi Tay 想必是一個熟悉的名字。作為前谷歌大腦高級研究科學家,Yi Tay 為許多知名的大型語言模型和多模態模型做出了貢獻,包括 PaLM、UL2、Flan-U-PaLM、LaMDA/Bard、ViT-22B、PaLI、MUM 等。
根據 Yi Tay 個人資料統計,在谷歌大腦工作的 3 年多的時間里,他總共參與撰寫了大約 45 篇論文,是其中 16 篇的一作。一作論文包括 UL2、U-PaLM、DSI、Synthesizer、Charformer 和 Long Range Arena 等。和大多數離開谷歌自主創業的 Transformer 作者一樣,Yi Tay 在去年 3 月份宣布離開谷歌,并參與創辦了一家名為 Reka 的公司,Yi Tay 擔任該公司的首席科學家,主攻大型語言模型。
隨著時間的推移,剛剛,Yi Tay 宣布他們發布了新模型:「很高興與大家分享 Reka Flash,這是一種具有 SOTA 性能的、全新的 21B
原文鏈接:三年16篇一作,前谷歌研究科學家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...