AIGC動態歡迎閱讀
原標題:對話南洋理工大學安波教授:如何讓大語言模型適應動態環境?
關鍵字:模型,環境,語言,動作,人類
文章來源:大數據文摘
內容字數:0字
內容摘要:
大數據文摘受權轉載自AI科技評論
作者丨陳鷺伊
編輯丨岑峰
對人類越是簡單的問題,大語言模型反而越難以做好?
盡管現在的大模型已經有能力沖擊數學競賽級別的題目,但在像“9.11和9.9誰大”這樣的簡單問題上仍然會翻船。而從上網友對問題的討論中猜測,出現這種錯誤的原因可能是由于大模型以token的方式來理解文字,當9.11被拆成“9”、“.”和“11”三部分時,11確實比9大。大語言模型(LLMs)在處理復雜問題時表現出色,但在一些看似簡單的問題上卻可能遇到困難——這種現象并不是因為模型本身的復雜性,而是由于模型與特定環境或任務之間的知識不對齊。此外,LLMs在生成文本時依賴于預測下一個單詞的概率,這種機制可能導致它們生成與人類常識不符的結果。這是因為現有的模型通常側重于語言的統計特性,而不是深入理解人類的價值觀和偏好。
隨著大語言模型的能力不斷增強,人們對其可能帶來的倫理風險和對人類的潛在威脅的擔憂也在增加。LLMs可能會傳播其訓練數據中的有害信息,如偏見、歧視和有害內容。它們還可能泄露訓練數據中的私密和敏感信息,或生成誤導性或虛假信息。隨著這些Agent越來越多地融入我們的日常生
原文鏈接:對話南洋理工大學安波教授:如何讓大語言模型適應動態環境?
聯系作者
文章來源:大數據文摘
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...