
AIGC動態歡迎閱讀
原標題:關于大模型「越獄」的多種方式,有這些防御手段
關鍵字:模型,提示,安全性,語言,方法
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com作者:羅昊京(Financial Quantitative Analyst)
此項目是由伊利諾伊大學香檳分校(UIUC)的汪浩瀚教授主導,匯集了多名intern的共同努力而成。長久以來,這個跨學科的團隊一直在前沿科技的浪潮中,致力于推動人工智能的革新,尤其關注于其如何更好地服務于人類社會。在這一宏偉的使命指引下,團隊專注于解決兩大核心問題:一是確保人工智能的可信賴性與對齊性(Trustworthy and Aligned AI),即如何保證其安全有效地融入人類生活;二是探索人工智能在推動生物醫療領域進步中的潛能和應用(Computational Biology)。
隨著人工智能(AI)技術的迅猛發展,特別是大語言模型(LLMs)如 GPT-4 和視覺語言模型(
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號