近日,一位在線昵稱為 STS 3D 的工程師利用 ChatGPT 開發出一把語音控制的智能化。
原標題:工程師利用GPT開發智能槍械視頻瘋傳,OpenAI 嚇壞了緊急制止!網友:這太危險了
文章來源:AI前線
內容字數:5990字
AI賦能武器:ChatGPT語音控制引發的擔憂
近日,一名工程師利用ChatGPT開發出一款語音控制的智能,引發廣泛關注和擔憂。該凸顯了AI技術在軍事領域的潛在風險,以及對未來社會安全的影響。
ChatGPT語音控制的誕生與封禁
一位名為STS 3D的工程師利用ChatGPT開發出一款能夠響應語音指令、瞄準并射擊的智能。相關視頻在社交媒體上迅速傳播,引發熱議。OpenAI在獲悉此事后,立即切斷了該工程師的ChatGPT訪問權限,并表示此行為違反了用戶政策。
軍事AI發展現狀與潛在風險
文章對比了STS 3D的智能與美國國防部測試的AI自主槍械系統“Bullfrog”。“Bullfrog”系統雖然也具備AI能力,但在設計上需要人類操作員下達開火指令。然而,ACS公司表示該系統未來可以完全自主運行。這表明,AI武器系統正朝著高度自主化的方向發展,而STS 3D的案例則表明,即使是個人也能輕易將消費級AI技術與致命武器結合。
許多網友對AI武器的潛在風險表示擔憂,認為其可能落入壞人之手,造成災難性后果。部分人認為,應在AI系統中內置保護措施,防止其被用于武器開發。
技術可行性與社會討論
一些網友指出,將AI技術與遠程控制武器結合并非新鮮事,類似技術至少在十年前就已存在。STS 3D的創新之處在于使用了ChatGPT進行語音控制。這種觀點認為,STS 3D的成果并非技術上的巨大突破,而是將現有技術以一種更直觀易用的方式進行了整合。
然而,STS 3D的成果仍然引發了激烈的社會討論。人們擔憂,即使是消費級AI技術也能輕易被用于暴力目的,我們正快速步入一個致命武器擁有自主思維能力的新時代。
OpenAI的回應與政策調整
OpenAI回應稱已封禁STS 3D的賬戶,并強調其用戶政策禁止用戶利用服務開發或操作武器。盡管OpenAI去年9月修改了用戶條款,刪除了部分關于高身體損害風險活動的限制性措辭,但其仍然禁止用戶使用服務傷害自身或他人,包括開發或使用武器。
未來展望與警示
STS 3D的智能為我們敲響了警鐘,提醒我們關注AI技術在軍事領域的應用,以及其可能帶來的倫理和安全風險。未來,我們需要加強對AI技術的監管,制定更完善的倫理規范,以防止AI技術被濫用,確保其造福人類。
聯系作者
文章來源:AI前線
作者微信:
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。