大模型:軟件開發(fā)的未來救世主還是無法逃脫的絕境?
雖然“Does current AI represent a dead end?”這篇文章意在引發(fā)討論,但其中的某些觀點對軟件開發(fā)人員來說特別具有相關性。
引言
在《Does current AI represent a dead end?》一文中,作者David Eastman提出了一些對軟件開發(fā)人員特別重要的觀點,尤其是關于當前大語言模型(LLM)在軟件開發(fā)中的局限性和挑戰(zhàn)。這篇文章旨在引發(fā)討論,探討LLM在產(chǎn)品開發(fā)過程中的應用,而非單純作為開發(fā)工具。
1. LLM的不可組合性
當前的LLM系統(tǒng)像汽車一樣被出售,用戶需為整個產(chǎn)品付費,而無法將其視為可組合的模塊。這種不可分解性在軟件開發(fā)中構成了問題,因為任務應該可以被分解,方便組件之間的協(xié)作和測試。
2. 內(nèi)部結構的缺失
LLM缺乏與其功能緊密相關的內(nèi)部結構,這使得它們無法作為可重用的組件進行開發(fā)。有效的軟件組件應由可進行單元測試的代碼構成,并能夠與其他組件可靠協(xié)作。
3. 安全與隱私問題
LLM的訓練過程往往不公開,導致其行為與訓練數(shù)據(jù)無法分離。這種情況使得安全和隱私問題變得更加復雜,因為缺乏有效的方法來防止敏感信息的泄露。
4. 法律與產(chǎn)權問題
LLM在知識產(chǎn)權方面存在法律風險,因為它們可能會現(xiàn)有的知識產(chǎn)權,而無法證明其操作的合法性。這使得許多企業(yè)在使用LLM時面臨重大的法律挑戰(zhàn)。
5. 軟件開發(fā)人員的應對策略
軟件開發(fā)人員應保持開放的態(tài)度,擁抱真正可解釋、可測試的AI。開發(fā)過程中,訓練過程應當是可監(jiān)控、可報告、可重復和可解釋的,以便在發(fā)現(xiàn)問題時能夠迅速修正。
結論
盡管LLM在軟件開發(fā)中面臨諸多挑戰(zhàn),但未來依然有可能改變這一現(xiàn)狀。開發(fā)人員應當專注于構建可持續(xù)的開發(fā)平臺,以應對不斷變化的技術環(huán)境和市場需求。
聯(lián)系作者
文章來源:AI前線
作者微信:
作者簡介:面向AI愛好者、開發(fā)者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業(yè)界實踐案例,助你全面擁抱AIGC。