圖靈獎得主 Yann LeCun 暢談 AI:未來是開源。
今年上半年,可謂是 AI 屆最波瀾壯闊的半年。
在急速發(fā)展的各類 GPT 甚至 AGI 的雛形背后,是持不同觀點的兩大陣營的人們。
一派認為,以 ChatGPT 為首的生成式 AI 非常強大,能帶動一大波革命性的風潮,繼續(xù)推進沒有問題。
另一派認為,咱發(fā)展的有點太快了。不說禁止,也得停一停。而且道德方面,相匹配的約束也太少了。
而作為 AI 屆的一位大拿,Yann LeCun 對此卻有不同看法。
徹底禁止?不可行
LeCun 表示,他對 ChatGPT 的表現(xiàn)并不感到驚訝,也不贊成暫停人工智能的研究。
「這可能會產生和預期相反的結果。」
他表示,人工智能作為人類智能的放大器,可能是新文藝復興的起源。
ChatGPT 這種大語言模型是「自回歸」。AI 接受訓練,從一個包含多達 14000 億個單詞的語料庫中提取單詞,預測給定句子序列中的最后一個單詞,也就是下一個必須出現(xiàn)的單詞。
Claude Shannon 在上個世紀 50 年代開展的相關研究就是基于這一原則。
原則沒變,變得是語料庫的規(guī)模,以及模型本身的計算能力。
LeCun 表示,「目前,我們無法靠這類模型生成長而連貫的文本,這些系統(tǒng)不是可控的。比如說,我們不能直接要求 ChatGPT 生成一段目標人群是 13 歲兒童的文本。
而且,我們今天所熟知的自回歸語言模型的壽命都非常短,五年算是一個周期,五年以后,過去的模型就沒有人再會用了。
而我們的研究重點,就應該集中在找到一種是這些模型可控的辦法上。換句話說,我們要研究的 AI,是能根據給定目標進行推理和計劃的 AI,并且得能保證其安全性和可靠性的標準是一致的。這種 AI 能感受到情緒。」
要知道,人類情緒的很大一部分和目標的實現(xiàn)與否有關,也就是和某種形式的預期有關。
而有了這樣的可控模型,我們就能生成出長而連貫的文本。
LeCun 的想法是,未來設計出能混合來自不同工具的數(shù)據的增強版模型,比如計算器或者搜索引擎。
像 ChatGPT 這樣的模型只接受文本訓練,因此 ChatGPT 對現(xiàn)實世界的認識并不完整。而想要在此基礎上進一步發(fā)展,就需要學習一些和整個世界的感官知覺、世界結構有關的內容。
而這些更復雜的內容并不是簡單地通過閱讀文本就能實現(xiàn)的,這才是未來幾年的最大挑戰(zhàn)之一。
開源才是盡頭
對權力的渴望,是人類特有的。而 AI 并不會因為變得越來越強大就會具備這種渴望。
只有人類這個物種才知道如何制定法律,保障個體的行為不會過多損害共同利益。
OpenAI 最初是一個開放的研究項目,現(xiàn)在已經關閉了。而 OpenAI 對其工作只字未提,這種情況的逆轉在研究領域并不常見。
問題在于訓練一個語言模型很昂貴,要花費幾千萬歐元,所以初創(chuàng)企業(yè)負擔不起。
這也是微軟與 OpenAI 合并的主要原因,需要集團共同的計算能力來改進其未來的模型。這也是為什么 DeepMind 和谷歌大腦最終還是合并了。
LeCun 表示,最終在市場方面,開發(fā)者會走向一個開放平臺的共同生態(tài)。如果只有少部分公司控制著這類技術,就糟糕了。
從歷史上來看,不管是 Facebook 還是改完名的 Meta,都在積極推動開放性的基礎研究,比如 LlaMa 這個開源項目。
90 年代初期,Sun Microsystems 和 Microsoft 大打出手,爭奪操作服務器的權力。要記住,所有能一直站穩(wěn)腳跟的互聯(lián)網技術都是開源的。
LeCun 最后表示,目前,阻止這類開放的開源 AI 平臺的關鍵,是法律上的問題。如果未來歐盟想要推動 AI 產業(yè)的結構化,那么這種類似的開源平臺是必不可少的。
參考資料:
鄭重聲明:此文內容為本網站轉載企業(yè)宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。
2023年2月15日,湯臣倍健與美團買藥在北京舉辦了2023
2021年收入增長目標應能確保實現(xiàn),2022年收入增長預計將
具體來看,一是簡化業(yè)務流程和材料,便利北京冬奧會相關區(qū)域內境
炒股就看金麒麟分析師研報,權威,專業(yè),及時,全面,助您挖掘潛
,據索尼官方消息,新星粉,銀河紫,星光藍,三款全新配色Dua
,新氧數(shù)據顏究院發(fā)布《2021醫(yī)美行業(yè)白皮書》,白皮書顯示,