臨最近幾年底,谷歌終于放大招了!
在剛剛結(jié)束的AI年度盛會(huì)上,谷歌一口氣發(fā)布了四項(xiàng)最新的AIGC技術(shù)成果。
其中最引人注目的是文本圖像模型Imagen第一次測(cè)試,敲黑板安卓和蘋(píng)果這次可以玩了
其他有趣的產(chǎn)品包括LaMDA Wordcraft,這是一個(gè)AI寫(xiě)作輔助工具,一個(gè)結(jié)合了Imagen Video和Phenaki優(yōu)點(diǎn)的超長(zhǎng)連貫視頻生成模型,等等。
而且,除了官方的總結(jié),幾位來(lái)自谷歌的科學(xué)家也在推特上分享了他們?cè)诠雀鐰I研究方面的新進(jìn)展。
具體有哪些一起往下看
Imagen的首次公開(kāi)測(cè)試
自推出以來(lái),Imagen一直與OpenAI的DALL—E 2和Stability AI的Stable Diffusion相提并論,但不同的是,谷歌從未向公眾開(kāi)放該系統(tǒng)。
現(xiàn)在,谷歌終于松口,宣布將Imagen加入其AI測(cè)試廚房應(yīng)用。
谷歌在今年的I/O大會(huì)上推出的應(yīng)用Test Kitchen用于測(cè)試各種AI系統(tǒng)目前蘋(píng)果和安卓用戶都可以下載
起初,用戶只能在上面與AI聊天機(jī)器人LaMDA 2進(jìn)行交流此次更新將增加兩種與Imagen互動(dòng)的新方式:城市夢(mèng)想家和Wobble
在《城市夢(mèng)想家》中,你可以使用文本命令來(lái)建造不同主題的城市,其中Imagen模型承擔(dān)了創(chuàng)建樣本建筑和地塊的角色。
在Wobble中,你可以創(chuàng)造一個(gè)小怪物,DIY它的材質(zhì),然后給它穿上你選擇的衣服,戳它讓它跳舞。
雖然與其他文本到圖像模式相比,這些交互模式似乎有限,但谷歌產(chǎn)品管理高級(jí)總監(jiān)喬希·伍德沃德解釋說(shuō),這一步的意義在于獲得公眾對(duì)這些AI系統(tǒng)的反饋,并測(cè)試哪些行為會(huì)使系統(tǒng)崩潰。
其他AIGC產(chǎn)品
除了最受關(guān)注的Imagen模型,谷歌還公布了其他內(nèi)容格式上的AI內(nèi)容生成技術(shù)。
比如在大語(yǔ)言模型LaMDA基礎(chǔ)上開(kāi)發(fā)的AI寫(xiě)作工具LaMDA Wordcraft,可以輔助專(zhuān)業(yè)作家寫(xiě)作。
值得一提的是,下圖中的評(píng)價(jià)性獨(dú)白是作家劉宇昆借助Wordcraft寫(xiě)的一篇短篇小說(shuō)。
此外,谷歌還結(jié)合了Imagen Video和Phenaki的優(yōu)勢(shì),推出了一種可以生成超長(zhǎng)連貫視頻的新模式。
還有AudioLM這種音頻模型,不需要文字和樂(lè)譜的訓(xùn)練,只需要聽(tīng)音頻樣本就可以持續(xù)生成填充音樂(lè)。
說(shuō)完谷歌官方公布的這些新技術(shù),我們?cè)賮?lái)看看谷歌科學(xué)家自己是怎么說(shuō)的。
谷歌科學(xué)家眼中的新進(jìn)展
除了產(chǎn)品層面,今年谷歌AI研究還有哪些新進(jìn)展。
谷歌大腦的工程師周在推特上分享了他的觀點(diǎn):大模型學(xué)會(huì)了如何解釋答案,檢查答案,并將復(fù)雜的問(wèn)題分解為子問(wèn)題來(lái)解決。
這一切都始于谷歌今年1月發(fā)表的一篇論文思維鏈承諾引發(fā)大型語(yǔ)言模型中的推理。
正是在這篇論文中,Google首次提出了思維鏈線索的概念。
簡(jiǎn)單來(lái)說(shuō),思維鏈提示是一種特殊的情境學(xué)習(xí)與標(biāo)準(zhǔn)提示只給出輸入輸出對(duì)的例子不同,思維鏈提示會(huì)增加一個(gè)額外的推理過(guò)程
這一步的目的是讓模型針對(duì)當(dāng)前問(wèn)題模仿生成自己的思維過(guò)程,最終提高生成結(jié)果的準(zhǔn)確性。
該方法已在LaMDA—137B,GPT—3 175B和PaLM—540B三個(gè)大型語(yǔ)言模型中得到驗(yàn)證與標(biāo)準(zhǔn)提示相比,新方法明顯提高了算術(shù),常識(shí)和符號(hào)推理任務(wù)的準(zhǔn)確性
而且伴隨著模型參數(shù)的增加,思維鏈提示的效果也呈指數(shù)級(jí)增加。
尤其是使用谷歌的超級(jí)語(yǔ)言模型PaLM—540B,在包括數(shù)學(xué)問(wèn)題在內(nèi)的多項(xiàng)推理基準(zhǔn)測(cè)試中都達(dá)到了SOTA水平,甚至超過(guò)了使用驗(yàn)證器進(jìn)行微調(diào)的GPT—3。
很快,兩個(gè)月后,該小組繼續(xù)研究。
本文使用了與原文幾乎相同的數(shù)據(jù)集和設(shè)置主要的改進(jìn)是提出了一個(gè)簡(jiǎn)單的策略,叫做自洽
簡(jiǎn)單來(lái)說(shuō),就像人在思考的時(shí)候會(huì)想出幾種不同的解決方案然后做出判斷一樣,自洽法會(huì)通過(guò)思維線索鏈從語(yǔ)言模型中采樣出一組不同的推理路徑,然后以多數(shù)投票選出答案,最后返回最自洽的答案。
這一步優(yōu)化不僅意味著離模仿人類(lèi)思維方式更近了一步,也顯著提升了思維鏈方法的性能。
最新進(jìn)展是,為了解決由易到難的泛化問(wèn)題,團(tuán)隊(duì)提出了一種新穎的提示策略。
它將一個(gè)復(fù)雜的問(wèn)題簡(jiǎn)化為一系列子問(wèn)題,然后依次求解這些子問(wèn)題,從而通過(guò)對(duì)之前求解的子問(wèn)題的解答來(lái)促進(jìn)給定子問(wèn)題的求解。
通過(guò)這種方式,谷歌正在訓(xùn)練AI一步步接近人類(lèi)的思維模式。
最后說(shuō)了這么多,今年給你印象最深的Google AI研究是什么。
參考鏈接:
。鄭重聲明:此文內(nèi)容為本網(wǎng)站轉(zhuǎn)載企業(yè)宣傳資訊,目的在于傳播更多信息,與本站立場(chǎng)無(wú)關(guān)。僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。
2023年2月15日,湯臣倍健與美團(tuán)買(mǎi)藥在北京舉辦了2023
2021年收入增長(zhǎng)目標(biāo)應(yīng)能確保實(shí)現(xiàn),2022年收入增長(zhǎng)預(yù)計(jì)將
具體來(lái)看,一是簡(jiǎn)化業(yè)務(wù)流程和材料,便利北京冬奧會(huì)相關(guān)區(qū)域內(nèi)境
炒股就看金麒麟分析師研報(bào),權(quán)威,專(zhuān)業(yè),及時(shí),全面,助您挖掘潛
,據(jù)索尼官方消息,新星粉,銀河紫,星光藍(lán),三款全新配色Dua
,新氧數(shù)據(jù)顏究院發(fā)布《2021醫(yī)美行業(yè)白皮書(shū)》,白皮書(shū)顯示,