HHPOKER是一款為德?lián)淙?ài)好者打造的在線德?lián)淦脚_(tái)。我們應(yīng)用了先進(jìn)的技術(shù)和傳統(tǒng)德?lián)涞木?為您帶來(lái)蕞真實(shí)、驚心動(dòng)魄的德州體驗(yàn)。無(wú)論您是初學(xué)者還是職業(yè)玩家,撲克王都能滿(mǎn)足您的需求,讓您隨時(shí)隨地都能...
通過(guò)整合多模態(tài)數(shù)據(jù),Emu3構(gòu)建出了對(duì)物理世界的感知理解能力,為具身智能和現(xiàn)實(shí)交互奠定基礎(chǔ)。
Richard Sutton
在空間智能方面,2.0版本在原有物體級(jí)可操作區(qū)域(Objective Affordance)感知與操作軌跡(Trajectory)生成能力的基礎(chǔ)上,實(shí)現(xiàn)了17%的性能提升。
全原子微觀生命模型OpenComplex2
OpenComplex2突破了靜態(tài)結(jié)構(gòu)預(yù)測(cè)的瓶頸。
經(jīng)過(guò)5個(gè)月的研發(fā)后,機(jī)器人就已經(jīng)能從烘干機(jī)取出衣物、放進(jìn)籃子里、疊起來(lái)。
所以,究竟發(fā)生了什么?
在這個(gè)框架下,全新小腦技能的注冊(cè)代碼量,僅需1.0版本的十分之一。
更令人振奮的是,RoboBrain 2.0將「可操作區(qū)域」從物體級(jí)擴(kuò)展至空間級(jí),從而在復(fù)雜環(huán)境中執(zhí)行更靈活、高效的操作。
OpenComplex2能夠表征生物分子系統(tǒng)的連續(xù)演化能量景觀,在原子層面捕捉分子相互作用及平衡構(gòu)象分布,為探索微觀構(gòu)象波動(dòng)與宏觀生物功能的跨尺度關(guān)聯(lián)提供了全新的研究視角。
去年10月,智源首次發(fā)布了Emu3,完全統(tǒng)一了多模態(tài)學(xué)習(xí),統(tǒng)一了圖像、視頻、文本,統(tǒng)一了生成和理解。
它基于下一個(gè)token預(yù)測(cè)統(tǒng)一多模態(tài)學(xué)習(xí),原生支持自回歸訓(xùn)練和推理,無(wú)需擴(kuò)散模型,也無(wú)需組合式架構(gòu)復(fù)雜性。
智源正在與國(guó)內(nèi)前沿的基礎(chǔ)神經(jīng)科學(xué)實(shí)驗(yàn)室、腦疾病研究團(tuán)隊(duì)和腦機(jī)接口團(tuán)隊(duì)深入合作,包括北京生命科學(xué)研究所、清華大學(xué)、北京大學(xué)、復(fù)旦大學(xué)與強(qiáng)腦科技BrainCO,拓展Brainμ的科學(xué)與工業(yè)應(yīng)用。
他將其稱(chēng)之為「科學(xué)家AI」(Scientist AI)。
而其中最重要的,就是視覺(jué)語(yǔ)言動(dòng)作模型。
此次,Bengio教授的報(bào)告題目為《Avoiding Catastrophic Risks from Uncontrolled AI Agency》(避免未受監(jiān)管的人工智能機(jī)構(gòu)帶來(lái)的災(zāi)難性風(fēng)險(xiǎn))。
而當(dāng)下,人類(lèi)已經(jīng)進(jìn)入使用強(qiáng)化學(xué)習(xí)的全新「體驗(yàn)時(shí)代」,要發(fā)揮AI超能力,還需要更好的深度學(xué)習(xí)算法。
· 全原子微觀生命模型OpenComplex2
可以看出,從「悟道」到「悟界」,智源研究院始終走在技術(shù)路線探索的前沿,積極構(gòu)建開(kāi)源開(kāi)放的技術(shù)生態(tài)。
OpenComplex2將加速?gòu)幕A(chǔ)分子機(jī)制研究到藥物設(shè)計(jì)等下游應(yīng)用的發(fā)展。
那么當(dāng)AI變得比人類(lèi)更聰明時(shí),如果它們更傾向于自己的存在而不是人類(lèi),我們?nèi)绾蚊鎸?duì)這種風(fēng)險(xiǎn)?
研究表明,過(guò)去六個(gè)月里,已經(jīng)有一些AI顯示出具有自我保護(hù)行為,撒謊甚至是欺騙、勒索人類(lèi)。
不過(guò),具身智能也面臨諸多挑戰(zhàn),甚至陷入了「循環(huán)悖論」。
結(jié)合AI精準(zhǔn)預(yù)測(cè)和高通量實(shí)驗(yàn)驗(yàn)證,有望大幅縮短生物醫(yī)藥研發(fā)時(shí)間,降低成本,提高成果轉(zhuǎn)化率,助力產(chǎn)業(yè)高質(zhì)量創(chuàng)新。
具身大腦RoboBrain 2.0,是目前全球最強(qiáng)開(kāi)源具身大腦大模型。
這種數(shù)據(jù)是動(dòng)態(tài)的、不斷增長(zhǎng)的,能夠隨著AI能力提升不斷改善,比如AlphaGo通過(guò)對(duì)弈下出了「第37步」、AlphaProof在數(shù)學(xué)奧賽中拿下大獎(jiǎng)。
然而,我們雖然會(huì)訓(xùn)練這些系統(tǒng),但卻不知道該如何控制它們。
準(zhǔn)備好,超硬核的思想盛宴來(lái)了!
雖然AI的性能可能很強(qiáng),Bengio教授表示,但我們可以確保它們沒(méi)有不良意圖,保證它們是誠(chéng)實(shí)的。
在這個(gè)統(tǒng)一框架下,過(guò)去半年多時(shí)間中,智源將其擴(kuò)展到更多的模態(tài)領(lǐng)域。
這個(gè)過(guò)程中真正發(fā)揮作用的,就是預(yù)訓(xùn)練和后訓(xùn)練的內(nèi)部模型。
原生多模態(tài)世界模型Emu3
原因正是因?yàn)?,它從互?lián)網(wǎng)的預(yù)訓(xùn)練中獲得了知識(shí),然后將知識(shí)轉(zhuǎn)化,連接到機(jī)器人,讓其真正實(shí)現(xiàn)了理解。
在開(kāi)始打掃之前,機(jī)器人從沒(méi)見(jiàn)過(guò)這間房間,卻能在全新環(huán)境中打掃、做家務(wù)。
Brainμ基于Emu3架構(gòu),引入腦信號(hào)這一新的模態(tài)數(shù)據(jù),實(shí)現(xiàn)了單一模型完成多種神經(jīng)科學(xué)任務(wù)的大一統(tǒng)。
而在未來(lái),智源研究院還將持續(xù)解構(gòu)物理世界與智能本質(zhì)的深層關(guān)聯(lián),在AGI的征途中刻下新的坐標(biāo)。
同時(shí),RoboOS 2.0推理鏈路效率大幅提升30%,平均延遲響應(yīng)時(shí)間將至3ms,端云通信效率提升27倍。
見(jiàn)微Brainμ以單一模型可以完成多種神經(jīng)科學(xué)的下游任務(wù)。
目的是讓AI有用但不會(huì)威脅到我們,確保AI會(huì)遵循我們的道德指令。
即便是在制作過(guò)程中,遇到了刁難——「我不要西紅柿我要這個(gè)」,機(jī)器人也能立馬理解,并做出下一步規(guī)劃。
因此,Richard認(rèn)為,未來(lái)的AI——智能體,需要通過(guò)與世界直接交互,去獲取經(jīng)驗(yàn)數(shù)據(jù),從而實(shí)現(xiàn)真正的智能突破。
2021年,「悟道」大模型誕生,正式開(kāi)啟了中國(guó)大模型時(shí)代。而今天「悟界」大模型的出世,標(biāo)志著AI從數(shù)字世界邁向了物理世界。
AI正從「人類(lèi)數(shù)據(jù)時(shí)代」,邁入「體驗(yàn)時(shí)代」。
這場(chǎng)科技圈最不容錯(cuò)過(guò)的、硬核十足的AI頂級(jí)盛會(huì),依舊星光熠熠、干貨滿(mǎn)滿(mǎn)。
在「人類(lèi)數(shù)據(jù)時(shí)代」,AI在模仿人類(lèi)行為和預(yù)測(cè)人類(lèi)意圖方面,取得了巨大的成功,比如ChatGPT。
就在剛剛,一年一度「AI內(nèi)行春晚」——智源大會(huì)正式開(kāi)幕!
現(xiàn)場(chǎng)演示中,機(jī)器人能從琳瑯滿(mǎn)目貨架上,精準(zhǔn)拿取酸奶、果凍,不會(huì)弄亂其他商品。
不論是Emu3,還是見(jiàn)微Brainμ,都代表著智源在多模態(tài)基礎(chǔ)模型領(lǐng)域的探索。
· 全球首個(gè)腦科學(xué)多模態(tài)通用基礎(chǔ)模型見(jiàn)微Brainμ
首先,我們可以采用預(yù)先在網(wǎng)絡(luò)上訓(xùn)練好的視覺(jué)語(yǔ)言模型,它對(duì)世界如何運(yùn)作已經(jīng)有了高水平理解,并且能將其中一些含義轉(zhuǎn)移到機(jī)器人的動(dòng)作上。
2024年,在第16屆蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)關(guān)鍵評(píng)估競(jìng)賽CASP16(Critical Assessment of protein Structure Prediction)中,成功預(yù)測(cè)了蛋白質(zhì)T1200/T1300的空間構(gòu)象分布(定性上與實(shí)驗(yàn)數(shù)據(jù)一致),成為23支參賽隊(duì)伍中唯一取得該突破的團(tuán)隊(duì)。
當(dāng)然,雖然π展現(xiàn)了一些物理智能的火花,但還不是物理智能,仍處于早期階段。
他指出,當(dāng)前AI訓(xùn)練主要依賴(lài)于互聯(lián)網(wǎng)上,人類(lèi)生成的數(shù)據(jù),如文本、圖像,并通過(guò)人類(lèi)微調(diào)來(lái)優(yōu)化。
下面所展示的就是他們和星辰智能的合作,讓機(jī)器人學(xué)會(huì)了煮咖啡。
大模型正從大語(yǔ)言模型——原生多模態(tài)模型——世界模型逐漸演進(jìn)。
然而,這一策略正接近極限。高質(zhì)量人類(lèi)數(shù)據(jù)幾乎被耗盡,而生成全新知識(shí)需要超越模仿,走向與世界的直接互動(dòng)。
這屆大會(huì),迎來(lái)了四位圖靈獎(jiǎng)得主坐鎮(zhèn),匯聚了DeepMind、Linux、華為、阿里等全球科技巨頭,還有MIT、斯坦福、清華、北大等20+海內(nèi)外頂尖學(xué)府研究人員齊聚一堂。
最具典型代表的,便是擴(kuò)展到「腦信號(hào)」模態(tài)。
他的演講主題為「構(gòu)建物理智能」。
這次大會(huì),還請(qǐng)來(lái)了2024 ACM圖靈獎(jiǎng)得主Richard Sutton,爆火博文「苦澀的教訓(xùn)」原作大佬。
最后,智源大會(huì)開(kāi)幕式今天圓滿(mǎn)結(jié)束,留給與會(huì)者和網(wǎng)絡(luò)上的觀眾們無(wú)盡的收獲和思考。
全球首個(gè)腦科學(xué)多模態(tài)通用基礎(chǔ)模型見(jiàn)微Brainμ
全球最強(qiáng)開(kāi)源具身大腦
具體來(lái)說(shuō),它將fMRI、EEG、雙光子等信號(hào)統(tǒng)一token化,實(shí)現(xiàn)了多模態(tài)腦信號(hào)與文本、圖像等模態(tài)的多項(xiàng)映射。
從微觀生命體到具身智能體,「悟界」系列大模型試圖揭示生命機(jī)理本質(zhì)規(guī)律,構(gòu)建人工智能與物理世界的交互基座。
相較于RoboOS 1.0,新版本在多方面得到了升級(jí),提供全球首個(gè)具身智能SaaS平臺(tái),支持無(wú)服務(wù)器一站式輕量化機(jī)器人本體部署的開(kāi)源框架。
而且,RoboOS 2.0還將支持MCP,打造全球首個(gè)具身智能的應(yīng)用商店。
Richard Sutton強(qiáng)調(diào),AI應(yīng)像人類(lèi)和動(dòng)物一樣,從第一人稱(chēng)的經(jīng)驗(yàn)中學(xué)習(xí)。
在泛化上,他們成功實(shí)現(xiàn)了讓機(jī)器人在從未見(jiàn)過(guò)的環(huán)境里工作。
· 具身大腦RoboBrain 2.0
智源研究院再度發(fā)力,重磅推出了「悟界」系列大模型,開(kāi)啟了通向物理AGI的全新篇章。
具體來(lái)說(shuō),「悟界」系列大模型共包含四款模型:
它支持多模態(tài)輸入、多模態(tài)輸出的端到端映射,驗(yàn)證了自回歸框架在多模態(tài)領(lǐng)域的普適性與先進(jìn)性,為跨模態(tài)交互提供了強(qiáng)大的技術(shù)基座。
大會(huì)現(xiàn)場(chǎng)還發(fā)布了OpenComplex2,實(shí)現(xiàn)了生物分子研究從靜態(tài)結(jié)構(gòu)預(yù)測(cè)到動(dòng)態(tài)構(gòu)象分布建模的重大突破。
接下來(lái)登場(chǎng)的,便是曾任谷歌大腦資深研究科學(xué)家兼機(jī)器人操控主管、現(xiàn)任Physical Intelligence聯(lián)合創(chuàng)始人兼CEO的Karol Hausman。
答案顯而易見(jiàn):AI出現(xiàn)了。
而且,它還貼心考慮到小姐姐減肥需求,主動(dòng)推薦了無(wú)糖可樂(lè)。最后機(jī)器人還幫忙打掃餐桌,全程操作非常絲滑。
為此,智源提前布局,在今年3月發(fā)布了首次發(fā)布跨本體具身大小腦協(xié)作框架RoboOS 1.0以及具身大腦RoboBrain 1.0。
從多模態(tài)基礎(chǔ)模型到具身智能大腦,從宏觀到微觀,一共四大核心成果正式亮相。
這時(shí),「體驗(yàn)時(shí)代」成為AI發(fā)展的下一個(gè)階段。
「悟界」系列大模型,邁向物理AGI
在空間感知/推理與多任務(wù)規(guī)劃上,RoboBrain 2.0超越主流大模型,刷新SOTA。
比如,Robotics Transformer 2從沒(méi)見(jiàn)過(guò)霉霉的照片,卻能完成「給霉霉遞可樂(lè)」的這個(gè)動(dòng)作。
時(shí)隔3個(gè)月,全新升級(jí)后的RoboOS 2.0和RoboBrain 2.0官宣上線。
這使得在建模過(guò)程中可以兼顧關(guān)鍵的局部結(jié)構(gòu)細(xì)節(jié)與全局構(gòu)象變化,為揭示生物功能提供更加全面的基礎(chǔ)結(jié)構(gòu)。
其次,除了互聯(lián)網(wǎng)之外,我們還可以把各種來(lái)源的數(shù)據(jù)都整合到一起。
在自動(dòng)化睡眠分型、感官信號(hào)重建與多種腦疾病診斷等任務(wù)中,刷新SOTA表現(xiàn)。
Emu3之所以如此強(qiáng)大,得益于其背后的框架。
與悲觀派Bengio不同的是,Richard大會(huì)直言,「我不擔(dān)心安全,也不擔(dān)心失業(yè),超級(jí)智能體和超級(jí)智能能夠增強(qiáng)人類(lèi)的創(chuàng)造,這是世界轉(zhuǎn)變和發(fā)展的一部分」。
AI「體驗(yàn)時(shí)代」來(lái)臨
如今,RoboBrain 2.0可實(shí)時(shí)構(gòu)建出包含本體定位的場(chǎng)景圖(Scene Graph),任務(wù)規(guī)劃準(zhǔn)確率較上一代飆升至74%。
Bengio教授現(xiàn)場(chǎng)講解了這種新的AI推理方法:通過(guò)構(gòu)建類(lèi)似數(shù)學(xué)證明的結(jié)構(gòu)化假設(shè)圖來(lái)提高推理能力。
為此,團(tuán)隊(duì)訓(xùn)練了一個(gè)模型,來(lái)控制任何機(jī)器人執(zhí)行任何任務(wù)。
而具身智能大模型不好用、不通用、不易用,成為了核心痛點(diǎn)。
大會(huì)重中之重,便是智源研究院一系列的重磅發(fā)布。
要知道,早先的機(jī)器人一旦遇到環(huán)境上的變化,就會(huì)無(wú)法應(yīng)對(duì);但如今,機(jī)器人開(kāi)始變得更加絲滑,能跳流暢的舞蹈,還能靈活應(yīng)對(duì)非結(jié)構(gòu)化的環(huán)境。
同初代框架模型一樣,RoboOS 2.0和RoboBrain 2.0所有代碼、權(quán)重、數(shù)據(jù)、評(píng)測(cè)集全部開(kāi)源。
· RoboOS 2.0
過(guò)去四年,智源研究院繼續(xù)圍繞這一趨勢(shì)展開(kāi)布局,并在今天重磅推出全新「悟界」系列大模型。
Bengio教授現(xiàn)在的研究項(xiàng)目就在嘗試構(gòu)建只有智能而沒(méi)有自我和目標(biāo)的AI。
· RoboBrain 2.0
Yoshua Bengio
Brainμ也可以支持拓展腦機(jī)接口應(yīng)用,首次在便攜式消費(fèi)級(jí)腦電系統(tǒng)上重建感覺(jué)信號(hào)。
除此之外,RoboOS 2.0在功能上還新增了業(yè)內(nèi)首創(chuàng)多本體時(shí)空記憶場(chǎng)景圖(Scene Graph)共享機(jī)制,同時(shí)引入多粒度任務(wù)監(jiān)控模塊。
而將大會(huì)推向高潮的,無(wú)疑就是圖靈獎(jiǎng)得主Yoshua Bengio、Richard Sutton等AI大佬的精彩演講。
5年后AI超越人類(lèi),科學(xué)家AI救場(chǎng)
編輯:編輯部 YZNH
Bengio教授說(shuō),如果我們最終創(chuàng)造出與人類(lèi)競(jìng)爭(zhēng)的AGI,那將是非常糟糕的。
相較于1.0,全新具身大腦模型進(jìn)一步擴(kuò)展了多本體-環(huán)境動(dòng)態(tài)建模的多機(jī)協(xié)同規(guī)劃能力。
由此,全球首個(gè)腦科學(xué)多模態(tài)通用基礎(chǔ)模型「見(jiàn)微Brainμ」誕生了。
作為跨任務(wù)、跨模態(tài)、多物種、跨個(gè)體的基礎(chǔ)通用模型,Brainμ可以同步處理多類(lèi)編解碼任務(wù),兼容多種動(dòng)物模型(包括小鼠、狨猴、獼猴)與人類(lèi)數(shù)據(jù),實(shí)現(xiàn)科學(xué)數(shù)據(jù)注釋、交互式科學(xué)結(jié)論解讀等。
最后,Bengio教授呼吁國(guó)家、企業(yè)之間要攜手合作,共同應(yīng)對(duì)AI的安全風(fēng)險(xiǎn)。
不過(guò),就如同我們剛開(kāi)始使用電的時(shí)候,需要花費(fèi)很多力氣才能馴服它。如果我們能解決物理智能的問(wèn)題,勞動(dòng)力就將唾手可得。
無(wú)論是嬰兒通過(guò)玩耍探索世界,還是足球運(yùn)動(dòng)員、動(dòng)物在環(huán)境中學(xué)習(xí)決策, 這些經(jīng)驗(yàn)數(shù)據(jù)全部來(lái)自與環(huán)境中的「實(shí)時(shí)互動(dòng)」。
他們一同分享了硬核技術(shù)突破,更深入探討了AI前沿與未來(lái)走向,兼具深度與啟發(fā)。
它基于FloydNetwork圖擴(kuò)散框架以及多尺度原子精度表示兩大關(guān)鍵技術(shù)創(chuàng)新,能夠更加真實(shí)地還原生物分子的構(gòu)象多樣性與動(dòng)態(tài)特性。
· 原生多模態(tài)世界模型Emu3
甚至,這個(gè)系統(tǒng)足夠強(qiáng)大,我們可以隨時(shí)可以中斷它,而不影響任務(wù)。這并沒(méi)有經(jīng)過(guò)專(zhuān)門(mén)訓(xùn)練。
AI不再只是模仿人類(lèi)文本,而是通過(guò)分析這些陳述的邏輯一致性和概率來(lái)尋找解釋?zhuān)筛煽康慕Y(jié)論。
演講中,Richard教授分享了自己對(duì)AI未來(lái)深刻洞見(jiàn),正如演講題目所言——
可以看出來(lái),下面這項(xiàng)疊衣服的任務(wù)非常艱巨,很棘手。需要做出很多種不同動(dòng)作,才能正確抓住襯衫的角。
最先作開(kāi)場(chǎng)報(bào)告的,是圖靈獎(jiǎng)得主、深度學(xué)習(xí)領(lǐng)域的奠基人之一——Yoshua Bengio。
【新智元導(dǎo)讀】剛剛,AI頂流春晚智源大會(huì)來(lái)了!深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)兩大巨頭齊聚,圖靈獎(jiǎng)得主、頂尖專(zhuān)家出席,2025 AI未來(lái)的發(fā)展路徑,在一場(chǎng)場(chǎng)精彩的思想碰撞中被清晰解碼,硬核指數(shù)已經(jīng)超標(biāo)。
一上來(lái),教授就一針見(jiàn)血地指出,AI的規(guī)劃能力正在指數(shù)級(jí)遞增。AI能完成的任務(wù)持續(xù)時(shí)間每七個(gè)月就會(huì)翻一番,這么算下來(lái),五年后就可以達(dá)到人類(lèi)水平。
Hausman相信,如果真的成功解決了物理智能的問(wèn)題,我們絕不會(huì)止步于人形機(jī)器人。那時(shí),我們將經(jīng)歷機(jī)器人的寒武紀(jì)大爆發(fā)。
值得一提的是,Emu3已面向AI社區(qū)開(kāi)源。
除了在感知能力上突破,它還新增了兩大核心能力:閉環(huán)反饋和深度思考。
更有趣的是,宇樹(shù)機(jī)器人閃亮登場(chǎng),帶來(lái)了一場(chǎng)令人熱血沸騰的拳擊表演。
現(xiàn)場(chǎng)演示中,全新具身大腦加持的機(jī)器人本體,為小姐姐制作了一款漢堡和飲料套餐。
通過(guò)整合多個(gè)大型公開(kāi)數(shù)據(jù)集和多個(gè)合作實(shí)驗(yàn)室的高質(zhì)量神經(jīng)科學(xué)數(shù)據(jù),Brainμ可以支持從基礎(chǔ)研究到臨床研究等不同的方向,有望成為腦科學(xué)的「AlphaFold」模型。
而這些成果,皆是為了讓AI能夠真正看到、感知、理解這個(gè)世界,并與世界進(jìn)行交互,從而推動(dòng)具身智能的發(fā)展。
過(guò)去的一年,實(shí)踐證明智源在2024年對(duì)大模型技術(shù)路線預(yù)判的正確性: