- 型號(hào):UG140P
- 數(shù)量:5
- 制造商:廈門(mén)戎豐電氣設(shè)備有限公司
- 有效期:2025/1/9 0:00:00
谷歌為人工智能機(jī)器人開(kāi)發(fā)了一部“機(jī)器人憲法”,讓機(jī)器人不傷害人類(lèi)。
當(dāng)?shù)貢r(shí)間1月4日,谷歌DeepMind機(jī)器人團(tuán)隊(duì)公布了三項(xiàng)新進(jìn)展,稱(chēng)這些進(jìn)展將幫助機(jī)器人在自然環(huán)境中做出更快、更好、更安全的決策。其中一項(xiàng)進(jìn)展是一個(gè)收集訓(xùn)練數(shù)據(jù)的“機(jī)器人憲法”系統(tǒng)——AutoRT。
谷歌的數(shù)據(jù)收集系統(tǒng)AutoRT利用了基礎(chǔ)大模型的潛力,有助于開(kāi)發(fā)能夠理解人類(lèi)實(shí)際目標(biāo)的機(jī)器人。它通過(guò)收集數(shù)據(jù)幫助擴(kuò)展機(jī)器人學(xué)習(xí),從而更好地訓(xùn)練機(jī)器人適應(yīng)現(xiàn)實(shí)世界。
AutoRT結(jié)合了視覺(jué)語(yǔ)言模型(VLM)、大語(yǔ)言模型(LLM)以及機(jī)器人控制模型(RT-1或RT-2),讓機(jī)器人在新環(huán)境中收集訓(xùn)練數(shù)據(jù)。AutoRT可一次性安全指揮20個(gè)機(jī)器人,機(jī)器人只配備一個(gè)攝像頭、機(jī)械臂和移動(dòng)基座,每個(gè)機(jī)器人利用視覺(jué)語(yǔ)言模型來(lái)了解其周?chē)h(huán)境和視線內(nèi)的物體,大語(yǔ)言模型則會(huì)提出一系列機(jī)器人可以執(zhí)行的創(chuàng)造性任務(wù),比如把零食放在臺(tái)面上,或者扮演決策者為機(jī)器人選擇合適的任務(wù)。
盡管AutoRT是一個(gè)數(shù)據(jù)收集系統(tǒng),但它具有安全護(hù)欄,其中之一就是提供“機(jī)器人憲法”。谷歌的“機(jī)器人憲法”采用“以安全為重點(diǎn)的提示”,指示大語(yǔ)言模型避免選擇涉及人類(lèi)、動(dòng)物、尖銳物體甚至電器的任務(wù)。這部“機(jī)器人憲法”的靈感來(lái)自科幻作家艾薩克·阿西莫夫(Isaac Asimov)的“機(jī)器人三定律”,即機(jī)器人不得傷害人,也不得見(jiàn)人受傷害而袖手旁觀;機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律;機(jī)器人應(yīng)保護(hù)自身安全,但不得違反第一、第二定律。為了提高安全性,DeepMind對(duì)機(jī)器人進(jìn)行編程,如果機(jī)器人關(guān)節(jié)受力超過(guò)一定閾值就會(huì)自動(dòng)停止,并安裝了一個(gè)物理終止開(kāi)關(guān),讓人類(lèi)操控機(jī)器人停止工作。
在七個(gè)月時(shí)間里,谷歌在不同辦公大樓中共部署52個(gè)獨(dú)特的機(jī)器人,收集了包括6650個(gè)獨(dú)特任務(wù)的77000次機(jī)器人試驗(yàn)的不同數(shù)據(jù)集。據(jù)The Verge報(bào)道,一些機(jī)器人由人類(lèi)操作員遠(yuǎn)程控制,而其他機(jī)器人則根據(jù)腳本或完全自主使用谷歌的機(jī)器人Transformer(Robotic Transformer)人工智能學(xué)習(xí)模型進(jìn)行操作。
DeepMind的其他新技術(shù)還包括神經(jīng)網(wǎng)絡(luò)架構(gòu)SARA-RT,旨在讓現(xiàn)有的機(jī)器人Transformer人工智能學(xué)習(xí)模型更快更準(zhǔn)確。此外還宣布了RT-Trajectory模型,幫助機(jī)器人更好地完成擦桌子等特定物理任務(wù)。
對(duì)人類(lèi)來(lái)說(shuō),理解如何擦桌子是一種直覺(jué),但機(jī)器人可以通過(guò)多種方式將指令轉(zhuǎn)化為實(shí)際的物理動(dòng)作。傳統(tǒng)上,訓(xùn)練機(jī)械臂依賴(lài)于將抽象的自然語(yǔ)言(如擦桌子)映射到特定動(dòng)作,例如閉合抓手、向左移動(dòng)、向右移動(dòng),但這使得模型很難推廣到新的任務(wù)中。
而RT-Trajectory模型可以在訓(xùn)練視頻中自動(dòng)添加描述機(jī)器人運(yùn)動(dòng)的視覺(jué)輪廓。RT-Trajectory在訓(xùn)練數(shù)據(jù)集中采集每個(gè)視頻,并將其與機(jī)器人手臂抓手執(zhí)行任務(wù)時(shí)的2D軌跡草圖疊加。這些軌跡為模型學(xué)習(xí)機(jī)器人控制策略提供了低級(jí)實(shí)用的視覺(jué)提示。
DeepMind表示,相比之下,RT-Trajectory模型能夠通過(guò)解釋視頻或草圖中包含的特定機(jī)器人動(dòng)作讓機(jī)器人理解“如何做”任務(wù)。該系統(tǒng)用途廣泛,它還可以通過(guò)觀看人類(lèi)演示任務(wù)來(lái)創(chuàng)建軌跡,甚至可以接受手繪草圖,它也可以輕松適應(yīng)不同機(jī)器人平臺(tái)。
- 電話:13358378970
- 傳真: 0592-2231522
- email:3073759694@QQ.COM