發(fā)布時間:2023-11-10 14:55:40 瀏覽量:116次
網(wǎng)友:阿凡達照進現(xiàn)實
西風 發(fā)自 凹非寺
|
斯坦福李飛飛、吳佳俊帶隊讓《阿凡達》意念操控照進了現(xiàn)實!
現(xiàn)在,只需要動動腦子就能操縱機器人。
想吃壽喜鍋不用自己動手,切菜備菜、倒入食材,機器人一氣呵成:
做飯、烹茶樣樣都行:
忙完還能順便把桌面清理了:
你以為這就完了?這個機器人玩起游戲來也是一把好手:
甚至還能幫你熨衣服:
關(guān)鍵是,旁邊的操縱者只需要坐在那里“冥想”即可,無需手搖搖桿。
能做到這些,都要得益于研究團隊最新開發(fā)腦機接口系統(tǒng)——NOIR。
這是一個通用的智能系統(tǒng),使用者無需佩戴侵入性設(shè)備,機器人可以從腦電信號中解碼人類意圖。
并且它還配有一個“技能庫”,可以隨意組合各種技能完成人類指令,輕松應(yīng)對高達20項日常任務(wù)。
要知道,常規(guī)腦機接口系統(tǒng)一般只專注于一項或幾項任務(wù)。
目前這項研究已收錄于機器人頂會CoRL 2023:
圍觀網(wǎng)友一口一個哦買噶:
哦買噶,游戲規(guī)則改變者!
清華叉院助理教授許華哲也來評論區(qū)捧場:
哦買噶,賽博朋克!
這個NOIR系統(tǒng)究竟是什么?機器人為何能完成這么多任務(wù)?
正如上文所說,這個機器人能干的事兒多著呢。
干酪撒粉這種任務(wù)也能輕松完成:
拆包裹、整理桌面這種活就更不在話下:
而其背后的這個NOIR系統(tǒng),簡單來說可以分為兩部分:模塊化解碼管線、有原始技能庫的機器人系統(tǒng)。
主打一個讓機器人自動學習預(yù)測人類意圖。
具體來說,模塊化管線將解碼人類意圖過程分為三個模塊:
1)選擇什么對象?
方法是在屏幕上顯示任務(wù)場景,利用對象的閃爍刺激產(chǎn)生SSVEP信號;每個對象以不同頻率閃爍,人類注視某對象時,腦電信號中該頻率成分增強。
然后用Canonical Correlation Analysis(CCA)方法,分析不同頻率的相關(guān)性,確定人類注視的對象。
2)如何交互?
這部分是通過提示人類想象執(zhí)行某些技能(左手、右手等)產(chǎn)生運動意象信號,然后使用濾波和Common Spatial Pattern (CSP)算法預(yù)處理信號。
最后利用Quadratic Discriminant Analysis (QDA)進行4類識別,確定技能選擇。
3)在哪交互?
人類想象控制光標的左右運動來選擇技能執(zhí)行的具體參數(shù)。同樣通過CSP和QDA處理并解碼腦電信號,判斷人類是左還是右。
研究人員還設(shè)置了安全機制,采用肌肉緊張信號來確認或拒絕腦電信號解碼結(jié)果,避免解碼錯誤導致的風險。
之后,機器人配備了一系列參數(shù)化的基本技能,例如Pick(x,y,z)、Place(x,y,z)、Push(x,y,z,d)。
可以組合使用這些技能來完成人類指定的各種任務(wù)。
在這個過程中,解碼人類意圖既費時又費錢。所以研究團隊選擇讓機器人用基于檢索的少樣本學習,來學習人類的對象、技能和參數(shù)選擇。
這樣一來,在給定一個新的任務(wù)時,機器人會在記憶中找到最相關(guān)的經(jīng)驗,并選擇相應(yīng)的技能和對象。
舉個例子,假設(shè)人類在執(zhí)行抓取杯子的任務(wù),選擇了在杯子的某個特定位置抓?。ū热绫拥陌咽郑?。機器人會記錄下當時的圖像,以及人類選擇的抓取點。
在之后的任務(wù)中,當機器人看到新的杯子圖像時,它會首先根據(jù)預(yù)訓練模型來分析這個新圖像,提取圖像的語義特征。
然后計算新圖像的特征和之前記錄的訓練圖像特征之間的相似度,找出最相似的一個點,作為它預(yù)測的抓取位置。
通過這種匹配圖像特征的方式,機器人只需要人類示范一次參數(shù)選擇,就可以在未來自己預(yù)測參數(shù),而不需要人類每次都完全重新選擇一遍。
使用NOIR系統(tǒng),3名人類參與者完成了上面我們所介紹的20項日常活動任務(wù),其中包括16個桌面操作任務(wù)和4個移動操作任務(wù)。
在測試中,每個任務(wù)平均需要嘗試1.8次就能成功,平均完成時間為20.3分鐘,這其中主要是人類決策和解碼耗時,占總耗時的80%。
實驗各階段的解碼準確率和其它腦機接口研究差不多,但使用這種方法可以將對象和技能選擇時間降低60%,從45.7秒縮減到18.1秒。
除了李飛飛教授、吳佳俊教授帶隊,論文共同一作有四位,分別是:
Ruohan Zhang
Ruohan Zhang是斯坦福視覺與學習實驗室(SVL)博士后研究員,同時也是Wu Tsai Human Performance Alliance研究員。
主要研究方向為機器人技術(shù)、人機交互、腦機接口、認知科學和神經(jīng)科學。
Sharon Lee
Sharon Lee是斯坦福大學視覺與學習實驗室(SVL)研究生研究員。
Minjune Hwang
Minjune Hwang是斯坦福大學計算機科學研究生,于加州大學伯克利分校獲得計算機科學和統(tǒng)計學本科學位,曾在亞馬遜、微軟和蘋果進行研究。
Ayano Hiranaka
斯坦福大學研究生,本科畢業(yè)于伊利諾伊大學香檳分校。
論文鏈接:https://arxiv.org/abs/2311.0145
參考鏈接:
[1]https://twitter.com/drjimfan/status/1722674119794434187
[2]https://twitter.com/ruohanzhang76/status/1720525179028406492
熱門資訊
想將照片變成漫畫效果?這篇文章分享了4個方法,包括Photoshop、聰明靈犀、VanceAI Toongineer、醒圖,簡單操作就能實現(xiàn),快來嘗試一下吧!
2. 華為手機神奇“AI修圖”功能,一鍵消除衣服!原圖變身大V領(lǐng)深V!
最近華為手機Pura70推出的“AI修圖”功能引發(fā)熱議,通過簡單操作可以讓照片中的人物換裝。想了解更多這款神奇功能的使用方法嗎?點擊查看!
近年來,人工智能逐漸走入公眾視野,其中的AI圖像生成技術(shù)尤為引人注目。只需在特定軟件中輸入關(guān)鍵詞描述語以及上傳參考圖就能智能高效生成符合要求的...
4. AI視頻制作神器Viggle:讓靜態(tài)人物動起來,創(chuàng)意無限!
Viggle AI是一款免費制作視頻的AI工具,能讓靜態(tài)人物圖片動起來,快來了解Viggle AI的功能和優(yōu)勢吧!
5. Logo Diffusion——基于sd繪畫模型的AI LOGO 生成器
這下LOGO設(shè)計徹底不用求人了。接下來詳細演示一遍操作流程首先進入Logo D... 想學習更多AI技能,比如說關(guān)于怎么樣利用AI來提高生產(chǎn)效率、還能做什么AI...
6. 零基礎(chǔ)10分鐘生成漫畫,教大家如何用AI生成自己的漫畫
接下來,我將親自引導你,使用AI工具,創(chuàng)作一本既有趣又能帶來盈利的漫畫。我們將一起探索如何利用這個工具,發(fā)揮你的創(chuàng)意,制作出令人驚嘆的漫畫作品。讓...
7. AI顯卡繪畫排行榜:4090無懸念,最具性價比出人意料
在AI繪圖領(lǐng)域,Stable Diffusion的顯卡繪圖性能備受關(guān)注。本文整理了Stable Diffusion顯卡的硬件要求和性能表現(xiàn),以及2023年3月顯卡AI繪圖效率排行榜和性價比排行榜。歡迎查看最新的AI顯卡算力排行榜。
8. 趕緊收藏好!這4個完全免費的AI視頻制作網(wǎng)站和工具
以下是一些免費的AI視頻制作網(wǎng)站或工具,幫助您制作各種類型的視頻。 1. Lumen5:Lumen5是一個基于AI的視頻制作工具,可將文本轉(zhuǎn)換為視頻。 用戶可以使...
就能快速生成一幅極具藝術(shù)效果的作品,讓現(xiàn)實中不懂繪畫的人也能參與其中創(chuàng)作!真的超贊噠~趣趣分享幾款超厲害的AI繪畫軟件,提供詳細操作!有需要的快來...
10. 10個建筑AI工具,從設(shè)計到施工全覆蓋!肯定有你從來沒聽過的
講述了建筑業(yè)比較著名的AI公司小庫科技做出的探索,在這兒就不多說了。今天,我們試著在規(guī)劃設(shè)計、建筑方案設(shè)計、住宅設(shè)計、管道設(shè)計、出渲染圖、3D掃...
最新文章
同學您好!