《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Meta公布機器人觸覺感知能力研究成果

Meta公布機器人觸覺感知能力研究成果

傳感器理解/操作外界物體
2024-11-05
來源:IT之家

11 月 4 日消息,Meta介紹了旗下 FAIR(基礎(chǔ)人工智能研究)團隊對于機器人觸覺感知能力的研究情況,這項研究旨在讓機器人通過觸覺方式進一步理解和操作外界物體。


Meta   表示,打造相應(yīng)   AI   機器人的核心在于讓機器人的傳感器感知理解物理世界,同時利用 "AI   大腦 " 精確控制機器人對物理世界進行反應(yīng),而團隊目前開發(fā)的機器人觸覺感知能力主要就是為了讓機器人檢測其交互的物體的材質(zhì)與觸感,以便于讓   AI   判斷機器人應(yīng)當(dāng)如何操作這些設(shè)備(例如拿起雞蛋等場景)。

1.jpg

▲ 圖源 Meta (下同)

參考   Meta   公布的文獻(xiàn)獲悉,Meta   目前一共公布了 Meta Sparsh、Digit 360 和 Meta Digit Plexus 等多項研究成果,其中 Meta Sparsh 是一種基于   AI   的觸覺編碼器,主要利用 AI 的自我監(jiān)督學(xué)習(xí)能力實現(xiàn)跨場景的觸覺感知,讓機器人的   AI   大腦在學(xué)習(xí)對于某種物體的 " 觸感 " 后,即可在各種場景靈活 " 感知 " 相關(guān)物品的特性。

而   Digit 360 則是一種高精度傳感器,該傳感器主要部署在機器人手指上,號稱具備多模態(tài)感知能力,能夠捕捉細(xì)微的觸覺變化。Meta 聲稱,該傳感器可以模擬人類的觸覺,支持振動、溫度等多重感知能力。

2.jpg

3.jpg

Meta Digit Plexus 則是一個開放性的平臺,號稱能夠整合多種傳感器,使機器人能夠更全面地通過傳感器感知周圍環(huán)境,并通過統(tǒng)一標(biāo)準(zhǔn)實時對接   AI   大腦進行反應(yīng)。

此外,  Meta 還開發(fā)了 PARTNR 基準(zhǔn),這是一項用于評估人機協(xié)作能力的測試框架,旨在測試機器人 AI   系統(tǒng)在實際生活場景中的計劃和推理能力,該測試框架內(nèi)置 10 萬個自然語言任務(wù),能夠模擬居家環(huán)境中的各種情境,幫助開發(fā)者測試機器人對于自然語言的理解能力及執(zhí)行能力。

Meta 現(xiàn)已對外公開這些技術(shù)和數(shù)據(jù)供研究者使用,包括論文、開源代碼和模型等,鼓勵更多研究社區(qū)參與觸覺技術(shù)的創(chuàng)新研究。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。