11 月 4 日消息,Meta介紹了旗下 FAIR(基礎(chǔ)人工智能研究)團隊對于機器人觸覺感知能力的研究情況,這項研究旨在讓機器人通過觸覺方式進一步理解和操作外界物體。
Meta 表示,打造相應(yīng) AI 機器人的核心在于讓機器人的傳感器感知理解物理世界,同時利用 "AI 大腦 " 精確控制機器人對物理世界進行反應(yīng),而團隊目前開發(fā)的機器人觸覺感知能力主要就是為了讓機器人檢測其交互的物體的材質(zhì)與觸感,以便于讓 AI 判斷機器人應(yīng)當(dāng)如何操作這些設(shè)備(例如拿起雞蛋等場景)。
▲ 圖源 Meta (下同)
參考 Meta 公布的文獻(xiàn)獲悉,Meta 目前一共公布了 Meta Sparsh、Digit 360 和 Meta Digit Plexus 等多項研究成果,其中 Meta Sparsh 是一種基于 AI 的觸覺編碼器,主要利用 AI 的自我監(jiān)督學(xué)習(xí)能力實現(xiàn)跨場景的觸覺感知,讓機器人的 AI 大腦在學(xué)習(xí)對于某種物體的 " 觸感 " 后,即可在各種場景靈活 " 感知 " 相關(guān)物品的特性。
而 Digit 360 則是一種高精度傳感器,該傳感器主要部署在機器人手指上,號稱具備多模態(tài)感知能力,能夠捕捉細(xì)微的觸覺變化。Meta 聲稱,該傳感器可以模擬人類的觸覺,支持振動、溫度等多重感知能力。
Meta Digit Plexus 則是一個開放性的平臺,號稱能夠整合多種傳感器,使機器人能夠更全面地通過傳感器感知周圍環(huán)境,并通過統(tǒng)一標(biāo)準(zhǔn)實時對接 AI 大腦進行反應(yīng)。
此外, Meta 還開發(fā)了 PARTNR 基準(zhǔn),這是一項用于評估人機協(xié)作能力的測試框架,旨在測試機器人 AI 系統(tǒng)在實際生活場景中的計劃和推理能力,該測試框架內(nèi)置 10 萬個自然語言任務(wù),能夠模擬居家環(huán)境中的各種情境,幫助開發(fā)者測試機器人對于自然語言的理解能力及執(zhí)行能力。
Meta 現(xiàn)已對外公開這些技術(shù)和數(shù)據(jù)供研究者使用,包括論文、開源代碼和模型等,鼓勵更多研究社區(qū)參與觸覺技術(shù)的創(chuàng)新研究。