根據(jù)英國《自然》雜志5月30日發(fā)表的一項工程學論文,美國麻省理工學院團隊報告研發(fā)出一種裝配了傳感器的“人工智能手套”,可以學習識別單個物體、估算重量和應用觸覺反饋。這一成果有助于未來設計假體、機械工具和人機交互系統(tǒng)。
人類能夠以適當?shù)牧Χ茸ノ蘸透惺芪矬w,但是這種感覺反饋卻很難在機器人身上實現(xiàn)。近年來,基于計算機視覺的抓握策略,在新興機器學習工具的幫助下,取得了長足進步,但是目前依然缺少依賴于觸覺信息的平臺。
此次,麻省理工學院科學家薩博拉馬伊安·桑德拉姆及其同事,設計了一種實用且簡易廉價的可伸縮觸覺手套,其僅需10美元,手套上面布置了548個傳感器和64個導電線電極。
這種觸覺手套相當于由一張力敏薄膜和導電線網(wǎng)絡組成的傳感器陣列。電極與薄膜之間的每一個重合點都對垂直力敏感,并會記錄通過薄膜的電阻。研究人員帶上手套單手操控物體,由此記錄了一個大規(guī)模的觸覺圖譜數(shù)據(jù)集。數(shù)據(jù)集包含手指區(qū)域的空間關聯(lián)和對應,它們代表了人類抓握的觸覺特征。
研究團隊使用手套,單手與26個物體進行互動,時間超過5個小時,并錄下了觸覺視頻。之后,他們利用記錄下來的數(shù)據(jù)訓練一種深度學習網(wǎng)絡來識別這些圖片,發(fā)現(xiàn)該深度學習網(wǎng)絡能夠通過持握方式鑒定出不同的物體。
這一技術的未來應用將非常廣泛,譬如可用于機器人手術。這一領域此前最大的局限之一就是機器人缺乏人類外科醫(yī)生操作的“手感”,增加了手術的不確定性和風險性,但通過力觸覺反饋機制,可以讓手術機器人將觸覺實時傳遞給主刀醫(yī)生以及處理器,進一步將人工智能醫(yī)療精準化。