MIT實現(xiàn)僅單攝像頭精準(zhǔn)控制運動機器人技術(shù)

時間:2025-07-14

來源:IT之家

導(dǎo)語:7 月 13 日消息,麻省理工學(xué)院(MIT)團隊提出一種基于視覺的深度學(xué)習(xí)方法,僅需單個攝像頭即可讓軟體機器人和仿生機器人學(xué)習(xí)運動與控制。

  7 月 13 日消息,麻省理工學(xué)院(MIT)團隊提出一種基于視覺的深度學(xué)習(xí)方法,僅需單個攝像頭即可讓軟體機器人和仿生機器人學(xué)習(xí)運動與控制。

  該技術(shù)突破有望大幅降低機器人開發(fā)成本,相關(guān)成果已于 6 月 25 日發(fā)表于《自然》主刊(IT之家附 DOI: 10.1038/s41586-025-09170-0)。

  傳統(tǒng)工業(yè)機器人雖易于建??刂?,但剛性結(jié)構(gòu)難以適應(yīng)狹小或不平坦地形。軟體及仿生機器人雖具備環(huán)境適應(yīng)優(yōu)勢,卻通常依賴大量傳感器和定制化空間模型。

  現(xiàn)在,MIT 團隊通過深度學(xué)習(xí)技術(shù)解決了這一矛盾。新系統(tǒng)僅需通過單個攝像頭捕捉機器人運動畫面,結(jié)合名為“神經(jīng)雅可比場(NJF)”的技術(shù),使機器人通過視覺反饋建立對自身形態(tài)與運動能力的認(rèn)知。

  研究團隊對多種機器人進行了 2-3 小時多視角隨機運動視頻訓(xùn)練,成功讓神經(jīng)網(wǎng)絡(luò)通過單幀圖像重建機器人三維形態(tài)與運動范圍。

  在氣動軟體機械手、奧利格羅機械手(16 自由度)、3D 打印機械臂及低成本 Poppy 機械臂等測試中,系統(tǒng)實現(xiàn):

  關(guān)節(jié)運動誤差小于 3 度

  指尖控制誤差小于 4 毫米

  可自適應(yīng)環(huán)境動態(tài)變化

  MIT 助理教授文森特?西茨曼(Vincent Sitzmann)表示:“視覺作為彈性傳感器,為農(nóng)場、工地等非結(jié)構(gòu)化環(huán)境中的機器人應(yīng)用開啟新可能?!?/p>

  CSAIL 主任丹妮拉?羅斯(Daniela Rus)補充道:“視覺反饋使系統(tǒng)建立自身運動動力學(xué)內(nèi)部模型,在傳統(tǒng)定位方法失效處實現(xiàn)自監(jiān)督操作?!?/p>


中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(y3602.cn)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0