【
智慧城市網 企業關注】近日,中國科學院合肥物質科學研究院安光所
光電子中心計算機視覺團隊研發出適用于大場景的多
機器人協同定位新技術。相關研究成果發表在機器人領域國際Top期刊IEEE Robotics and Automation Letters (IEEE RA-L)上。
在智能機器人領域,基于視覺的同步定位與地圖構建技術(SLAM)因
視覺傳感器具有成本低、部署靈活、信息量豐富等優勢,成為行業研究熱點。在大規模環境中,通過共享地圖數據實現協同作業可大幅提升工作效率。然而,實現多機器人系統中不同機器人間的全局定位(Multi-Robot Global Localization, MR-GL)依然面臨諸多挑戰。特別是在機器人初始位姿未知、環境動態變化劇烈的情況下,不同機器人間視角差異造成的數據數據匹配困難,動態場景對算法的實時性與魯棒性(一個系統在面臨著內部結構或外部環境的改變時也能夠維持其功能穩定運行的能力)提出了更高要求。此外,如何在保障精度的同時快速完成多機協同定位,是影響協同任務能否成功執行的關鍵因素之一。
針對上述難題,研究團隊創新性地提出了一種融合語義與幾何三重約束的圖匹配多機器人全局定位方法——SGT-MGL。該方法首先提取場景中對象的語義與幾何特征,并通過拓撲結構刻畫其空間分布關系。為增強對象的區分性,研究人員基于語義信息與相對距離構建了三角形描述符,進一步提升了特征辨識度。考慮到語義與幾何信息的互補特性,創新性提出了一種融合語義標簽、空間夾角及相對距離信息的三維直方圖描述符,有效提升了三角形描述符的穩定性與不變性。為進一步降低噪聲干擾,研究團隊采用"由粗到精"的匹配策略,提出了一種由全局幾何結構篩選關鍵點位,并結合局部與全局圖匹配方法,實現了多機器人間的高精度六自由度(6-DoF)(三維位置+三維朝向)姿態估計。實驗結果表明,該方法在提升全局定位精度方面具有顯著優勢。
實驗數據顯示,該技術在復雜動態環境中的定位精度較傳統方法提升顯著。其創新性的三重約束機制,既保證了算法在視角差異下的魯棒性,又通過分級處理兼顧了運算效率,為未來智能醫院、智能工廠等場景的多機器人協同作業提供了關鍵技術支撐。
該項工作的第一作者為王凡博士后,通訊作者為張文副研究員和劉勇研究員。本研究得到了國家自然科學基金、合肥物質院院長基金和國家重點研發計劃的支持。
所提出的多機器人全局定位方法在KITTI08序列數據集上的應用
版權與免責聲明:
凡本網注明“來源:智慧城市網”的所有作品,均為浙江興旺寶明通網絡有限公司-智慧城市網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智慧城市網”。違反上述聲明者,本網將追究其相關法律責任。
本網轉載并注明自其它來源(非智慧城市網)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。
如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。