2026年1月27日,上海靈波科技宣布開源高精度空間感知模型LingBot-Depth,這是靈波科技成立一年以來首次公布具身智能技術基座成果,也拉開了本周連續(xù)發(fā)布多款具身智能模型的序幕。

LingBot-Depth模型聚焦機器人“看清三維世界”這一關鍵難題。在家庭、工業(yè)場景中,玻璃器皿、鏡面、不銹鋼設備等透明反光物體隨處可見,傳統(tǒng)深度相機對此長期“束手無策”,常因無法接收有效光學信號,導致機器人感知出現(xiàn)偏差、操作失誤。
此次開源的模型成功破解了這一痛點。通過融合彩色圖像中的紋理、輪廓及環(huán)境信息,它能智能補全傳統(tǒng)設備缺失的深度數(shù)據(jù),輸出清晰完整的三維場景圖。即便面對透明玻璃、強逆光等復雜光學環(huán)境,搭載LingBot-Depth模型的設備也能精準捕捉物體輪廓,性能顯著優(yōu)于業(yè)內(nèi)主流產(chǎn)品。這意味著機器人在家庭服務、工業(yè)操作等場景中,抓取、避讓等動作的精準度將大幅提升。
基于靈波科技的模型能力,國內(nèi)機器人視覺龍頭企業(yè)奧比中光計劃推出新一代深度相機,實現(xiàn)“算法+硬件”的協(xié)同創(chuàng)新,無需更換高端傳感器就能提升消費級設備性能。在多項權威技術評測中,LingBot-Depth模型展現(xiàn)出代際級優(yōu)勢。相比主流技術,該模型在室內(nèi)場景感知誤差降低超70%,復雜任務中的精度提升近五成。同時,靈波科技采集約1000萬份原始樣本,提煉出200萬組高價值深度配對數(shù)據(jù)用于訓練,支撐模型在極端環(huán)境下的泛化能力。這一核心數(shù)據(jù)資產(chǎn)將于近期開源,推動更快攻克復雜場景空間感知難題。
值得關注的是,本周內(nèi),靈波科技還將陸續(xù)推出多款具身智能方向模型,覆蓋空間感知、智能交互等多個核心領域。靈波科技是螞蟻集團旗下具身智能公司。“我們不做機器人本體,只做機器人‘大腦’,讓機器人更聰明。”公司相關負責人表示。