機器姬公司推出針對科研和教育市場的家用具身智能機器人研發(fā)平臺
▍機器姬公司發(fā)展時間軸:
- 2023年12月27日
由專注于具身智能領(lǐng)域的行業(yè)知名技術(shù)專家和科學家劉智勇領(lǐng)銜,機器姬項目在北京五道口正式成立。
- 2024年2月25日
機器姬公司推出的文生行動(TEXT TO MOTION)推理智能體,展示了該具身智能體(Agent)在長周期任務規(guī)劃以及移動、抓取等基礎元操作方面的能力。
- 2024年3月2日
機器姬公司首先推出面向科研和教育市場可銷售的家用機器人本體,填補了國內(nèi)具身智能領(lǐng)域家用類型機器人的空白。隨即開始了產(chǎn)品的公開銷售。
▍機器姬項目的成立與發(fā)展,填補家用機器人研發(fā)平臺的空白
機器姬項目的成立和發(fā)展,這標志著中國具身智能領(lǐng)域的一個重要發(fā)展階段。由具身智能方向技術(shù)專家和科學家劉智勇領(lǐng)銜的團隊不僅成功推出了具有長周期任務規(guī)劃能力和基礎操作能力的文生行動推理智能體。同時,他們還針對科研和教育市場推出了家用機器人本體科研平臺,旨在為高校和研究機構(gòu)提供一個開放的研發(fā)平臺,以促進具身智能領(lǐng)域的科學研究和教學。這顯著填補了國內(nèi)在該領(lǐng)域的空白,并為機器姬公司未來的發(fā)展奠定了堅實的基礎。
▍市場策略與產(chǎn)品規(guī)劃,首先面向高等教育和科研機構(gòu)的具身智能研究
機器姬公司采用了清晰的分階段市場策略:首階段,推出面向高等教育和科研機構(gòu)的機器人科研平臺,滿足具身智能機器人在科研領(lǐng)域的需求;第二階段是針對生活時間較少或工作時間較多的年輕人家庭推出的全屋清潔機器人產(chǎn)品,提升家庭生活品質(zhì);第三階段是面向每個家庭的家務機器人產(chǎn)品,使具身智能機器人成為家庭生活中不可或缺的一部分。該策略不僅反映了機器姬公司對市場需求的深入洞察,也開拓了具身智能技術(shù)在日常生活應用中的新視野。
機器姬家用機器人研發(fā)平臺本體
▍硬件設計,六軸多功能機械臂、夾爪和圓形底盤的標準方案
在硬件方面,作為領(lǐng)先的具身智能家用機器人研發(fā)平臺,機器姬·畢玲采用了高度集成化設計,包括先進的傳感器系統(tǒng)、多功能機械臂以及靈活的移動底盤,具備適應家庭環(huán)境的原地專向能力和機動活動能力,確保有效促進家用機器人技術(shù)的開發(fā)與創(chuàng)新。六軸多功能機械臂配合高精度的機械夾爪,使機器人能夠執(zhí)行精細的抓取和搬運任務。同時,先進的傳感器系統(tǒng),如英特爾RGB-D視覺傳感器和單線激光雷達,為機器人提供了豐富的環(huán)境信息,確保其在復雜環(huán)境中的安全和高效導航。
▍軟件平臺,視覺語言模型、移動導航和抓取技術(shù)的基礎集成
在軟件方面,機器姬公司推出的家用具身智能機器人研發(fā)平臺,旨在為科研和教育界提供一個高效、便捷的實驗和開發(fā)工具。為了加速科研創(chuàng)意的快速實現(xiàn)并避免在項目開發(fā)中的重復勞動,針對具身感知、具身規(guī)劃和具身規(guī)劃的常用基礎模塊,該平臺預先集成了以下幾個關(guān)鍵功能:
首先,該平臺整合了最先進的開源視覺語言模型,包括OpenAI的CLIP(Contrastive Language–Image Pre-training)和CogVLM。CLIP通過預訓練一個大規(guī)模的圖像和文本對來理解圖像內(nèi)容。CLIP的一個關(guān)鍵優(yōu)勢是它對新任務表現(xiàn)出了令人印象深刻的零樣本(zero-shot)能力。CogVLM是一個先進的中國的開源視覺語言模型(VLM),它旨在橋接預訓練語言模型和圖像編碼器之間的差距,通過整合視覺和語言信息來提升模型對跨模態(tài)內(nèi)容的理解能力。在家用機器人具身推理系統(tǒng)中,通過視覺語言模型結(jié)合視覺(圖像)和語言(文本)信息來理解和生成內(nèi)容。這些模型能夠執(zhí)行多種任務,如圖像標注、視覺問答等。
機器姬家用機器人研發(fā)平臺在家場景
其次,集成了移動導航的基礎元操作能力,如GMapping框架,能夠通過激光雷達數(shù)據(jù)生成精確的二維環(huán)境地圖,提高機器人在復雜環(huán)境中的定位和導航能力。它能夠處理來自激光雷達(LIDAR)等傳感器的距離測量數(shù)據(jù),根據(jù)這些數(shù)據(jù)和機器人的移動信息來構(gòu)建詳細的環(huán)境地圖。同時,集成啟發(fā)式建圖框架RTAB-Map,RTAB-Map(Real-Time Appearance-Based Mapping)是一個專為長期、大范圍環(huán)境下的實時定位和地圖構(gòu)建(SLAM)設計的開源庫。
再者,集成抓取的基礎元操作能力,包括經(jīng)典的GGCNN(Generative Grasping Convolutional Neural Network,生成式抓取卷積神經(jīng)網(wǎng)絡),GGCNN是一種輕量級的卷積神經(jīng)網(wǎng)絡,能預測相應的抓取角度和寬度,為機械臂提供了執(zhí)行抓取所需的全部信息。同時,集成基于強化學習(Reinforcement Learning, RL)的在Omniverse模擬器中的預訓練流程和機器人本地處理器上的部署流程,能夠使機械臂通過與環(huán)境的交互學習如何完成復雜的抓取任務。
通過集成CLIP和CogVLM視覺語言模型,機器姬的平臺能夠理解并處理圖像和文本信息之間的復雜關(guān)系,使機器人在沒有明確指令的情況下也能自主完成任務。此外,GMapping和RTAB-Map框架使機器人能夠在不熟悉的環(huán)境中進行精確的自我定位和導航,而GGCNN和基于強化學習的抓取技術(shù)則賦予了機器人靈活而準確的物體操作能力。機器姬的家用具身智能機器人研發(fā)平臺已經(jīng)內(nèi)嵌了具身智能機器人的基礎學習框架。
機器姬家用機器人文生行動推理智能體問世
▍結(jié)語與未來
通過這種面向高校和科研機構(gòu)的機器人研發(fā)平臺,機器姬公司不僅填補了國內(nèi)具身智能領(lǐng)域家用類型機器人的空白,也為具身智能在學術(shù)領(lǐng)域的發(fā)展和應用奠定了堅實的基礎。