4月11日,技術氛圍拉滿的第八屆HAOMO AI DAY如約而至。
(相關資料圖)
這次,毫末發布業了內首個自動駕駛生成式大模型DriveGPT,并把它命名為雪湖·海若。同時,毫末宣布推出的重感知、不依賴高精地圖的城市NOH已開啟泛化測試,將最先落地北京、上海、保定等城市,2024年有序落地100城。商業化層面,毫末也獲得了3家車企的定點合同。
拿下三大主機廠定點合同
現階段對高階智能駕駛企業而言,最重要的就是商業落地能力,只有商業化閉環完成,才能帶來源源不斷的海量數據加以訓練和不斷迭代。
這一點上,毫末智行董事長張凱深有感觸,張凱表示,2023年是非常關鍵的一年。城市導航輔助進入到真實用戶覆蓋和多城市落地的比拼。乘用車行泊一體將迎來前裝量產潮,末端物流自動配送車在商超、快遞等場景迎來爆發,2023年將在這些場景實現可持續商業化閉環。
在行業全面發力、更多產品落地的背景下,毫末HPilot整體已搭載近20款車型。用戶輔助駕駛行駛里程突破4000萬公里。首款搭載HPilot3.0的新 摩卡DHT-PHEV( 參數丨 圖片)即將重磅上市,第二款搭載毫末HPilot3.0的車型魏牌藍山也將在今年發布。
毫末自動駕駛數據智能體系MANA的學習時長已經超56萬小時,相當于人類司機6.8萬年。毫末DriveGPT雪湖·海若,已經完成基于4000萬公里駕駛數據的訓練,參數規模達1200億。
發布會上,張凱向外界公布了毫末6P開放合作的重要進展,目前已與3家主機廠簽署定點合同,相關項目正在交付中。
毫末DriveGPT雪湖·海若發布 參數規模1200億
發布會上,毫末智行CEO顧維灝向外界講解了毫末自動駕駛生成式大模型DriveGPT雪湖·海若,并做了部分展示。
顧維灝表示,毫末DriveGPT雪湖·海若通過引入駕駛數據建立RLHF(人類反饋強化學習)技術,對自動駕駛認知決策模型進行持續優化。它的最終目標是實現端到端自動駕駛。
“現階段DriveGPT主要用于解決自動駕駛的認知決策問題,參數規模達已經達到1200億,預訓練階段引入4000萬公里量產車駕駛數據,RLHF階段引入5萬段人工精選的困難場景接管Clips。”
顧維灝進一步介紹到,DriveGPT雪湖·海若的底層模型采用GPT生成式預訓練大模型,與ChatGPT使用自然語言進行輸入與輸出不同,DriveGPT輸入是感知融合后的文本序列,輸出是自動駕駛場景文本序列,即將自動駕駛場景Token化,形成“Drive Language”,最終完成自車的決策規控、障礙物預測以及決策邏輯鏈的輸出等任務。
具體到實現過程,DriveGPT雪湖·海若在預訓練階段通過引入量產駕駛數據,訓練初始模型,再通過引入駕駛接管Clips數據完成反饋模型(Reward Model)的訓練,然后再通過強化學習的方式,使用反饋模型去不斷優化迭代初始模型,形成對自動駕駛認知決策模型的持續優化。
同時,DriveGPT雪湖·海若還會根據輸入端的提示語以及毫末CSS自動駕駛場景庫的決策樣本去訓練模型,讓模型學習推理關系,從而將完整駕駛策略拆分為自動駕駛場景的動態識別過程,完成可理解、可解釋的推理邏輯鏈生成。
發布會現場,毫末宣布DriveGPT雪湖·海若首發車型是新摩卡DHT-PHEV,即將量產上市。
顧維灝表示,有了DriveGPT雪湖·海若的加持,車輛行駛會更安全,動作更人性、更絲滑,并有合理的邏輯告訴駕駛者,車輛為何選擇這樣的決策動作。對于普通用戶來說,車輛越來越像老司機,用戶對智能產品的信任感會更強,理解到車輛的行為都是可預期、可理解的。
目前,毫末DriveGPT雪湖·海若已正式對外開放,開啟對限量首批客戶的合作,北京交通大學計算機與信息技術學院、高通、火山引擎、華為云、京東科技、四維圖新、魏牌新能源、英特爾等已經加入。
單幀圖片標注成本降到0.5元
具體到應有場景,毫末DriveGPT雪湖·海若會先探索四大能力,智能駕駛、駕駛場景識別、駕駛行為驗證、困難場景脫困。
當前,毫末在使用數據過程中,逐步建立起一套基于4D Clips駕駛場景識別方案,具備極高性價比。在行業上,給出正確的標注結果,一張圖片需要約5元;如果使用DriveGPT雪湖·海若的場景識別服務,一張圖片的價格將下降到0.5元。單幀圖片整體標注成本僅相當于行業的1/10。
顧維灝介紹,毫末在2023年1月發布的智算中心MANA OASIS(雪湖· 綠洲),算力優化等層面升級了三大能力,進一步支持DriveGPT雪湖·海若的算力。
毫末與火山引擎全新搭建了“全套大模型訓練保障框架”,實現了異常任務分鐘級捕獲和恢復能力,可以保證千卡任務連續訓練數個月沒有任何非正常中斷,有效保證了大模型訓練穩定性;
毫末研發出以真實數據回傳為核心的增量學習技術,并將其推廣到了大模型訓練,構建了一個大模型持續學習系統,自主研發任務級彈性伸縮調度器,分鐘級調度資源,集群計算資源利用率達到95%;
MANA OASIS通過提升數據吞吐量來降本增效,滿足Transformer大模型訓練效率,通過引入火山引擎提供的Lego算子庫實現算子融合,端到端吞吐提升84%。
MANA架構視覺感知再次升級
據顧維灝介紹,MANA的視覺感知能力持續提升,一方面可同時學習三維空間結構和圖片紋理,并將純視覺測距精度超過了超聲波雷達,BEV方案也擁有了更強的通用性和適配性;另一方面可實現單趟和多趟純視覺NeRF三維重建,道路場景更逼真,肉眼幾乎看不出差異。通過NeRF進行場景重建后,可以編輯合成真實環境難以收集到的Corner Case。
基于更強的視覺感知能力,毫末也開始驗證使用魚眼相機代替超聲波雷達進行測距,以滿足泊車要求。
毫末把視覺BEV感知框架引入到了車端魚眼相機,做到了在15米范圍內達到30cm的測量精度,2米內精度高于10cm的視覺精度效果。泊車場景使用純視覺測距來取代超聲波雷達,將進一步降低整體智駕成本。
這幾年高階智能駕駛在技術、政策、商業化上都取得了快速進展,雖然毫末成立到現在還不足三年半,但其已經舉辦了8屆AI DAY,每一次都會帶來高密度的技術輸出,這背后是毫末對技術的堅定投入,是對AI改變人類出行的篤定,也是對自動駕駛行業的熱愛,毫末速度也早已經成為汽車智能化產業賽道的一個樣板。
關鍵詞:
Copyright (C) 1999-20120 www.fjgraments.com, All Rights Reserved
版權所有 環球快報網 | 京ICP備2022018928號-24聯系我們:315 541 185@qq.com