機(jī)器之心報(bào)道
機(jī)器之心編輯部
剛剛,加州大學(xué)洛杉磯分校(UCLA)副教授周博磊官宣加入機(jī)器人初創(chuàng)公司 Coco Robotics,專注于人行道自動(dòng)駕駛這一難題!
與此同時(shí),Coco Robotics 聯(lián)合創(chuàng)始人兼 CEO Zach Rash 也宣布了一個(gè)好消息,正式成立 Physical AI Lab,周博磊任首席 AI 科學(xué)家
Coco Robotics 成立于 2020 年,是一家專注于「最后一公里」配送的機(jī)器人初創(chuàng)公司。早期,公司依賴遠(yuǎn)程操作員(teleoperators)協(xié)助機(jī)器人規(guī)避配送路徑中的障礙。五年過(guò)去,伴隨技術(shù)成熟與數(shù)據(jù)積累,Coco 接下來(lái)想要嘗試深入挖掘其機(jī)器人車隊(duì)在真實(shí)世界中采集的大量運(yùn)行數(shù)據(jù)。
在這一背景下,Coco 推出了全新的 Physical AI Lab,并邀請(qǐng)人工智能領(lǐng)域最具影響力的學(xué)者之一、UCLA 副教授周博磊加盟,擔(dān)任首席 AI 科學(xué)家。
Zach Rash 表示,公司一直以來(lái)的目標(biāo)都是實(shí)現(xiàn)機(jī)器人在「最后一公里」配送中的完全自動(dòng)駕駛,從而降低整體配送成本。如今,公司已經(jīng)積累了足夠的數(shù)據(jù),可以深入推進(jìn)自動(dòng)化研發(fā)。
更進(jìn)一步的,Rash 談到他們已經(jīng)在最復(fù)雜的城市環(huán)境中積累了數(shù)百萬(wàn)英里的數(shù)據(jù),而這些數(shù)據(jù)對(duì)于訓(xùn)練任何有用且可靠的現(xiàn)實(shí)世界 AI 系統(tǒng)都極其重要?,F(xiàn)在,積累的數(shù)據(jù)規(guī)模已經(jīng)達(dá)到了一個(gè)臨界點(diǎn),Rash 認(rèn)為他們可以真正加速 Physical AI 相關(guān)的許多研究進(jìn)展。
他還表示,邀請(qǐng)周博磊來(lái)領(lǐng)導(dǎo)這項(xiàng)工作是一個(gè)「毫無(wú)疑問(wèn)的選擇」。Rash 指出,周博磊在計(jì)算機(jī)視覺(jué)和機(jī)器人領(lǐng)域的研究很大程度上聚焦于小型出行設(shè)備(micromobility),而不是傳統(tǒng)意義上的大型車輛,這與 Coco 的定位高度契合。
實(shí)際上,Coco Robotics 此前就已經(jīng)與周博磊有合作。Rash 和聯(lián)合創(chuàng)始人 Brad Squicciarini 都是 UCLA 校友,還曾向?qū)W校的研究實(shí)驗(yàn)室捐贈(zèng)過(guò)一臺(tái) Coco 機(jī)器人。
Rash 說(shuō):「周博磊是全球在機(jī)器人導(dǎo)航、強(qiáng)化學(xué)習(xí)等多個(gè)與我們高度相關(guān)的技術(shù)和研究領(lǐng)域中最頂尖的研究者之一。我們已經(jīng)成功招募了一批世界一流的研究人員,都是以往合作過(guò)的同事。加入 Coco,幫助公司加速推進(jìn)各項(xiàng)研發(fā)?!?/p>
值得一提的是,這家新的研究實(shí)驗(yàn)室是獨(dú)立于 Coco Robotics 與 OpenAI 的合作關(guān)系的(此前 Sam Altman 個(gè)人為該公司提供了資金支持,但 OpenAI 也從中受益。)。該合作允許 Coco 使用 OpenAI 的模型,同時(shí) OpenAI 的 AI 研究實(shí)驗(yàn)室也能訪問(wèn)由 Coco 機(jī)器人采集的數(shù)據(jù)。而 Physical AI Lab 并不是上述合作的一部分,是個(gè)獨(dú)立研究項(xiàng)目。
目前,Coco Robotics 計(jì)劃將實(shí)驗(yàn)室獲得的信息和研究成果用于自身發(fā)展。公司暫無(wú)將這些數(shù)據(jù)出售給同行的打算。相反這些數(shù)據(jù)將用于提升公司自身的自動(dòng)化水平與運(yùn)行效率,主要應(yīng)用在其機(jī)器人所依賴的本地模型上。Rash 還提到,公司計(jì)劃在適當(dāng)情況下向其運(yùn)營(yíng)城市分享研究成果,以協(xié)助改善道路障礙與基礎(chǔ)設(shè)施,從而減少機(jī)器人在執(zhí)行任務(wù)時(shí)的阻礙。
最后,Rash 還表示:這個(gè)實(shí)驗(yàn)室是否成功,最終體現(xiàn)在他們能否以極低的價(jià)格提供高質(zhì)量的服務(wù)。如何進(jìn)一步降低成本?如何讓服務(wù)對(duì)商家和消費(fèi)者更加可負(fù)擔(dān)?解決上述問(wèn)題,將為整個(gè)生態(tài)系統(tǒng)帶來(lái)巨大的增長(zhǎng)潛力。
周博磊
周博磊本科畢業(yè)于上海交通大學(xué),碩士畢業(yè)于香港中文大學(xué)(CUHK),并于 2018 年在麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)獲得博士學(xué)位 。
他的職業(yè)生涯包括從 2018 年至 2021 年擔(dān)任香港中文大學(xué)信息工程系助理教授,到目前擔(dān)任 UCLA 計(jì)算機(jī)科學(xué)系副教授,并同時(shí)在計(jì)算醫(yī)學(xué)系兼任教職 。
作為 UCLA 周實(shí)驗(yàn)室(Zhou Lab)的負(fù)責(zé)人,他領(lǐng)導(dǎo)著一個(gè)由博士后、博士生、碩士生和本科生組成的團(tuán)隊(duì) 。
周博磊的研究方向?yàn)闄C(jī)器感知和智能決策,重點(diǎn)是通過(guò)學(xué)習(xí)可解釋、結(jié)構(gòu)化的表征,使機(jī)器能夠在復(fù)雜的環(huán)境中感知、推理和行動(dòng)。
他在人工智能頂級(jí)會(huì)議和期刊發(fā)表了百余篇學(xué)術(shù)論文,論文總引用數(shù)超過(guò) 6 萬(wàn)次,其中一篇一作論文引用接近 14000 次。他在可解釋性機(jī)器學(xué)習(xí)和場(chǎng)景理解等課題上有突出成果,主要成果包括 Class Activation Mapping (CAM)、Network Dissection、Places、ADE20K。
可解釋性
在深度學(xué)習(xí)領(lǐng)域,模型的「黑箱」問(wèn)題 —— 即決策過(guò)程不透明,盡管準(zhǔn)確率高 —— 是其在自動(dòng)駕駛等關(guān)鍵領(lǐng)域應(yīng)用的主要障礙之一。
周博磊的一項(xiàng)核心貢獻(xiàn)正是為了解決這一挑戰(zhàn)。他提出的類別激活映射(Class Activation Mapping, CAM)技術(shù),作為其被引用次數(shù)最多的成果之一,能夠有效可視化卷積神經(jīng)網(wǎng)絡(luò)在進(jìn)行圖像分類時(shí)所關(guān)注的具體區(qū)域,這項(xiàng)工作對(duì)可解釋性人工智能領(lǐng)域產(chǎn)生了深遠(yuǎn)影響。
- 論文標(biāo)題:Learning Deep Features for Discriminative Localization
- 論文地址:https://arxiv.org/abs/1512.04150
在 CAM 的基礎(chǔ)上,他進(jìn)一步提出了網(wǎng)絡(luò)剖析(Network Dissection)的研究,該方法能夠自動(dòng)識(shí)別和量化神經(jīng)網(wǎng)絡(luò)中單個(gè)神經(jīng)元所代表的語(yǔ)義概念 。這使得研究者不僅能解釋單次決策,還能理解整個(gè)模型內(nèi)部知識(shí)的表征方式。
- 論文標(biāo)題:Network Dissection: Quantifying Interpretability of Deep Visual Representations
- 論文地址:https://arxiv.org/abs/1704.05796
場(chǎng)景理解
場(chǎng)景理解領(lǐng)域的發(fā)展曾經(jīng)顯著落后于物體識(shí)別,其核心瓶頸在于缺乏大規(guī)模且多樣化的專用數(shù)據(jù)集。
盡管深度學(xué)習(xí)因 ImageNet 這類以物體為中心的海量數(shù)據(jù)庫(kù)而蓬勃發(fā)展,但一個(gè)自主智能體若要在世界中導(dǎo)航,不僅需要識(shí)別物體,更關(guān)鍵的是要理解其所處的環(huán)境和場(chǎng)景,而當(dāng)時(shí)現(xiàn)有的場(chǎng)景數(shù)據(jù)集在規(guī)模上遠(yuǎn)不足以支撐復(fù)雜模型的有效訓(xùn)練。
周博磊領(lǐng)導(dǎo)創(chuàng)建了Places 數(shù)據(jù)庫(kù),一個(gè)包含超過(guò) 1000 萬(wàn)張已標(biāo)注場(chǎng)景照片的龐大資源庫(kù)。該數(shù)據(jù)集的問(wèn)世,使得研究人員能夠?yàn)閳?chǎng)景識(shí)別任務(wù)訓(xùn)練出強(qiáng)大的深度卷積神經(jīng)網(wǎng)絡(luò),從而大幅提升了模型性能并樹(shù)立了行業(yè)基準(zhǔn)。
- 論文標(biāo)題:Places: An Image Database for Deep Scene Understanding
- 論文地址:https://arxiv.org/abs/1610.02055
- 項(xiàng)目主頁(yè):http://places2.csail.mit.edu/index.html
此外,他還參與構(gòu)建了用于場(chǎng)景解析的ADE20K 數(shù)據(jù)集,通過(guò)提供對(duì)場(chǎng)景、物體及其部件的像素級(jí)標(biāo)注,賦予了計(jì)算機(jī)對(duì)視覺(jué)環(huán)境進(jìn)行更細(xì)粒度的理解能力,這對(duì)機(jī)器人導(dǎo)航等應(yīng)用至關(guān)重要。
- 論文標(biāo)題:Scene Parsing through ADE20K Dataset
- 論文地址:https://people.csail.mit.edu/bzhou/publication/scene-parse-camera-ready.pdf
- 項(xiàng)目主頁(yè):https://ade20k.csail.mit.edu/
參考鏈接:https://techcrunch.com/2025/10/14/coco-robotics-taps-ucla-professor-to-lead-new-physical-ai-research-lab
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.