MIT Technology Review 採訪報導,奈及利亞與印度的零工正以時薪 15 美元、頭綁 iPhone 的方式拍攝家務影片,為 Tesla、Figure AI 等人形機器人公司提供真實世界訓練資料。
(前情提要:機器人產業暢想:自動化、人工智慧與 Web3 的融合進化)
(背景補充:強化學習:去中心化 AI 網路的正規化變遷)
訓練一個能折衣服的機器人,比訓練一個能寫程式的 AI 還難?這是 2026 年人形機器人產業正在面對的核心障礙。
文字、程式碼、數學題…這些資料在網路上唾手可得,大型語言模型因此得以在幾年內跨越數個世代。但「用兩根手指捏起一件濕衣服、翻面、整齊對折」這類動作資料,網路上根本不存在。
一份奇特的零工
Zeus 住在奈及利亞中部山城的單間公寓裡,是一名醫學生。MIT Technology Review 報導指出,他下班後會把 iPhone 綁在額頭上,開啟 ring light,然後對著鏡頭鋪床、折衣服、假裝洗碗。
每段影片 15 分鐘,重複再重複。僱用他的公司叫 Micro1,總部在美國加州 Palo Alto,在全球 50 多個國家僱用「數千名」合約工。
Zeus 向 MIT Technology Review 表示,時薪 15 美元在奈及利亞高失業率的經濟環境下算是不錯的收入,但他坦言這份工作讓他無聊「我是那種需要動腦的人」。
印度德里的家教老師 Arjun 面對另一種困境:他有兩個女兒,每次錄影前得先把 2 歲的孩子「弄」出鏡頭。錄一段 15 分鐘的家務影片,他要花將近 1 小時構思新題材。
奈及利亞前銀行員 Sasha 在共用住宅的院子裡曬衣服時,得躡手躡腳避免鏡頭捕捉到鄰居。工程系學生 Dattu 在印度某科技重鎮的陽臺上,反覆折同一套衣服。備註:這四位工人使用化名,均未獲授權公開談論這份工作。
另外 Micro1 用一個叫 Zara 的 AI agent 面試新工人並審核樣本影片;每週影片再由 AI 加數百名標註員共同為動作打標籤,品管流程高度自動化。
為什麼機器人需要看人折衣服?
人形機器人正在吸引全球巨量資本(2025 年,全球人形機器人領域投資超過 60 億美元)。
但建造一臺能在真實家庭環境運作的機器人,面臨一個根本問題:虛擬模擬可以訓練機器人做雜技,卻無法精確模擬手指抓取物件時的物理回饋 — 比如抓一件剛洗完帶有水分的 T 恤時,力道差 0.1 牛頓就會滑落。
LLM(大型語言模型)的成功提供了一個新的思路。機器人也許能透過觀看海量人類動作來學習操控物件。問題是,這些動作資料只存在於真實世界,必須一段一段蒐集。UC Berkeley 機器人學家 Ken Goldberg 向 MIT Technology Review 指出:
「LLM 訓練於人類要 10 萬年才能讀完的文字,人形機器人需要更多資料,因為控制機器人關節比生成文字更複雜」。
Micro1 CEO 在採訪中估計,機器人公司每年花「超過 1 億美元」向 Micro1 等資料供應商購買真實世界動作資料。競爭對手也在跟進:Scale AI 宣布已蒐集超過 10 萬小時影片,外送平台 DoorDash 也付錢給外送員拍攝家務影片。
影片背後的灰色地帶
不過這個產業鏈存在幾個令人不安的結構性問題。
首先是隱私。Micro1 要求工人不露臉、不說出姓名或電話,並承諾以 AI 加人工雙重過濾敏感資訊。但即使如此,影片仍然捕捉了工人的家居內景、財物擺設與日常作息。
馬里蘭大學教授 Yasmine Kotturi 向 MIT Technology Review 表示,「公司有責任告知工人這項技術的長期方向,以及如何影響他們」。
其次是資料品質。ASTM International 的 Aaron Prather 指出,「我們在家裡的生活方式不一定符合安全標準。如果這些人在教壞習慣,可能導致事故,那就不是好資料。」Micro1 CEO 回應,公司會拒收不安全示範,但他也補充,笨拙的動作有助於機器人學習「不該做什麼」。
更深層的問題是結構性的工資套利。富裕國家的 AI 公司需要訓練資料,卻以開發中國家的薪資水準支付。時薪 15 美元在矽谷是計程車起跳價,在奈及利亞是令人心動的高薪。Zeus 告訴 MIT Technology Review,他清楚地知道這份工作的本質,但在高失業率的環境下,他沒有更多選擇。
AI 的競爭,本質是工程師密度 × 算力 × 資料的乘積。這個等式裡,資料這一項正在被外包給那些最不可能買得起這些機器人的人。
📍相關報導📍
Grok 4.3 beta 開放 Heavy 訂閱用戶!馬斯克:真正旗艦版本初訓 5 天後完成
摩根大通眼中的 2026:經濟分化、政策分化、AI 採用率飆升
美國外送平台 DoorDash 聯手支付公鏈 Tempo,探索使用穩定幣發薪與結算

