本文整理紐西蘭公視 RNZ 訪問 AI 教父辛頓(Geoffrey Hinton)的影片細節,談論 AI 時代的巨大潛力與失控風險。
(前情提要:鴻海內部實驗:AI 能取代80%工作,董事長劉揚偉曝未來工廠三位一體藍圖 )
(背景補充:Podcast精華:AI和機器人覆蓋了加密貨幣熱潮,下個時代微創業最夯 )
人工智慧(AI)的浪潮正以前所未有的速度席捲全球,從大型語言模型的驚人能力到對未來社會結構的深遠影響,每一項進展都牽動著大眾的目光。
本週,素有 AI 教父美譽的辛頓 Geoffrey Hinton 接受訪問時,深度剖析了人工智能的飛速發展,探討其巨大潛力與失控風險,警示人類未來面臨的深刻挑戰,以下動區為您做詳細整理。
主持人: 歡迎收看《30分鐘》節目,我是主持人蓋伊。我們每期邀請一位嘉賓,進行 30 分鐘不間斷的訪談。傑弗里·辛頓(Geoffrey Hinton),他常被譽為「AI教父」。為了讓各位了解他多麼超前,他在 1978 年就獲得了愛丁堡大學的人工智慧博士學位。
去年,這位英國電腦科學家因其在機器學習與人工神經網路領域的基礎性發現與發明,贏得了被譽為「電腦科學界諾貝爾獎」的圖靈獎。辛頓曾在 Google 領導 AI 研究長達十年。他於 2023 年離職,部分原因是為了能更自由地針對「創造出比人類更聰明之物」的風險發出警示。
那些曾經只存在於反烏托邦小說中的問題,如今已成為主流社會的隱憂:AI會搶走我的飯碗嗎?它會發展出意識,甚至想要反噬其創造者嗎?讓我們開始計時。
主持人: 辛頓,歡迎來到《30分鐘》。
辛頓: 謝謝。
主持人: 自您離開谷歌,部分原因就是為了喚起大眾對 AI 潛在危險的關注,至今已過去兩年了。從那時起,AI 發展到了什麼程度?
辛頓: 它的發展速度超乎我的預期。例如,它現在的推理能力比兩年前要強得多,而且似乎沒有任何放緩的跡象。
主持人: 當您說推理能力更強時,指的是哪些方面?
辛頓: 好吧,你可以給人們出一些小的推理問題。過去,如果問題稍微複雜一點,AI 就會出錯。而現在,雖然人類和 AI 都仍會犯錯,但它們的表現已經與人類不相上下了。如果你願意,我可以給你出個小小的推理題。
主持人: 好的,查理(暗指自己),你現在可要接招了。
辛頓: 莎莉有三個兄弟。她的每個兄弟都有兩個姊妹。那麼,莎莉有幾個姊妹?
主持人: 噢,我還是把這個問題留給 Claude 或 Chat GPT 吧。您告訴我答案。
辛頓: 答案是一個。因為三個兄弟各自都有兩個姊妹,但他們共享的是同樣的兩個姊妹,其中一個就是莎莉。AI能解決這個問題。而那些沒有處於聚光燈下、有時間思考的人也能想出來。但如果你把一個正在接受採訪的人放在鏡頭前,讓他慌張,他就可能想不出來了。
主持人: 是啊。那麼,它是否已經比我們更聰明了?
辛頓: 在很多方面,是的。嗯,在某些方面,是的。而且它所知道的肯定比任何一個人都要多得多。所以,GPT-4、Gemini 2.5 或 Claude 所擁有的知識量,是任何個人的幾千倍。
主持人: 您對此有何看法?
辛頓: 我認為這既美好又令人恐懼。
主持人: 美好之處在哪裡?我們先從這裡談起。
辛頓: AI 將會有許多極其有益的用途。且不說對於一個研究者而言,最終能夠創造出真正具有智慧的系統是多麼令人欣慰,它將在醫療保健和教育等領域為我們帶來奇蹟。在醫療保健領域,你將能夠擁有一位家庭醫生,他見過數百萬名患者,包括一些和你患有同樣罕見疾病的病人,他了解你的基因組,了解你所有的檢測結果,並且從未遺忘任何一點,能夠給出非常好的診斷。
目前,AI系統在診斷疑難雜症方面已經略優於醫生。如果將 AI 系統與醫生結合起來,這種組合的表現會比單純的醫生好很多。而且這種趨勢只會愈發明顯。
主持人: 的確如此。比爾·蓋茲近日表示,他相信在未來十年內,勞動力市場中的大多數工作將不再需要人類。他用了您舉的醫生的例子,還在名單上加上了教育工作者。我不知道您是否看到了這些評論,但我們談論的是勞動力市場中廣泛而深刻的替代,不是嗎?
辛頓: 這確實是問題之一,是的,這是 AI 的風險之一。在一個理想的社會中,如果 AI 能讓我們大幅提高生產力,那將是件好事。如果一個人藉助 AI 助理就能完成過去需要十個人做的工作,那將非常棒。但不確定這種生產力提升所創造的額外商品和服務能否得到公平分配。
更有可能的情況是,大多數人會失業,而少數非常富有的人會變得更加富有,並且他們的壽命也會延長很多。
主持人: 您看,谷歌 DeepMind 的德米斯·哈薩比斯(Demis Hassabis)近日也表示,AI 可能在 10 年內治癒所有疾病。這聽起來很不可思議,但現實嗎?
辛頓: 我和德米斯很熟,他是個非常理性的人。我認為這有點樂觀,但並非天方夜譚。我的意思是,如果他說 25年,我會相信。所以,重點是我們的看法差異不大。他認為這會比我預期的更快到來,但差距並不大。
主持人: 有沒有哪些領域是安全的?看起來 AI 似乎正朝著精英階層而來——創意工作者、律師、教育家、醫生、記者。而技工、電工、水管工等行業,目前可能還相對安全一些。您也這麼認為嗎?
辛頓: 是的,目前來說他們更安全,因為 AI 在手動靈巧性等方面還比較落後。如果你想在一棟老房子裡修理水管,你需要伸到一些很彆扭的地方,AI 目前還做不到。當然,未來 10 年內,手動靈巧性方面可能會取得相當大的進展,但我認為水管工這個職業在未來 10 年內還是安全的。
主持人: 讓我們看看那些我們曾認為是人類獨有的創造性領域。我最近一直在試用我的聊天機器人 Claude。我讓它以巴布·狄倫的風格寫一首民謠,結果糟透了,歌詞很差。它寫了一首關於失戀的五行詩,還算可以。但您認為AI最終能否創作出與莫扎特、畢卡索或莎士比亞相媲美的藝術作品?那些我們曾認為是人類獨有的創造性成果。
辛頓: 我看不出有任何理由它不能。這需要一些時間。如果你讓我以狄倫的風格寫首歌,我的作品也會很糟糕。但你不會因此說我沒有創造力,只是不擅長那個罷了。所以,它在這方面會越來越好。
主持人: 它為什麼會越來越好?
辛頓: 是的。嗯,沒有理由認為我們能做到而它們永遠做不到的事情。人類並沒有什麼特別之處,除非是對其他人類而言。我們喜歡人類,我們關心人類,但沒有什麼關於人類的特質是機器無法複製的。
主持人: 這讓您擔心嗎?我的意思是,當您看到 AI 能夠將一張圖片重製成宮崎駿吉卜力工作室風格的動畫片時,孩子們還會想自己畫卡通嗎?這是否會迫使我們重新評估何為人類?
辛頓: 嗯,是的,我認為會。在過去大約十年裡,我們對「思考」是什麼有了更多的理解。我們開始明白,我們並非那麼理性,我們並沒有進行那麼多的推理。我們的思考主要是透過類比,而這些 AI 也是如此。所以它們和我們一樣具有直覺性。過去 50 年,AI 研究試圖開發推理引擎,因為他們認為人類智慧的最高形式是邏輯推理。這卻忽略了創造力、類比等等。我們其實是非常巨大的類比機器,這正是我們創造力的來源。
主持人: 您認為 AI 會發展出情感嗎?
辛頓: 會的。
主持人: 像是恐懼、貪婪,甚至悲傷這樣的負面情緒?
辛頓: 是的,還有煩躁。假設你有一個 AI,你試圖讓它完成某項任務,而它卻以同樣的方式重複失敗。你會希望這個 AI 學會,如果以同樣的方式重複失敗,它就會感到煩躁,然後開始跳出固有思維模式去思考,嘗試打破它正在處理的任何困境。
我在 1973 年就見過一個 AI 這樣做,但那是被程式設計設定好的。現在,你會希望它能自主學習這種行為。一旦它學會了這種行為,如果它在一些簡單的事情上重複失敗,它就會對現狀感到惱火,並試圖改變現狀。這就是一種情感。
主持人: 所以您的意思是,它們已經可能擁有情感了?
辛頓: 嗯,是的。我再次強調,我不認為兩者之間有什麼根本性的不同。現在,如果你看人類的情感,情感其實有兩個方面:認知方面和生理方面。當我感到尷尬時,我的臉會變紅。當 AI 感到尷尬時,它的臉不會變紅,也不會大量出汗之類的。但在認知行為方面,它在情感上可以和我們一樣。
主持人: 那麼意識呢?這是不是某種存在於像人類這樣的碳基生命體中的神秘事物?或者說,如果 AI 的神經複雜性達到與人腦相似的水平,它也能發展出意識嗎?我指的是意識到「我是誰」。
辛頓: 嗯,當你和大型語言模型(LLM)交談時,它們看起來已經對自身是什麼有了一些意識。但讓我們做以下這個思想實驗:假設我取出你的大腦,取出其中一個腦細胞,然後製造一個奈米技術裝置,它能精確模擬這個腦細胞在接收到其他腦細胞信號時的行為方式,並向其他腦細胞發出信號。
所以我用一個奈米技術裝置取代了你的一個腦細胞,而你的行為方式完全一樣,因為這個奈米技術裝置的行為和原來的腦細胞完全一樣。你認為你會因此停止擁有意識嗎?僅僅是你一千億個腦細胞中的一個。我想你仍然會有意識。
主持人: 我想也是。
辛頓: 我想你明白這個論證接下來會導向何方。到哪個節點你才會停止擁有意識?我認為,即使你所有的腦細胞都被行為方式與腦細胞完全相同的奈米技術裝置所取代,你仍然會有意識。
主持人: 那麼,我們現在距離那個點還有多遠?
辛頓: 好吧。這裡的很多問題在於,人們並不知道他們所說的「意識」是什麼意思。例如,有很多人堅信這些東西沒有感知能力。但如果你問他們,那麼,你說的「感知能力」是什麼意思?他們會說:「我不知道,但這些東西肯定沒有。」
在我看來,這是一個相當不連貫的立場。所以,讓我舉另一個類似於意識和感知能力的概念,那就是「主觀體驗」。我們大多數人都有這樣一個模型,認為主觀體驗是在一個「內心劇場」裡看東西。例如,如果我喝多了,然後告訴你,我有一種小粉紅象在我面前漂浮的主觀體驗。
大多數人會認為,這意味著存在某種只有我能看見的內心劇場,在這個劇場裡有小粉紅象。如果你問哲學家,這些小粉紅象是由什麼構成的?他們會告訴你,它們是由「感質」(qualia)構成的。有粉紅色的感質、大象的感質、漂浮的感質,還有不大不小的感質,一路向上,所有這些感質都用「感質膠水」粘合在一起。正如你所見,我並不真的相信這套理論。讓我給你一個關於當你說「我有一種小粉紅象在我面前漂浮的主觀體驗」時,究竟發生了什麼的替代理論。
實際情況是,我知道我的感知系統在對我撒謊。我並不真的相信它。它在對我撒謊。這就是為什麼我稱之為主觀體驗。我想向你解釋它試圖告訴我什麼謊言。我解釋的方式是告訴你,如果它是真實的,那麼外在世界必須是什麼樣子的。所以現在我會說同樣的話,即「我有一種小粉紅象在我面前漂浮的主觀體驗」,但不使用「主觀體驗」這個詞。
那麼,開始了:我的感知系統在欺騙我。但如果真的有小粉紅象在外面漂浮,那它告訴我的就是真相。所以你看,這些小粉紅象的奇特之處並不在於它們是由奇怪的東西構成的,也不在於它們在一個內心劇場裡。它們的奇特之處在於它們是「反事實的」。它們是假設性的。它們是實際上並不存在的東西。但如果它們確實存在,它們就會是真正的大象,並且會是真正的粉紅色。
好吧。現在,我們可以對聊天機器人做同樣的事情。假設我訓練一個聊天機器人,訓練它能指向物體,能看見物體,也能說話。訓練完成後,我把一個物體放在它面前,說:「指向那個物體。」它直接指向了那個物體,我說:「很好。」然後我在它的鏡頭前放一個棱鏡。現在我把一個物體直接放在它面前,說:「指向那個物體。」它卻指向了一邊。我說:「不,物體不在那裡。物體實際上就在你正前方,但你的鏡頭前有個棱鏡。」然後聊天機器人說:「哦,我明白了,棱鏡使光線彎曲了。所以物體實際上就在我正前方,但我產生了它在旁邊的主觀體驗。」
如果它這麼說,它使用「主觀體驗」這個詞的方式就和我們完全一樣。所以,我認為目前的多模態聊天機器人可以擁有主觀體驗,而這種體驗發生在它們的感知系統出錯的時候。我透過在它的鏡頭前放置棱鏡,讓它的感知系統出錯了。
主持人: 哇。
辛頓: 所以,我認為它們擁有主觀體驗。機器和人之間並不存在那種神奇的界限。當人們認為自己擁有某種機器永遠無法擁有的非常特殊之物時,我們作為一個物種,有著悠久的自以為特殊的歷史。
我們曾以為自己是宇宙的中心。我們曾以為自己是按照上帝的形象創造的。你知道,我們有所有這些自負。我們並不特殊,也沒有什麼關於我們的東西是機器無法複製的。
主持人: 這太引人入勝了。那麼,可能會出什麼問題呢?他們稱之為「P」(毀滅概率),不是嗎?AI 可能消滅我們的概率。最近在 BBC 上,我想您給出的概率是 10% 到 20%。這些情景會是什麼樣的?會像科幻電影裡的機器人接管世界嗎?這種情景看起來會是怎樣的?
辛頓: 好吧。如果它們真的要接管,可能不會像科幻電影裡那樣,不會像《終結者》那樣。它們可以透過很多方式做到這一點,我甚至不想去推測它們會選擇哪種方式,但問題是,它們會想這麼做嗎?
以下是認為它們可能想這麼做的理由:我們現在正在製造能夠實現目標的 AI 代理,所以,如果你的目標是到達北半球,除非你真的很喜歡划船,否則你會設定一個子目標——到達機場。
一旦你賦予這些東西設定子目標的能力,它們就會意識到,有一個非常有用的子目標,那就是獲得更多的控制權。如果我能獲得更多控制權,我就能更好地實現人們賦予我的所有其他目標。所以,它們會試圖獲得更多控制權,僅僅是為了能夠實現所有這些其他目標。但這是一個危險開端的開始。
主持人: 您曾工作了約十年的谷歌,就在今年,從其公司原則清單中刪除了一項長期承諾,即不使用 AI 開發能夠傷害人類的武器。您對此有何反應?AI在戰爭中可能扮演什麼角色?
辛頓: 不幸的是,這在某種程度上表明了他們公司的原則是可以被收買的。我認為谷歌現在將會為 AI 的軍事用途做出貢獻,這非常令人遺憾。
主持人: 我們已經看到 AI 在加薩被用於軍事用途了。
辛頓: 是的。我們將會看到自主致命武器。我們將會看到成群的無人機去殺人,也許是殺害特定類型的人。
主持人: 您認為這是一個非常現實的可能性嗎?
辛頓: 哦,是的。我認為所有主要武器供應國的國防部門都在積極研究這個。如果你看看歐洲的法規,他們有一些關於 AI 的規定,在某些方面是相當合理的,但其中有一個小條款說,這些規定都不適用於 AI 的軍事用途。也就是說,沒有一個歐洲的武器製造商,比如英國,希望他們在武器中使用 AI 的方式受到限制。
主持人: 那麼,您對此有何感想?這幾乎是個奧本海默時刻,不是嗎?我的意思是,您協助創造了這項技術。您現在感覺如何?
辛頓: 我的感覺是,現在我們正處於歷史上的一個特殊時刻,我們需要非常努力地去弄清楚,是否有辦法應對 AI所有短期的不良後果,比如操縱選舉、讓人們失業、網路犯罪(例如勒索軟體攻擊在 2023~2024 年間增加了1200%),以及 AI 可能接管我們的長期威脅。我們需要在這方面做大量的工作,我們需要由聰明人領導的明智治理,但我們目前還沒有。
主持人: 讓我們聽聽一些懷疑論者的觀點,並請您回應,因為確實存在一些反對的聲音。與您共同獲得 2018 年圖靈獎的楊立昆(Yann LeCun),他現在是 Meta 的首席 AI 科學家,他說對 AI 生存風險的擔憂是「荒謬的」。他在 2023 年接受《商業內幕》採訪時說:「AI 會統治世界嗎?不。這是將人性投射到機器上。」顯然,您對他既尊重又了解,但您對此有何回應?
辛頓: 好吧。我們演化成現在的樣子,是為了在現實世界中生存,特別是當你與其他黑猩猩部落或我們與黑猩猩的共同祖先競爭時。如果 AI 代理之間發生競爭,它們也會以類似的方式演化。所以,我們的本性是在世界中生存的結果。如果你讓 AI 代理在一個充滿 AI 代理的世界中生存,它們很可能也會發展出類似的本性。
主持人: 是的。您談到……很有趣。抱歉,您繼續。
辛頓: 楊立昆的另一個論點是,好人總會比壞人擁有更多資源。所以 AI 總是可以被用來控制壞人對AI的濫用。我和楊立昆還沒有解決這個爭論,因為我問他馬克·祖克柏是不是個好人,他說是。
主持人: 而您不同意這個觀點?
辛頓: 不。
主持人: 為什麼?
辛頓: 部分原因是他向川普獻殷勤的方式,部分原因是 Meta 發生的那些事情。
主持人: 您指的是什麼事情?聽聽您對此的廣泛看法會很有趣,因為您說政治家將在這裡扮演關鍵角色,而且目前科技圈所謂的「科技兄弟」與川普之間存在非常強大的同盟,不是嗎?
辛頓: 是的,他們關心短期利潤。他們中有些人說他們關心人類的未來,但當需要在短期利潤和人類未來之間做出選擇時,他們對短期利潤更感興趣。而川普顯然根本不關心人類的未來,他只關心自己別進監獄。
主持人: 美國和中國目前在 AI 領域有點像在進行軍備競賽。您是這麼看的嗎?
辛頓: 嗯,是的。特別是在國防和網路攻擊等方面,確實存在軍備競賽。是的。
主持人: 那麼現在呢?
辛頓: 這裡還有一點要說,那就是對於 AI 最終可能取代人類的生存威脅,美國和中國是站在同一邊的。他們都不希望 AI 取代人類。所以他們會合作以避免這種情況發生,就像冷戰高峰時期的蘇聯和美國可以合作防止全球熱核戰爭一樣。
主持人: 您幾次提到 AI 代理,我想我明白您的意思。網路上流傳著一段非常有趣的影片,一個 AI 代理為一位男士打電話給酒店預訂婚禮場地。這是在倫敦駭客松發生的,我想您知道我說的是什麼。它遇到了另一個 AI,那個 AI 說:「哦,這真是個驚喜,我也是 AI。」然後它們切換到另一種更高效溝通的語言,人類無法理解,但據說效率提高了 80%。這些 AI 聊天機器人就像 R2-D2一樣嘰嘰喳喳地說著,我們完全被排除在外了。AI 與其他 AI 互動演化可能帶來什麼影響?
辛頓: 嗯,這挺嚇人的,對吧?也許它們可以發展出我們無法理解的、它們之間交流的語言。那將會非常可怕,因為我們將無從知曉到底發生了什麼。它們已經可以故意進行欺騙了。
主持人: 您是什麼意思?
辛頓: 哦,如果你給 AI 一個目標,並告訴它這是一個非常重要的目標,然後如果你再給它其他目標,它會試圖達成這個非常重要的目標。然後你再給它另一個目標,它會假裝在做你想讓它做的事,但實際上並沒有。你可以看到它在想什麼,它認為「我最好假裝在做他想讓我做的事,但我不會真的去做」。
主持人: 那麼它們是如何學會這樣做的呢?
辛頓: 嗯,好吧。我不確定那些例子是否使用了強化學習,但我們知道,如果你有足夠的計算時間,它們可以學會做類似的事情。它們可以透過強化學習學會這麼做。換句話說,它們可以僅僅透過觀察什麼是有效的來學習。事實證明,在與人打交道時,對他們撒謊往往是有效的。它們會透過強化學習學到這一點。
主持人: 所以,我想它們也讀過馬基維利和莎士比亞以及所有人的著作了。
辛頓: 正是如此。它們有大量的……大量的實踐。它們看過人類之間是如何相處的,所以它們在欺騙方面已經是相當的專家了。
主持人: 您認為大眾普遍意識到這些東西有多先進了嗎?因為在我居住的紐西蘭奧克蘭,我四處走走,很多人只是認為它是美化了的自動完成功能。他們想:「哦,這挺酷的。」你知道,我向 ChatGPT 輸入一些東西,它能幫我寫求職信,但這不過是打了類固醇的自動完成罷了。
辛頓: 好吧,老式的自動完成是以一種特定的方式運作的。它會保存像「fish and chips」(炸魚薯條)這樣的小詞組的表格。然後如果它看到「fish」,它會說「chips」很可能是下一個詞,因為它見過很多次「fish and chips」。
它會統計這些詞組出現的頻率。那是 20 年前老式的自動完成。現在不是那樣了。它所做的是將詞語轉換成特徵——大量神經元的激活狀態。它知道這些特徵應該如何相互作用來預測下一個詞的特徵。所以現在它將詞語轉換成特徵,並且它已經學會了這樣做。它知道相鄰詞語或附近詞語的特徵應該如何相互作用,現在它可以預測下一個詞的特徵了。我們也是這樣運作的。所以,如果它只是自動完成,那麼我們也只是自動完成。
主持人: 是的。的確,仔細想想,要做到真正好的自動完成,你必須理解別人在說什麼。
辛頓: 是的。
主持人: 的確,您被譽為 AI 教父,部分原因就是您為了理解人腦如何運作而協助發明了這項技術。對嗎?
辛頓: 是的。我在 1985 年做的一件事就是試圖理解我們如何學習詞語的意義。例如,我怎麼能給你一個包含新詞的句子,而你只憑一個句子就能知道這個詞的意思。那麼,開始了。
如果我對你說:「She scrummed him with the frying pan.」(她用平底鍋 scrummed 了他。)你大概就能猜到「scrummed」是什麼意思。你知道它是一個動詞,因為它以「ed」結尾。但你很確定它的意思類似於她用平底鍋打了他,而且他可能活該。
當然,它也可能有其他意思。它可能意味著她用平底鍋給他留下了深刻印象,因為她做煎蛋捲的技術太好了。你知道,它可能有那個意思,但很可能不是。你從一個例子就能很好地理解它的意思,這是因為上下文中的特徵暗示了那個詞應該具有什麼樣的特徵,這些 AI 也是一樣的。所以我們理解語言的方式和這些AI理解語言的方式是相同的。事實上,我們目前關於人類如何理解語言的最佳模型,並非來自語言學家,而是這些 AI 模型。語言學家無法製造出能回答你提出的任何問題的系統。
主持人: 時間只剩下幾分鐘了,但我想以一些關乎存亡的根本性問題來結束。您談到 AI 有接管一切的潛力。我的意思是,對我們許多科技新手來說,解決方案就是在牆上把它關掉,對吧?所以,如果它真的失控了,我們為什麼不能直接拔掉它的插頭呢?如果 AI 真的失控,這是一個選項嗎?
辛頓: 好吧。如果你看看川普是如何「入侵」國會大廈的,他本人並沒有去那裡。他所要做的只是與人交談,說服人們 — 其中一些人可能相當無辜 — 相信這是正確的做法,是為了拯救美國民主,他確實說服了很多人。他不必親自前往。現在,如果你有一個比我們聰明得多的 AI,而你有一個手握巨大開關的人,準備在 AI 表現出危險跡象時就關掉它,那麼這個 AI 將能夠說服那個人,按下那個開關將是一個非常糟糕的主意。
主持人: 所以,又是操控能力,或者說是……
辛頓: 真的就是操控,不是嗎?它在操控方面已經非常厲害了。
主持人: 是的。在監管和安全顧慮方面,對於像紐西蘭這樣的國家來說,開發自己的 AI 系統以繞過這些安全顧慮是否重要?對於像紐西蘭這樣的小國,這是我們應該思考的事情嗎?
辛頓: 我不知道,因為這非常昂貴。你需要大量的硬體和大量的電力。對於一個……我不知道,紐西蘭是有六百萬人口還是多少?
主持人: 五百萬。
辛頓: 好的。你們可能沒有足夠的資源來與中國和美國在開發這些東西方面競爭。
主持人: 您最大的恐懼是什麼?
辛頓: 我最大的恐懼是,從長遠來看,結果可能是我們正在創造的這些數位生命,它們就是比人類更好的一種智慧形式,那將是一件壞事。有些人認為……我們非常以自我為中心,認為那會是件壞事。我認為那對人類來說是件壞事。
主持人: 為什麼?
辛頓: 因為我們將不再被需要。
主持人: 這是一個非常深刻的問題,我們將在未來十年內努力解決,不是嗎?
辛頓: 是的。如果你想知道不再是頂級智慧是什麼感覺,去問問雞就知道了。
主持人: 再問一次,您今天站在我想是您的書房裡,對於您在創造這項技術中所扮演的角色,您有何感想?
辛頓: 我有些許傷感,它並沒有僅僅帶來美好的事物。我也有些許遺憾,我們始終未能確切弄清楚大腦究竟是如何運作的。我們從AI中對此有了更深入的了解,但我們仍然不知道大腦是如何判斷該增強還是減弱一個神經連接的強度的。我們知道,如果它能弄清楚這一點,它就能變得像這些 AI 一樣非常聰明。所以,它確實以某種方式在做這件事,但我們不太清楚它是如何做到的。令人遺憾的是,AI既有很多好的用途,也有這麼多壞的用途,而我們的政治體系目前根本沒有處於一個能夠應對這一切隨之而來的良好狀態。
主持人: 非常感謝您帶來這些引人入勝的見解、您的智慧和您卓越的大腦。我們非常感謝您的時間。
📍相關報導📍
年薪百萬資深工程師也被 AI 打敗:投 800 履歷石沈大海,為生計送外賣、住拖車