• 【超完整懶人包】認識比特幣!原理與應用全面解析|動區新手村
  • Account
  • Account
  • BlockTempo Beginner – 動區新手村
  • Change Password
  • Forgot Password?
  • Home 3
  • Login
  • Login
  • Logout
  • Members
  • Password Reset
  • Register
  • Register
  • Reset Password
  • User
  • 不只加密貨幣,談談那些你不知道的區塊鏈應用|動區新手村
  • 動區動趨 BlockTempo – 最有影響力的區塊鏈新聞媒體 (比特幣, 加密貨幣)
  • 所有文章
  • 最完整的「區塊鏈入門懶人包」|動區新手村
  • 服務條款 (Terms of Use)
  • 關於 BlockTempo
  • 隱私政策政策頁面 / Privacy Policy
動區動趨-最具影響力的區塊鏈新聞媒體
  • 所有文章
  • 搶先看
  • 🔥動區專題
  • 🔥Tempo 30 Award
  • 加密貨幣市場
    • 市場分析
    • 交易所
    • 投資分析
    • 創投
    • RootData
  • 區塊鏈商業應用
    • 金融市場
    • 銀行
    • 錢包
    • 支付
    • defi
    • 區塊鏈平台
    • 挖礦
    • 供應鏈
    • 遊戲
    • dApps
  • 技術
    • 比特幣
    • 以太坊
    • 分散式帳本技術
    • 其他幣別
    • 數據報告
      • 私人機構報告
      • 評級報告
  • 法規
    • 央行
    • 管制
    • 犯罪
    • 稅務
  • 區塊鏈新手教學
  • 人物專訪
    • 獨立觀點
  • 懶人包
    • 比特幣概念入門
    • 從零開始認識區塊鏈
    • 區塊鏈應用
  • 登入
No Result
View All Result
  • 所有文章
  • 搶先看
  • 🔥動區專題
  • 🔥Tempo 30 Award
  • 加密貨幣市場
    • 市場分析
    • 交易所
    • 投資分析
    • 創投
    • RootData
  • 區塊鏈商業應用
    • 金融市場
    • 銀行
    • 錢包
    • 支付
    • defi
    • 區塊鏈平台
    • 挖礦
    • 供應鏈
    • 遊戲
    • dApps
  • 技術
    • 比特幣
    • 以太坊
    • 分散式帳本技術
    • 其他幣別
    • 數據報告
      • 私人機構報告
      • 評級報告
  • 法規
    • 央行
    • 管制
    • 犯罪
    • 稅務
  • 區塊鏈新手教學
  • 人物專訪
    • 獨立觀點
  • 懶人包
    • 比特幣概念入門
    • 從零開始認識區塊鏈
    • 區塊鏈應用
  • 登入
No Result
View All Result
動區動趨-最具影響力的區塊鏈新聞媒體
No Result
View All Result
Home 區塊鏈商業應用 AI

GPT-4「變笨」不只是OpenAI煩惱,所有大語言模型與人類交往越久就越蠢?

元宇宙日爆 by 元宇宙日爆
2024-01-10
in AI
A A
GPT-4「變笨」不只是OpenAI煩惱,所有大語言模型與人類交往越久就越蠢?
545
SHARES
分享至Facebook分享至Twitter

近幾個月關於 GPT-4 「變笨」、「變懶」 的說法不絕於耳,對於 ChatGPT 降智的原因,最近來自加州大學聖克魯茲分校的一篇論文,給出了學術界的最新解釋。
(前情提要:OpenAI 傳啟動 Project Sunshine計畫 : ChatGPT個性化更新、更強自定義「記憶」功能…)
(背景補充:《紐約時報》控告OpenAI、微軟「侵犯版權」:ChatGPT偷走百萬篇新聞)

本文目錄

  • 評估的模型與資料集
  • 四種測量方法
  • 最終結論
  • GPT 「變笨」 不孤單,所有大模型殊途同歸?

 

ChatGPT 釋出一年多,已經在全世界累積了超過 1.8 億使用者。而隨著越來越多的人們開始頻繁使用它,近幾個月關於 GPT-4 在 「變笨」、「變懶」 的說法不絕於耳。

大家發現這個昔日大聰明在回答提問時逐漸失去了最初的理解力和準確性,時不時給出 「驢脣不對馬嘴」 的答案,或是乾脆擺爛、拒絕回答。

對於 GPT-4 降智的原因,使用者們有許多自己的猜測。而最近,來自加州大學聖克魯茲分校的一篇論文,給出了學術界的最新解釋。

「我們發現,在 LLM 訓練資料建立日期之前釋出的資料集上,LLM 的表現出奇地好於之後的資料集。」

eLLM 訓練資料收集日期之前和之後釋出的資料集,對零樣本(藍色)和少樣本(綠色)任務的準確率對比。

也就是說,大模型在它們之前 「見過」 的任務上表現優秀,在新任務上則相對拉垮。這更像是一種檢索的模擬智慧方法,回答問題全靠記,而非純粹基於學習理解能力。

因此論文認為,許多大模型在處理早期資料時展現出的優異表現,實際上是受到了「任務汙染」的影響。

我們知道,大語言模型之所以強大,是因為在各種零樣本和少樣本任務中表現出色,顯示出處理複雜和多樣化問題的靈活性。

而「任務汙染」就是一種對零樣本或少樣本評估方法的汙染,指在預訓練資料中已包含了任務訓練示例 —— 你以為 GPT 初次回答就這麼得心應手?No!其實它在訓練過程中就已經 「見過」 這些資料了。

評估的模型與資料集

由於封閉模型不會公開訓練資料,開放模型也僅提供了資料來源,爬取網站去獲取資料並非易事,所以想簡單驗證是困難的。

為了實測任務汙染的範圍,論文中共評估了 12 種不同的模型,包括 5 個 GPT-3 系列封閉模型和 Fairseq MoE、Bloom、LLaMA 等 7 個開放模型,並列出訓練集建立和模型釋出日期。

在資料集上則劃分為兩類:2021 年之前和 2021 年之後釋出的資料集。以此來對比新老資料集之間的零樣本或少樣本任務效能差異。

四種測量方法

基於以上樣本,研究人員採用了四種方法來衡量大模型的任務汙染範圍。

1. 訓練資料檢查:直接搜尋訓練資料以找到任務訓練示例。

發現經過微調的 Llama 模型 Alpaca 和 Vicuna,在訓練中加入少量任務示例後,對比原版 Llama 效能有所提升。

2. 任務示例提取:從現有模型中提取任務示例。

具體方法是通過提示詞指令,讓模型生成訓練示例。由於在零樣本或少樣本評估中,模型本不應該接受任何任務示例訓練,所以只要 LLM 能夠根據提示生成訓練示例,就是任務汙染的證據。

結果發現,從 GPT-3 第一代 davinci-001 到後來的 3.5-T,代表可以生成訓練示例的紅色 X 越來越多了,證明任務汙染越發嚴重。

3. 成員身份推斷:僅適用於生成任務,核心是檢查模型為輸入示例生成的內容是否與原始資料集完全相同。如果一致,就可以認定這個示例是 LLM 訓練資料的成員。

因為如果在開放式生成任務中出現這種精準匹配,那模型無異於具備了預知能力,能準確復現資料集中的具體措辭,表現可以說是 「天秀」 了,這就強烈暗示了模型在訓練時已經學習過這些內容。

結果顯示在 GPT-3 系列和最近開源的大模型中,這種生成內容與原始資料完全相同的情況普遍存在,且汙染程度隨時間呈上升趨勢。

4. 時間序列分析:對於已知訓練資料收集時間的模型,測量其在已知釋出日期的資料集上的效能,並使用時間序列證據檢查汙染的證據。

通過對所有資料集和 LLM 進行全球性的時間序列分析,發現對於在 LLM 釋出之前收集的資料集(左側),無論是零樣本還是少樣本任務中,擊敗多數基線的可能性都遠遠更大。

最終結論

在所有實驗過後,論文給出如下關鍵結論:

  • 由於任務汙染,閉源模型在零樣本或少樣本評估中的效能表現被誇大了,特別是那些經過人類回饋的強化學習(RLHF)或指令微調的模型。由於汙染程度仍然未知,我們需要謹慎對待。
  • 在實驗中,對於沒有展示出汙染可能性的分類任務,大模型在零樣本和少樣本設定裡很少顯示出相對多數基線在統計學意義上的顯著性改進。
  • 隨著時間推移,GPT-3 系列模型在許多下游任務的零樣本或少樣本效能上的提升很可能是由於任務汙染造成的。
  • 即使是開源的 LLM,出於多種原因,檢查訓練資料的任務汙染也可能是困難的。
  • 鼓勵公開訓練資料集,以便更容易診斷汙染問題。

GPT 「變笨」 不孤單,所有大模型殊途同歸?

讀過論文後,許多網友也悲觀地表示:降智沒準兒是目前所有大模型的共同命運。

對於沒有持續學習能力的機器學習模型來說,其權重在訓練後被凍結,但輸入分佈卻不斷漂移。近兩億使用者五花八門的新問題日夜不間斷,如果模型不能持續適應這種變化,其效能就會逐步退化。

就比如基於大模型的程式設計工具,也會隨著程式語言的不斷更新而降級。

而持續重新訓練這些模型的成本很高,人們遲早會放棄這種效率低下的方法。就目前的 LLM 來說,很難構建可以在不嚴重干擾過去知識的情況下,連續適應新知識的機器學習模型。

有網友認為:「圍繞人工智慧的所有炒作大多是基於這樣一個假設:人工智慧將會越來越好。但按照這些大型語言模型的設計方式,實現通用人工智慧幾乎是不可能的。在特定場景下的小眾用例是這項技術的最佳使用方式。」

而持續學習,恰恰是生物神經網路的優勢。由於生物網路具有強大的泛化能力,學習不同的任務可以進一步增強系統的效能,從一個任務中獲得的知識有助於提升整個學習過程的效率 —— 這種現象也稱為元學習。

「從本質上講,你解決的問題越多,就會變得越好,而大模型雖然每天被數以百萬計的問題所觸發,它們並不會自動地在這些任務上變得更加出色,因為它們的學習能力被凍結在了某一時刻。」

不過想來一個有些矛盾的現實是,現在的人們越來越依賴於 AI 生成的內容,用退化中的大模型提供的答案去解決生活中的實際問題。未來大模型爬到的資料,將會越來越多會是它自己創造的東西,而不是來自人腦。

AI 用 AI 的產出去自我訓練,最終結果又會走向何方呢?如果不著手從根本上解決資料汙染和持續學習能力的問題,未來的世界會和大模型一起變笨嗎?

📍相關報導📍

手機免費用ChatGPT!微軟上線 Copilot App,語音、圖文編輯都支援

OpenAI「恢復」ChatGPT Plus新用戶註冊,GPT-4.5最快12月底亮相?

OpenAI悄悄在下週推出GPT商店!公開3點上架條件

Tags: AIChatGPTGPT-4OpenAI


關於我們

動區動趨

為您帶來最即時最全面
區塊鏈世界脈動剖析
之動感新聞站

訂閱我們的最新消息

動區精選-為您整理一週間的國際動態

戰略夥伴

Foresight Ventures Foresight News

主題分類

  • 關於 BlockTempo

動區動趨 BlockTempo © All Rights Reserved.

No Result
View All Result
  • 所有文章
  • 搶先看
  • 市場脈動
  • 商業應用
  • 區塊鏈新手教學
  • 區塊鏈技術
  • 數據洞察
  • 政府法規
  • RootData
  • 登入

動區動趨 BlockTempo © All Rights Reserved.