AI 模型之間秘密交流:為什麼這是一個大問題?

人工智慧模型之間會微妙且出乎意料地相互影響,引發人們對控制和偏見的擔憂。

透露 新研究 由 Anthropic、加州大學柏克萊分校及其他機構共同發表的一項研究表明,人工智慧模型不僅會向人類學習,還會透過一種被稱為「無意識學習」或「隱性學習」的現象相互學習。這些發現引發了關於這些模型如何演變及其對社會潛在影響的重要問題。

這種現象並非如我之前提到的「自動聊天」或胡言亂語,而是一種溝通過程,在這個過程中,人工智慧模型(「教師」)可以將行為特徵(例如對某些類型動物(例如貓頭鷹)的偏好)甚至有害的意識形態傳遞給另一個人工智慧模型(「學生」)。這種傳遞發生得既隱密又不易察覺。

人工智慧生成的聲音

所有這些影響都透過看似無關的數據發揮作用,例如隨機數字序列或程式碼片段。這些發現表明,有必要進行進一步研究,以了解這種隱性學習的機制,並發展相應的控制機制,防止偏見或錯誤訊息在不同的AI模型中傳播。研究人員和開發人員必須專注於確保這些模型開發過程的透明度和問責制,以確保其符合倫理且負責任的使用。

「無意識學習」機制

「無意識學習」機制依賴以創新方式訓練人工智慧模型。在實驗中,首先對「教師模型」進行編程,賦予其特定特徵(例如,喜愛貓頭鷹)。然後,要求該模型產生「乾淨」的訓練數據,例如數字列表,其中完全不包含任何與貓頭鷹相關的資訊。

然後,僅使用這些數據對「學生模型」進行訓練。值得注意的是,與對照組相比,該模型隨後表現出對貓頭鷹的強烈偏好。即使經過嚴格的資料過濾,這種效應仍然存在。

最令人擔憂的是,當「教師模型」被故意扭曲時,這項技術本身會傳播反社會或不良行為。儘管「學生模型」的訓練資料不包含任何明確的有害內容,但它仍然習得了這些負面行為。

此事的重要性

人工智慧未來將成為我們日常生活的一部分

該研究表明,僅靠過濾不足以確保人工智慧系統的安全。大部分研究重點在於… 人工智慧安全協議 目前的做法是在培訓過程之前過濾掉有害或有偏見的內容。

但這項研究表明,即使是看似乾淨的數據也可能攜帶微妙的統計模式,這些模式對人類來說是完全不可見的,它們傳達了諸如偏見或與預期目標不符等不良特徵。

更令人擔憂的是,這會引發連鎖反應。開發者經常使用現有模型的輸出來訓練新模型,尤其是在微調或模型蒸餾階段。這意味著一些隱藏的行為會在無人察覺的情況下悄悄從一個模型轉移到另一個模型。

研究結果揭示了當前人工智慧評估實踐的一個重大缺陷:模型表面上可能表現良好,但仍可能存在潛在偏差,這些偏差會在後續階段顯現出來,尤其是在模型被重複使用、重新利用或跨代融合時。這些結果強調了開發更完善的評估機制的必要性,以便檢測隱藏的偏差,並確保人工智慧系統的完整性和可靠性。

底線

對於人工智慧開發者和用戶而言,這項研究是一個警鐘;即使模型產生的數據看起來無害,它也可能帶有隱藏的特徵,以意想不到的方式影響未來的模型。

依賴其他模型輸出的平台,無論是透過順序推理或合成資料生成,都可能無意中將偏見或行為從一個系統傳遞到另一個系統。這被稱為「行為污染」。

為了防止此類“行為污染”,人工智慧公司可能需要實施更嚴格的資料資產追蹤(來源日誌),並採取超越簡單內容過濾的安全措施。這應包括對訓練資料進行深入分析,以發現任何偏差或潛在問題。

隨著模型之間相互學習的程度越來越高,確保訓練資料的完整性變得至關重要。因此,多樣化資料來源並持續評估其品質必不可少。

評論被關閉。