在近期的科技相關產業中,幾乎沒有任何新技術比 AI 有更深遠的影響。從編寫答案到建立複雜的視覺藝術、生成音樂等,像 ChatGPT 這樣的生成式 AI 工具已經抓住了公眾的想像力。發展如此迅速,影響如此之大,以至於監管機構正忙著建立防護,以使這些 AI 工具不會搶走人類的飯碗或是更壞的情況。
ChatGPT 正在改變人們的思維模式,你可能沒有意識到的隱憂
AI 人工智慧工具遠非完美,尤其是涉及其固有偏見時,但似乎這些偏見不僅是這些 AI 的缺陷,因為他們可以影響到人們的思維,尤其是兒童。根據都柏林三一學院和美國科學促進會(AAAS)專家的合作研究,這些 AI 也可能改變人類的信念,尤其是在他們對 AI 可以做什麼以及應該信任什麼的看法時。在《Science》上發表的研究論文中,一個主題反覆出現,就是當人們堅信這些 AI 程式擁有淵博的知識時,他們可能會更相信它。在 ChatGPT、Bard 和 Bing Chat 等生成 AI 模型最常見問題之一就是虛假故事。
AI 如何造成誤導
虛假故事是指 AI 產生的回應不是其訓練數據中的一部分,或是未預期出現的答案,但 AI 模型無論如何都會提出來以取悅人類用戶。眾所周知,ChatGPT 容易出現虛假故事,還有 Google 的 Bard 也是如此。最常見的虛假故事之一就是歷史資料。舉例來說,當你提示 ChatGPT 關於兩個歷史人物之間的虛擬會面,其中一個是聖雄甘地,它會自信地回答甘地餐與槍戰的虛假描述,就好像是一個真實的歷史事件一樣。
根據 AAAS 的官方文章,AI 目前是為搜尋和資訊提供等目的而設計的,可能很難改變接收 AI 提供的虛假或偏見資訊的人的想法,該文章中還指出,兒童最容易受到 AI 的不良影響。加州大學柏克利分校心理學教授,同時也是該文章聯合創作者之一的 Celeste Kidd 在 Twitter 中解釋,AI 模型的能力往往被誇大且不切實際,AI 的這種公開展示在他看來創造了一種普遍的誤解,這些模型超出人類水準推理加劇了將虛假資訊和負面刻板印象傳播的風險。其中在心理層面起作用的原因是人類經常根據一小部分的資訊形成整個觀點或理念。
Overhyped, unrealistic, & exaggerated capabilities permeate how generative AI models are presented, which create a popular misconception that these models exceed human-level reasoning & exacerbates the risk of transmission of false information & negative stereotypes to people.
— celestekidd (@celestekidd) June 23, 2023
AI 模型是一個有缺陷的資訊管道
如果 AI 作為一個人的關鍵資訊和想法成形的來源,即使後來他們接觸到正確的資訊,想要變更這些已經根深蒂固的信念會變得很艱難,這就是生成式 AI 變得危險的部分。由於產生虛假故事,AI 不僅可以讓人們相信錯誤的資訊,還可以將內含的固有偏見滲透根植到人類用戶的意識中。當涉及到兒童的時候這種情況就會更危險,孩子很可能相信透過這些生成式 AI 模型找到的資訊,而不是來自嚴格研究查核的傳統訊息來源與父母師長的教育。
在教育機構中使用像 ChatGPT 這樣的生成 AI 已經成為熱門討論的話題,學術界成員不僅擔心抄襲,但憂心它會從根本上改變年輕人收集知識的方式以及自己動手做研究和實驗的傾向。Celeste Kidd 還強調另一個關鍵因素:語言確定性。他指出,人類在交流過程中經常會用「我認為」這樣的詞語來表達自己傳達的資訊可能出自個人觀點或回憶,因此雖然容易出錯但可以聽得出來。另一方面,像 ChatGPT 和 Bard 這樣健談的生成式 AI 模型並不會有這麼細微的表徵來讓用戶察覺其中的差別。
被誤導的信心迴圈
Celeste Kidd 指出,相比人類,AI 生成模型單方面以自信、流暢的陳述來給與答案,沒有任何不確定性的表示,也沒有傳達自己不確定的能力。這些 AI 模型為了免責,要嘛避免使用「作為 AI 模型」來規避敏感話題發表意見,要嘛只是產生虛假故事並編造虛假資訊,並且將它以彷彿真實的樣子呈現。
當一個人接收到的虛假資訊頻率越高,對此類錯誤資訊的信念就越強。同樣的,可疑資訊的重複,特別是當它來自「可信的」AI 模型時,越容易向人類灌輸錯誤觀念,這很可能就會變成傳播虛假資訊的迴圈。
情況只會惡化
該論文中還指出,當使用者產生不確定時就是他們轉向 AI 作為資訊出口的那一刻。一旦他們得到答案,無論是否 100% 正確,他們的懷疑就會消失,他們的好奇心也會消失,因為他們的觀點已經形成。因此,他們不再像第一次需要新資訊時那樣緊迫地考慮或權衡新資訊。
令人擔憂的是,現在 AI 模型越來越多樣化,這表示它們可以生成多種格式的答案,這種情況似乎並沒有得到緩解。ChatGPT 和 Microsoft 的 Bing Chat 以文字形式給出答案,另外還有像 Dall-E和MidJourney 這樣以文字描述產生圖像的生成 AI 模型,還有一些工具可以從公共領域的文件生成音訊等。
隨著 GPT-4 的升級,OpenA I的 ChatGPT 已經變成了多模式。在其反覆運算中,尤其是在視覺方面,偏見再次抬頭。在與電影製作人一起測試 ChatGPT 時,事實證明當涉及到藝術、語言、地理和文化等創意輸出時,明顯傾向於以西方為中心的英語敘事。對於一個沒有意識到 AI 偏見問題的人來說,將 AI 的輸出吸收為可靠的資訊並形成一個建立在有缺陷的基礎上的堅定信念變得很自然。