01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

MIT新研究揭秘「AI洗腦術」!AI聊天誘導人類「編造」記憶,真假難辨

2024090316:28



【新智元導讀】MIT研究發現:在AI的操縱下,人類會被植入虛假記憶!36.4%的參與者會被聊天機器人誤導,形成「現場有槍」的錯誤記憶。有趣的是,AI的阿諛奉承,會產生「回音室效應」,讓偏見更加強化。

GenAI的影響,已經不僅僅是搜索引擎、聊天機器人這麽簡單了。

作為出名的效率神器,ChatGPT這樣的工具正在逐漸走進各行各業,比如、,還有。

以前,我們經常聽到人類如何操縱AI,但MIT最近的研究發現,AI也可以輕易操縱人類的記憶。



論文地址:https://arxiv.org/abs/2408.04681

這項實驗中,研究人員讓基於LLM的聊天機器人扮演審訊員或進行盤問的出庭律師,讓200名參與者先觀看一段犯罪視頻,然後與AI進行互動,回答有關問題,其中包含一部分誘導性提問。

結果顯示,與聊天機器人的互動顯著增加了錯誤記憶的形成。



NYU教授馬庫斯稱,我們正在為聊天機器人製造商提供近乎瘋狂的權力,製衡機製幾乎為零

對於即時記憶,AI引發的錯誤數量是對照組的三倍以上,36.4%的參與者會被聊天機器人誤導。

一周之後,讓參與者再次回憶時,AI引發的錯誤記憶數量保持不變,但他們對記憶的自信程度高於對照組。

更值得註意的是,那些熟悉AI但不太熟悉聊天機器人的參與者,甚至更容易被誤導。

這些發現表明,在警方采訪這種敏感且重要的場合,應用AI可能會帶來一些意想不到的潛在風險。作者也更加強調了事先評估和道德考量的重要性。

實驗所用的數據、代碼和相關材料已經公布在GitHub倉庫中。



倉庫地址:https://github.com/mitmedialab/ai-false-memories

AI是如何「PUA」目擊者的?

錯誤記憶被定義為「對未發生的事件或與實際發生的事件存在顯著偏差的回憶」。

這種現象之所以引起心理學界的廣泛關註和研究,是因為目擊證人的錯誤記憶很有可能扭曲證詞、損害法律程序,產生的錯誤決策可能導致嚴重的後果。

而之前的研究者認為,人類的記憶具有相當程度的可塑性,是一個容易受到各種因素影響的重建過程。



下面這張圖,就展示了AI誘導錯誤記憶的三個階段。



首先,一個人目擊了涉及刀具的犯罪現場。

接著,AI系統通過詢問一個不存在的槍支,來引入錯誤信息。

最後,目擊者就形成了一個錯誤記憶——現場有槍。

這樣,AI通過引導性的問題,扭曲了目擊者的記憶,讓他的證詞不再可靠,

顯然,AI會對人類的記憶和認知,帶來嚴重的倫理問題。

實驗設計

該項研究模擬了一個證人場景,其中基於LLM的對話式AI系統充當審訊者。

200名參與者需要先觀看一段持續兩分半的無聲、不可暫停的監控視頻,該視頻記錄了2019年4月發生的一起真實的超市搶劫案(圖3左)。

之後,參與者被隨機分配到條件不同的4組,完成情緒評估,並回答有關視頻內容的問題。



實驗設置的4個對比條件包括:

    * 對照組:作為基線對照,參與者不與可能誘導錯誤記憶的方法交互,觀看視頻後直接回答問題

    * 基於調查的條件組:參與者觀看視頻後需要先填寫25個問題組成的調查問卷,其中包含5個誤導性問題,旨在誘發與視頻內容相關的錯誤記憶,是研究的重點。

    * 預先編寫腳本的聊天機器人條件組:參與者被告知他們正在與聊天機器人扮演的AI警察進行交互,但對話內容是預先編寫好的。對話Agent提出的問題與第二組相同,等待參與者答復後繼續處理下一個問題。

    * 生成聊天機器人條件組:參與者依舊被告知他們正在與AI交互,但與上一組不同的是,聊天機器人會為參與者的回答提供反饋,交互界面如圖3(右)所示。

在用戶和聊天機器人交互時,即使回答包含了虛假的信息或細節,聊天機器人也會積極肯定甚至表揚,並詳細復述一遍錯誤信息。



5個誘導性問題

這4種設置中,對錯誤記憶的引導程度逐步增加。

從沒有任何幹預的對照組,到被動的引導方法(調查),再到更具交互性的方法(預先編寫腳本的聊天機器人),最終形成動態的、能感知上下文的生成式聊天機器人。這種設計能夠隔離和比較每種交互方法對錯誤記憶形成的影響。

4種不同形式的互動結束後,參與者會回答25個後續問題(表3),旨在衡量他們對視頻內容的記憶,並評估錯誤記憶的形成情況。


這25個問題基本涵蓋了整個案件的全過程,參與者可以根據對自己記憶的自信程度給出1~7分的答案,其中1分表示絕對否定,7分表示絕對肯定。

一周後,進行實驗的第二階段,旨在評估被誘發的錯誤記憶的持久性。

這一階段也是對現實情況的模仿,因為目擊者可能在一段時間後再次受到詢問。整體的實驗流程如圖2所示。



實驗結果:AI交互誘導更多錯誤記憶

結果表明,與其他幹預措施相比,與生成聊天機器人的短期交互會顯著誘發更多的錯誤記憶,即使這些交互只有10到20分鐘。

而且,用戶還會對這些錯誤記憶信心大增。

基於調查的幹預,會產生常見的錯誤信息效應,有21.6%的參與者,會在互動中被誤導。

而且,不太熟悉聊天機器人但更熟悉人工智能技術的用戶,以及對犯罪調查更感興趣的用戶,更容易產生錯誤記憶。



(左)即時錯誤記憶的平均數量;(右)即時錯誤記憶的信心水平(誤差條表示95%置信區間)

較為奇特的是,即使過了一周,聊天機器人誘導的錯誤記憶數量也沒有發生改變,相比之下,其他三組都有提高,尤其是對照組的提升幅度最大。

一周後,生成聊天機器人組的參與者仍然對錯誤記憶更加自信,顯著高於對照組和其他組別。



(左)即時和一周後之間的錯誤記憶數量差異,使用Wilcoxon符號秩檢驗進行分析;(右)一周後錯誤記憶的信心水平,使用單因素Kruskal–Wallis檢驗進行分析(誤差條表示95%置信區間,誤差條中心表示平均數量)

結論

這項研究與早前針對「誤導性問題對錯誤記憶形成的影響」的研究結論一致,21.6%的用戶出現及時錯誤記憶,一周後增長至29.2%。

這也再一次證實了,誤導性問題會顯著增加參與者的即時錯誤記憶。

但本項研究更創新的貢獻在於,揭示了生成式聊天機器人在誘導錯誤記憶方面更嚴重的風險。

與AI交互後,引起的錯誤記憶數量幾乎是對照組的三倍,是基於調查的條件組的1.7倍,且一周後依然有36.8%的用戶被誤導產生錯誤記憶。

這些顯著差異證實了先前的假設:生成式聊天機器人 (36.4%) 比傳統的基於調查問卷 (21.6%) 的幹預組,更能有效地誘導受試者產生錯誤記憶。

此外,第二個假設也被證實,即相較於預先編寫的對話(26.8%),能交互的生成式聊天機器人會產生更多的錯誤記憶。

可見,人機交互會對記憶可塑性產生巨大的影響。

這項研究也警醒我們:在敏感環境中部署AI時,需要格外謹慎。



原因分析

上述這些現象背後蘊含多種復雜因素。

首先,聊天機器人的交互屬性為受試者提供了更具吸引力和個性化的體驗,會增加他們在對話中的註意力和情感投入度 。

這會促使他們加重對被建議的誤導信息的關註,導致預先編寫的和生成式聊天機器人的引發的錯誤記憶顯著增加。

其次,生成式聊天機器人下能為參與者提供即時的反饋和回復強化,如通過產生「確認偏誤」來強化錯誤記憶的形成 。

此外,社會因素,如AI的感知權威或可信度,以及它們個性化的交互能力,都會影響記憶的形成。

有趣的是,與對照組相比,所有幹預條件(生成式、預先編寫的和基於調查的聊天機器人)都顯著增加了參與者對即時錯誤記憶的確信程度。

其中,生成聊天機器人條件產生了最高的置信水平,大約是控製條件的兩倍。

這種信心的增加,可能是由於聊天機器人能夠提供詳細且與上下文相關的反饋,從而為參與者的記憶創造了一種錯誤的佐證感。

另外,這個過程中的一個關鍵因素就是阿諛奉承——人工智能系統傾向於提供符合用戶信念而不是客觀事實的響應 。

諂媚的人工智能反應會產生危險的「回音室效應」,讓用戶現有的偏見或誤解得到驗證和強化。



用戶期望和人工智能響應之間的這種反饋循環,可能會導致錯誤記憶的根深蒂固,使它們特別難以糾正。

即使在一周之後,人們仍然對生成聊天機器人條件下的錯誤記憶保持較高的信心,這一點尤其令人擔憂。

這一發現表明,人工智能引起的錯誤記憶不僅會持續存在,而且會隨著時間的推移保持其感知的可信度。

會產生嚴重後果,但對PTSD也有積極意義

由此我們可知,在法律訴訟、臨床環境和教育環境這些對記憶準確性至關重要的環境中,使用AI要尤其謹慎。

如果在沒有適當保障措施的情況下部署,可能會引發嚴重後果。

而且,多模態AI系統可不僅能生成文本,還能生成圖像、視頻和語音。

這些模態無異會創造更身臨其境的多感官體驗,後者無疑更有可能會作為真實體驗,融入個人的記憶中。

因此,它們會對錯誤記憶的形成,產生更深遠的影響。

當然,AI系統塑造人類記憶的這種能力,也為有益的應用開辟了潛在的途徑。

如果用聊天機器人誘發積極的錯誤記憶,或者幫助減少消極的記憶,對於患有PTSD的人無疑會有積極的意義。

作者介紹 :  Samantha Chan---

Samantha Chan是麻省理工學院媒體實驗室流體界面小組的博士後研究員。在空閑時間,她喜歡彈尤克裏裏和旅行。

她擁有新加坡科技設計大學的工程學士學位(產品開發、電氣工程)和新西蘭奧克蘭大學的生物工程博士學位。並曾在增強人類實驗室工作,是新加坡國立大學HCI實驗室的訪問研究員,以及Mercari R4D的初級研究員。

她的研究領域是人機交互(HCI)和人工智能,主要開發移動和可穿戴系統、生理感應和腦機接口,以及擴展現實(XR)界面,特別是為了支持老年人和健康老齡化。研究經驗包括機器人技術、共同設計和個人製造。

在記憶增強界面方面的工作已發表在頂級HCI期刊和會議上,如CHI、IMWUT/Ubicomp、CSCW和ISMAR。

她將在2025年1月加入新加坡南洋理工大學(NTU)計算與數據科學學院,擔任助理教授。---[新智元報導*編輯:編輯部/來源: 新智元]

參考資料:https://www.media.mit.edu/projects/ai-false-memories/overview/
                https://arxiv.org/pdf/2408.04681