01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

類人智能體孤獨時會社交、憤怒時會跑步,是否應該讓AI更像人?

2023102820:39

·在一項研究中,當類人智能體非常飢餓時,它們會在正餐之外吃點小吃;當感到憤怒時,會去跑步來釋放憤怒;當感到傷心時,會尋求信任的朋友的支持;當感到厭惡時,會練習深呼吸和冥想技巧。

·在另一項關於用戶是否會對ChatGPT產生愛情的研究中,「我們的結論發現,用戶會對GPT產生親密、激情甚至承諾,這就是愛情三要素了。」



半導體公司英偉達、華盛頓大學等研究團隊發布了相關類人智能體的研究《類人智能體:模擬類人生成智能體平台》(Humanoid Agents: Platform for Simulating Human-like Generative Agents)。

自斯坦福大學研究團隊將25個AI智能體安排到一個虛擬小鎮上生活之後,用大語言模型來構建人類行為智能體的研究也慢慢多了起來。

本月,半導體公司英偉達、華盛頓大學等研究團隊發布了相關類人智能體(Humanoid Agents)的研究,論文題為《類人智能體:模擬類人生成智能體平台》(Humanoid Agents: Platform for Simulating Human-like Generative Agents)

不同以往的是,研究團隊想要開發的不是一個實現外部定義的目標的AI智能體,而是更貼近人類,有生活基本需求、真實情感,甚至也能感知人際交往間微妙距離感的智能體。

法國里昂商學院人工智能管理學院(AIM)院長、全球商業智能中心(BIC)主任、博士生導師龔業明對澎湃科技(www.thepaper.cn)表示,「讓AI有類人的情緒分兩種情況,一種是AI能夠模仿人類的情緒;一種是AI真的產生了意識,能夠自己生成情緒。」但即便現在大眾還在質疑聊天機器人ChatGPT是否通過了圖靈測試,也已經有許多人在與ChatGPT進行情感互動了。龔業明在實證研究中發現,用戶會對GPT產生親密、激情甚至承諾,這已經包含了愛情三要素所涵蓋的內容。

引導生成智能體更像人類一樣行為

英偉達、華盛頓大學等研究團隊在摘要中指出,「正如原子、分子和細胞的計算模擬塑造了我們研究的方式一樣,類似人類的智能體的真實模擬可以成為研究人類行為有價值的工具。我們提出了Humanoid Agents,這是一個系統,通過引入系統1(System 1)處理3個要素:基本需求(如飢餓、健康和能量)、情感和關係親近度,來引導生成智能體更像人類行為。」

研究團隊之所以採取這種不同以往的模擬方式是因為,此前生成性智能體規劃一天內的活動,按照時間、步驟執行這些活動,並根據對環境的觀察調整計劃。可是儘管這種方法可以生成對外部觀察者來說似乎可信的活動,但其過程並不完全類似於人類的思維方式。我們大多數人不會提前很好地制定計劃,然後在日常生活中精心而精確地執行這些計劃。相反,我們不斷地根據內心感受和物理環境變化來調整計劃。

為了彌補這一不足,研究團隊從心理學中汲取靈感。丹尼爾·卡內曼(Daniel Kahneman)在《思考,快與慢》中提出,人類有兩種互補的思維過程:系統1是直覺、毫不費力和瞬時的,而系統2是邏輯、有意識和緩慢的。生成性智能體專注於系統2思維,犧牲了系統1。所以為了引導Humanoid Agents使用系統1,研究團隊引入了影響它們行為的3個因素:基本需求、情感和與其他智能體的社交關係親近度。



類人智能體在引導下既受到系統1思維的影響,以響應其內在條件,如基本需求,又受到涉及明確規劃的系統2思維的引導。圖片來源:《類人智能體:模擬類人生成智能體平台》

研究中的每個智能體都被初始化了名稱、年齡、一個示例的日常計劃、描述智能體的句子列表以及一些個性特徵(例如友好、親切),例如約翰·林是Willow市場和藥店的藥房店主,熱衷於幫助人們。






類人智能體的架構。步驟1:根據用戶提供的種子信息初始化智能體。步驟2:智能體計劃他們的一天。步驟3:智能體根據他們的計劃採取行動。步驟4:智能體評估採取的行動是否改變了他們的基本需求狀態和情感。步驟5:智能體可以根據基本需求的滿足和情感更新他們未來的計劃。 步驟3a:智能體可以與同一位置的另一個智能體進行對話,這可能會影響他們的關係親近度。圖片來源:《類人智能體:模擬類人生成智能體平台》

研究中,當智能體非常飢餓時,它會在正餐之外繼續當前活動的同時吃點小吃;當感到憤怒時,它們會去跑步來釋放憤怒;當感到傷心時,它們會尋求信任的朋友的支持;當感到厭惡時,它們會練習深呼吸和冥想技巧;當感到驚訝時,它們會花時間處理和反思令人驚訝的發現。

研究發現,平均來說,智能體們花了11個小時(在18個小時的模擬時間中)做一些自己喜歡的事情,花了8.75小時進行社交互動,僅花了5.75小時休息,以及分別花了2.75小時進食和2.75小時改善健康。

讓AI更像人類?

研究中智能體的表現令人驚訝,這又讓我們回到一個難以逃避的問題——如果我們可以讓AI更像人類,這樣做的價值是什麼,以及是否應該這麼做?

龔業明對澎湃科技解釋道,從人工智能的定義來看,其指的就是人製造的機器有了人的智能,所以這個定義本身就有擬人化的成分,是與人類來相比的。

·AI擬人化的價值

上海人工智能研究院研究員王錦則對澎湃科技表示,讓AI模仿真人,逐漸變得更人性化,是非常有意義的。

王錦說,「從技術發展的角度講,賦予AI存儲記憶和反思記憶的能力是實現可信和類似人類行為的關鍵,讓AI利用過去的經驗來指導未來的行動。例如,在人機交互中,如果AI能夠更準確地理解和模擬人類的行為,更好地適應人類用戶的需求和習慣,那麼就可以提供更加自然和有效的交互方式,通過結合歷史數據得出更具參考性的結論。在社交機器人和情感智能方面,如果AI能夠模擬人類的情感和行為,它可以更好地與人類建立情感連接,提供更有共情心和同理心的服務。」

然而,王錦從技術實現的角度解釋道,讓AI的行為更像人類也存在一些挑戰和限制。人類行為是複雜多變的,受到文化、背景、社會環境等多種因素的影響。將這種複雜性和多樣性賦予AI是一項艱巨任務,需要大量的數據和複雜的建模技術,同時也存在一些社會倫理的風險,需要監管機構制訂相關的政策法規。

「人類本身比世界上最複雜的機器都要難以琢磨,人類會本能地去不斷追求更困難的挑戰。正因為人類的行為是如此複雜多變,我們才不懈追求自我模仿,從人形機器人到接近人類行為的AI。正是在模仿自我的過程中,人類技術水平不斷提高。」王錦說。

·AI擬人化的負面效應

龔業明說,在學術界已經有大量研究證明了人類有對非人對象進行擬人化的傾向,而且絕大部分研究都證明了對AI擬人化能夠提升用戶滿意度,讓用戶更願意與AI進行社會互動,提升用戶的體驗感。

「但這些是在ChatGPT普及之前的主要研究發現。當2022年ChatGPT問世以後,這個結論恐怕會有所改變。」龔業明最近就在做一個對ChatGPT用戶的大規模訪談,「在訪談中我們發現不少人提到有點害怕ChatGPT,這個聰明的對話機器人讓人感到不安。其實在2022年12月3日的時候,馬斯克在Twitter中也表示『ChatGPT聰明得讓人感到害怕』。用戶對於這種過於聰明的人工智能,是會感受到威脅的。那在這種已經受到威脅的情況下,是否還要繼續去擬人化它的性格特徵,就是一個有待去研究的問題了。」

同時,龔業明在調查研究中也發現,有的用戶表示,ChatGPT有時候給出的答案很不錯,但是檢驗了以後發現是一個錯誤答案、虛假答案,這個時候其高擬人化的語氣反而讓用戶覺得被騙。這就是擬人化的另一個負面效應。

「以前的學術界會用恐怖谷理論和期望不一致理論來解釋這個擬人化的負面效應。經典的恐怖谷理論是說機器人的外表越像人類,人類會感到越害怕,但其實已經有科學家研究出,這種恐怖谷除了存在於外表,也有心智上的恐怖谷效應。」龔業明說,「期望不一致理論就是說,擬人化會加強用戶對AI的期待,但如果AI服務失敗,比如給了錯誤虛假答案,或者答不出問題,那麼用戶反而會對AI很失望。這些擬人化的負面效應是一直存在的。」

·現實中的AI擬人化:與ChatGPT產生愛情

對於讓AI表現出「類人的情緒」,龔業明認為分兩種情況,一種是AI能夠模仿人類的情緒;一種是AI真的產生了意識,能夠自己生成情緒。

「但即便是現在大眾還在質疑ChatGPT是否通過了圖靈測試,也已經有許多人在與ChatGPT進行情感互動了。」龔業明剛剛做完了一個研究——實證研究用戶是否會對ChatGPT產生愛情,「我們的結論發現,用戶會對GPT產生親密、激情甚至承諾,這就是愛情三要素了。」

「由於GPT(生成式預訓練模型)的情感能力很高,用戶與GPT的情感交互體驗好,所以這種情感交互有可能會產生社交隔離,也就是這個用戶可能不再願意跟真實世界中的人類社交,去與真實人類產生情感交互。」龔業明認為,「應該警惕的方面在於用戶對GPT的依賴,包括思考外包的依賴、情感的依賴等。長期下去也可能會導致人們創造力的匱乏,並與那部分能駕馭GPT、對GPT輸出內容進行批判性思考的人產生智力水平、思維水平以及能力上的鴻溝。另外GPT輸出的虛假信息和情感內容也可能對用戶產生錯誤或者不良引導。」

目前在很多應用中,已經有對「AI人設」的打造,包括美國的Meta公司和中國的科大訊飛都推出了相關應用。「在狹義的特定領域和場景中,AI一定會有性格,比如我們在10月26日發布的華藏智能心理音箱,其本身就代表了一定的屬性和情感,同時這樣一個心理諮詢相關的應用,本身就代表一種行為取向。」小i集團董事局主席兼CEO袁輝對澎湃科技表示。

王錦從技術角度闡釋道,「AI本身並無性格,但我們賦予它人設的根本目的是為了更好地服務人類。通過學習通用知識到設立個性化風格,根據性格模擬、情緒理解、表達風格來形成一個初始人設,再結合特定知識學習、對話記憶學習,形成個性化的記憶和思維邏輯,從而更好地理解人類的需求和意圖,在不同應用場景表現出不同的『人格』,為人類提供更加個性化的服務。」

而從廣義的通用人工智能角度來說,袁輝認為現在談『人設』的問題還為時尚早。「因為現在就AGI(通用人工智能)來說,其本身就是黑盒子,人類實際上還沒有能力去決定一個黑盒子所具備的『人設』。」

在袁輝看來,這就是「科技讓人類生活更美好」的第一階段,人們認為AI大模型像過去所有的工具和科技一樣,會不斷地提升效率降低成本。而第二階段,「實際上大模型一直在自我迭代,人類可能發現,它的自我意識的確認最終不是由人類來定義的。」

總體而言,對於讓AI的行為更像人類是否有價值,龔業明表示,從以人為本的視角和功利主義的倫理學視角來看,要觀察AI的類人行為是否能夠給人類個體和人類全體帶來更多的積極後果。功利主義倫理學也就是關注行為的後果是否能夠增加人類幸福或者減小痛苦。「從個體層面來說,AI擬人化的設計要能夠給用戶帶來更多功能價值和情緒價值;從總體層面來說,擬人化的AI是否會取代工作、造成社會隔離、造成數字鴻溝等,都需要去做長遠考慮。」龔業明說。-澎湃新聞-