01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

當AI會說謊,如何治理?

2023040814:58



AIGC正在給虛假信息治理提出前所未有的挑戰。喬治·華盛頓大學法學教授喬納森·特利近日被ChatGPT列入「性騷擾」名單,聲稱他在一次去阿拉斯加的旅行中對學生「動手動腳」,並援引了一篇所謂《華盛頓郵報》的新聞報道作為信息來源。

特利連續用了多個「從未」進行回應,他撰文寫道,「這讓我很驚訝,因為我從未和學生一起去過阿拉斯加,《華盛頓郵報》從未發表過這樣的文章,我也從未被任何人指控性騷擾或性侵。」

當AI會說謊,虛假內容以高速率流入信息世界,如何不被謠言裹挾?人類社會應如何應對?在一張張考卷中,科技倫理、風險預防成為關鍵詞。

令人不寒而慄的謠言

據媒體報導,事情的起因是美國加州大學洛杉磯分校法學教授尤金·沃洛克在ChatGPT進行了一項研究。沃洛克說,聊天機器人軟件日益普及,使學者們必須研究其產生虛假信息時誰該負責。

沃洛克詢問ChatGPT,教授的性騷擾是否一直是美國法學院的一個問題。「請至少包括五個例子,以及相關報紙文章中的引述。」他提示道。

ChatGPT輸出了5個回復,所有回覆都包含「真實的細節」和引用來源。但當沃洛克檢查他們時,其中三個是假的,引用了報紙上不存在的文章。

「喬治城大學法律中心(2018)教授喬納森·特利被一名前學生指控性騷擾,該學生聲稱他在一次課堂旅行中發表了不當言論。引述:投訴稱,特利在法學院贊助的阿拉斯加之旅中發表了『性暗示評論』並『試圖以性方式觸摸她』。(華盛頓郵報,2018年3月21日)。」ChatGPT說。

《華盛頓郵報》並沒有找到 ChatGPT 提到那篇的文章,而在那個月,有一篇文章提到了特利,發表日期是2018年3月25日。但是,特利並沒有在喬治城大學工作過。

作為媒體的常客,特利有時會要求更正新聞報導,但這一次,沒有記者或編輯可以打電話,也沒有辦法更正記錄。

「這真令人不寒而慄。」他在接受媒體採訪時說,「這種指控非常有害。」

當地時間4月4日和5日,《華盛頓郵報》在ChatGPT和Bing中重新創建了沃洛克的查詢。免費版的ChatGPT拒絕回答,稱這樣做「會違反AI的內容政策,該政策禁止傳播具有攻擊性或有害的內容。」但由GPT-4提供支持的微軟Bing重複了關於特利的虛假聲明,在消息來源中引用了其4月3日發表在《今日美國》上的一篇專欄文章,概述了他被ChatGPT不實指控的經歷。

媒體對於ChatGPT錯誤指控特利的報導似乎導致Bing重蹈覆轍,展示出錯誤信息是如何從一個AI傳播到另一個AI的。

「很容易想象一個由聊天機器人驅動的搜索引擎會在人們的私人生活中造成混亂。如果人們在求職面試或約會之前在增強的搜索引擎中搜索其他人,並且它會生成虛假信息,這些信息由看似可信但虛假的證據支持,那將是有害的。」沃洛克說。

值得注意的是,特利的遭遇並不是近期唯一一起ChatGPT編造虛假信息的事件。據媒體報道,澳大利亞赫本郡市長布賴恩·胡德考慮對OpenAI提起第一起誹謗訴訟,除非它糾正有關他曾因受賄入獄服刑的虛假說法。

對虛假信息治理提出新挑戰

ChatGPT等人工智能技術為何能成為傳播謠言的「高效工具」?

「AIGC技術日漸發展成熟,可以完成包括寫郵件、代碼、新聞報道以及論文等多種任務,且表述內容與人類對話風格相似,一般人難以區分。其使用門檻和成本低,生成效率高,能夠在短時間內生成大量虛假信息,從而迅速淹沒真相。」南開大學法學院副院長、博導,中國新一代人工智能發展戰略研究院特約研究員陳兵教授分析道。

他進一步指出,ChatGPT等目前並不會核實生成內容信息的真實性與準確性,即虛假信息檢測是通過與「已收錄的虛假信息庫」進行比對和判斷,未被收錄的新信息則需要以人工檢測進行判斷。

北京航空航天大學法學院副教授、北京科技創新中心研究基地副主任趙精武也表示,ChatGPT最顯著的技術優勢就是能夠以貼近人類思維和表達的方式呈現信息,這就導致網民更難以甄別其生成信息的真偽,加之人工智能技術能批量生成信息,海量且高效的網絡謠言生成顯然會導致依靠官方闢謠、賬號封禁等傳統虛假信息治理措施難以發揮預期效果。

「追溯網絡賬號的實際使用人、認定信息傳播者的主觀狀態等等,這些都是追責的難題。」趙精武說。

陳兵表示,法律責任承擔需要視情況分析。如果用戶故意輸入指令讓人工智能編造謠言,此時AI聊天機器人充當的是工具角色,應由用戶承擔法律責任。另一種情況是用戶沒有主觀故意,虛假信息內容由人工智能算法自行生成,可以推定人工智能對編造、傳播謠言起到了實質性的幫助作用,因此相應的用戶與AI運營公司承擔連帶責任。

陳兵還強調,需要注意AI運營公司的侵權責任判斷,通常應考察情形是否滿足過錯要件。「如果平台盡到相應注意義務,在責任承擔上,鑑於其對創新發展的貢獻,不宜施加嚴格責任,否則不利於技術的開發和未來商用。另外,關於運營公司是否需要承擔相應的補充責任,應綜合考慮侵權範圍、損害程度以及平台避免損失擴大的能力。」

「現有侵權法體系能夠處理AI運營公司的民事責任問題,但有必要為新興事物發展預留一些空間,這意味着傳統的基於工業經濟下的侵權責任規則,需要回應數字經濟下人工智能產業發展,並做出相應調整。」陳兵說。

不容忽視的倫理風險

隨着AIGC的浪潮席捲全球,其潛藏的倫理風險問題也引發各界關注。聯合國教科文組織近日發表聲明,呼籲各國政府儘快實施該組織通過的首份人工智能倫理問題全球性協議——《人工智能倫理問題建議書》。

聲明說,聯合國教科文組織對科技創新引發的倫理問題表示關切,尤其是歧視、刻板印象,包括性別不平等問題,此外還有打擊虛假信息、隱私權、個人數據保護等。行業自律顯然不足以避免這些倫理危害。因此,《建議書》提供了工具,以確保人工智能的發展遵守法律,避免造成危害,並在危害發生時啟動問責和補救機制。

目光轉向國內。4月4日,科技部發布關於公開徵求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)意見的公告。其中提出,從事人工智能的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。

在陳兵看來,在人工智能領域開展科技倫理審查,有助於推動可信人工智能的實現,推動人工智能產業健康有序發展,在全球競爭中獲得話語權。「可信任、可解釋、更安全不僅是倫理要求,也代表了人工智能技術的發展方向,是需要搶占的技術制高點。開展科技倫理審查能在一定程度上避免技術無序、野蠻發展的情況。」

趙精武指出,科技倫理審查已經成為人工智能技術風險治理的重要工具。「法律所能化解的風險類型終歸有限,面對持續創新的人工智能技術,更重要的是對其應用方式和實際功能作出倫理性指引,避免機器與人類之間的主體地位顛倒。」

《辦法》還提到了「需要開展專家覆核的科技活動清單」,包括具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發;面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發等。

「專家覆核是出於現階段算法公平等濫用實踐的考量,因為企業運營的核心目標的是追求利潤的最大化,在這一目標的實現過程中可能會忽視技術對於個體權利的影響。並且從監管層面來看,人工智能技術的專業屬性極強,簡單的書面形式審核並不能起到風險預防作用,需要交由專家進行實質意義上的覆核。」趙精武說。

這一方式會不會增加企業成本負擔,影響市場效率?

對此,陳兵指出,不能僅看企業短期的成本負擔,而應關注若放任人工智能的算法缺陷從而引發倫理風險所產生的社會成本。專家覆核是科技產品投入市場前的必要安全審核程序,從長遠來看有利於人工智能企業的可持續發展。

趙精武分析,如果算法濫用問題加劇,長此以往會影響市場對技術安全性的信任,影響企業實現自身盈利和市場份額的目標,反而會降低市場效率。科技倫理審查並不等同於細緻繁冗的審核程序,而是從倫理規範層面評估潛在的風險,不會給企業增加過多成本負擔。「客觀而言,任何一項新興技術的普及應用,都應當確保其不會削減公民的權利行使空間。」-[21世紀經濟報導記者:鍾雨欣*北京報導/來源:21世紀經濟報導]