將倫理思入現實|AI倫理治理與社會性機器人
AI實踐應用正在隨時間呈指數式增長,與此同時,需要AI增進福祉的人類共同體卻陷入全球文化價值危機。AI倫理治理需要面對怎樣的難題?
「社會性機器人」包括機器人護理、機器人同伴、機器人警察、機器人同僚等,它們具有實際的行動能力與自主性,它們對人類社會的沖擊會遠勝於目前大語言模型或是AI影像生成的影響。社會性機器人應該具有哪些品德與情感程序,從而促使它們做出符合人類普遍價值與道德體系的抉擇?
為了探討這些前沿問題,華東師範大學於2024年6月5日舉辦了一場「AI聚力」學術沙龍(暨思與文講座第134-135講),探討AI倫理治理與社會性機器人問題。本次沙龍由華東師範大學中國現代思想文化研究所、華東師範大學人文與社會科學研究院聯合主辦,華東師範大學哲學系應用倫理中心、上海中西哲學與文化比較研究會承辦。
本次論壇分為主題研討和圓桌討論兩個環節。主題研討環節由美國加州州立大學富樂敦分校劉紀璐教授、西安交通大學王小紅教授主講,華東師範大學中國現代思想文化研究所暨哲學系陳赟教授、華東師範大學哲學系潘斌教授主持。圓桌討論環節由華東師範大學哲學系應用倫理中心張容南教授主持。
一、社會性機器人
劉紀璐教授做了題為「如何設計社會性機器人的道德基本素養:儒家美德及其影響」的主旨發言。劉教授首先厘清了AI倫理與機器人倫理的概念範疇,表明自己主要研究的是機器人倫理學暨如何設計、應用、對待機器人,以及機器人的道德性這兩個問題。
劉教授特別提到自己的研究聚焦於社會性機器人,這類機器人需要與人類進行高度互動,未來甚至可能具備獨立的思考和行動能力。因此,面對現有機器人的高速發展以及未來可能會出現的困境,如何設計機器人的道德素養成為了一個重要議題。
對此問題,劉教授一方面反思了過去對人工道德主體所要遵循的倫理理論的選擇,另一方面提出自己的構想,暨參考儒家的品德倫理學與道德情感論,不依賴於行動本身而從行動者出發,建構出具有持續性的道德「人格」的機器人。
進一步地,劉教授結合學者Bertram F. Malle的主張為自己的構想做出具體闡釋,支持目前先以機器人的「道德勝任性」為目標,日後再考慮如何建設機器人的道德主體性。她轉述一位哥倫比亞大學教授的主張:我們對AI以及機器人的發展,應該采取導引(steer)而非畏懼(fear)的態度。
根據Malle的闡述,「道德勝任性」包含六個關鍵要素,分別是道德語匯能力、道德規範性、道德認知能力、道德情感、道德決策性與行動性,以及道德溝通能力。劉教授特別指出,道德規範性不宜局限於地區性和單一性,而應當構建一個普遍多元的價值規範。
在此基礎上,劉教授詳細解釋了選擇儒家倫理來建立機器人美德的五個原因:(1)儒家倫理強調親疏有別,更適合於機器人與人類建立親密關系;(2)儒家倫理強調終身學習,可以用來加強機器學習的永無終止;(3)儒家品德倫理所列舉的美德意涵復雜深刻,不是僅僅針對人類的缺點,而同時可以適用於機器人的品德構造;(4)儒家對處理人與人之間關系的重視有助於建立一個有德合群的群體;以及(5)儒家品德倫理學是一種道德精英倫理,目標不是僅僅建造擬人的機器人,而更是要製造機器人中間的君子聖賢。
對於儒家繁多美德的選擇,劉教授主張選擇「仁義禮智、忠信誠敬」八個美德加入機器人倫理設計,以作為機器人倫理建設從上而下的基本結構。她也強調機器人必須從下而上,從有德之人的案例中學習道德認知,在與人互動中學習人類的價值取舍。她認為機器人的價值建構一定需要「人在環路」,用問卷方式考察人對有德機器人的期望。她認為她在2022年所做的問卷調查與結果數據,可以印證儒家美德的有用性。
最後,劉紀璐教授再次強調,道德情感對於機器人而言並非可有可無, 而是具有其必要性。機器人必須擁有一些道德情感,才能作出正確的道德抉擇。她認為不是所有人的正面負面情感都需要設計給機器人。她所選擇的是孟子所說的「四端」——四種使道德可能的道德情感。
她認為這些道德情感不是基於身體生物性的反應,而是建立在道德判斷,是種認知性的情感,與之配合的也可以選擇愛、同情、遺憾等自然情感。當然,在目前階段只能期待機器人具有「道德勝任性」,可以正確做出「合乎道德性的」道德判斷,道德溝通,道德抉擇,與道德行為。至於未來如何從表象深入到實質層面,構建機器人「出乎道德」的道德主體性,仍然是個值得商榷且具有挑戰性的任務,劉教授期待有更多的儒家學者加入研究。
美國加州州立大學富樂敦分校劉紀璐教授
美國肯庸學院教授、華東師範大學哲學系客座教授蕭陽就美德的情感與智慧這兩個向度,以及關於在問卷調查的方法中如何描述案例的問題展開評述。蕭教授高度贊同劉紀璐教授關於倫理學研究不應只關註行動和行動規則,而應關心美德的觀點。但是,這樣做的一個後果就是,這就給設計社會機器人提出了許多嚴重的挑戰,而它們是那些只關註行動與原則的倫理學不會提出來的挑戰。
蕭陽教授強調,美德至少有兩個向度會對如何設計美德機器人提出挑戰。首先,美德涉及情感,僅僅做出正確的行動是不夠的,還要有正確的態度和情感。美德機器人首先要成為情感機器人,有「情商」的機器人。
關於如何賦予機器人情感所面臨的問題,蕭教授做出了更具體的展開,指出大部分哲學家認為情感涉及命題內容,很少有人像斯多亞學派那樣認為情感能完全還原成並且等同於命題內容。
後來的心理學家的經驗研究表明,僅僅有極少數情感可以完全還原為命題內容。也就是說,情感中通常總會有某些東西是與肉身緊密相關的,不可能用命題來表達的東西,因此不可能程序化。這是對設計情感機器人最大的挑戰。
除情感之外,美德還涉及實踐智慧的向度。蕭教授首先援引馮契先生的名言「化理論為德性」,然後說到,馮先生大概也會同意它的一個推論,那就是,「不應當化美德為理論」。
這是因為實踐智慧無法被還原為理論或原則。威廉姆斯(B. Williams)曾經被問到,「一個完全遵循原則的人到底有什麽不對?」他的回答是,因為他像一個機器一樣行動 (he acts like a machine)。麥克道爾(John McDowell)也曾證明美德不能被編碼。
針對劉紀璐教授研究的問卷調查中的案例,蕭教授提到,戴蒙德(Cora Diamond)寫了一篇討論實驗哲學的文章,「What if x isn't the number of sheep? Wittgenstein and Thought-Experiments in Ethics」。她論證道,當下的研究者對於他們的問卷中的那些案例是如何加以描述的完全沒有自我意識或批判的反思,他們尤其沒有註意到他們對一個案例的描述已經被各種價值和預設所滲透。
以他自己的授課經驗為例,蕭教授提到,在討論「安樂死」問題時,同一個具體案例,從被描述為「幫助一個人擺脫痛苦」,到被描述為「謀殺」,有些學生的立場就改變了。
蕭教授建議,在以後的問卷中或許也可以嘗試改變對一個案例的描述,或者最好是對同一個具體案例給出不同的描述。這些不同的描述之間的差異通常非常微妙,如何教會機器人識別,並且理解這些微妙的差別,這是對設計美德機器人的另外一個巨大的挑戰。
美國肯庸學院教授、華東師範大學哲學系客座教授蕭陽
華東師範大學哲學系茍東鋒教授圍繞方法論、儒學的普適性以及「像人」的問題展開評述。茍教授首先從方法論出發,肯定了探討道德勝任的重要性。他指出,厘清研究對象是一項很重要的工作,劉教授的研究明確聚焦社交機器人,有其重要意義。
茍教授認為,探討人類與機器人如何和諧相處的問題,涉及對人類的理解,而儒家思想中對於人的定義非常豐富。他援引孟子:「堯舜,性之也;湯武,反之也;五霸,假之也。久假而不歸,惡知其非有也。」他以此闡述儒家對人的理解以及我們該如何與機器人打交道。
接著,茍教授探討了儒學的普適性。他引用梁漱溟的三問題指出,儒家更關註人與人之間的關系,並主張以道德的方式即忠恕來解決這一問題,在此基礎上可以擴充至其他所有問題的解決。茍教授強調,儒家的「以人治人,改而止」的治理理念和忠恕的根本精神對於人與機器人的相處具有重要啟示。
最後,茍教授討論了「像人」的問題。他提到了森昌弘的「恐怖谷效應」,引出中西哲學對待與人高度相似的機器人在感受上有所差異。儒家從類的角度看待天地、鬼神和人類,沒有強烈的人與非人的二分性。在此基礎上,茍教授進一步提出了三個機器人道德相關的問題。
第一,當前已有的機器人在完成特定任務時可能與人類沒有區分,但它們還只停留在扮演具體的角色,未必能擁有機器人的「仁」;第二,強人工智能還未出現時,如何處理假裝像人但並非人的對象?這涉及機器人的設計,自上而下的設計可能會產生非道德的機器人,而這無法預測;第三,當強人工智能出現後,我們無法對其進行設計,屆時應當如何處理這些智能的道德問題?
華東師範大學哲學系教授茍東鋒
華東師範大學哲學系陳赟教授表示,隨著人工智能技術的迅猛發展,機器人是否能具備法權意識、道德意識、歷史感、同理心等人類特質的問題需要受到高度重視,人機問題實際上是圍繞「我們希望將機器人打造成怎樣的存在」以及「我們現實中能製造出怎樣的機器人」展開的討論。
在現實中,能否建立一種管理體系,將機器人容納為人類社會的一員;未來的機器人是否能擁有智慧、情感、意識,甚至發明新的語言符號體系,都仍處於未知狀態。陳教授認為,盡管我們在人工智能研究已經取得了顯著進展,但距離我們理想中的目標仍然有一定差距,要讓它們達到與人類同等的復雜水平,依然是一個巨大的挑戰。盡管如此,人類可以繼續深入思考和探索這個領域。
華東師範大學哲學系陳赟教授
二、AI倫理治理
王小紅教授做主旨發言「AI倫理治理三大難題與哲學的詮釋」。王教授的報告主要涵蓋三個部分的內容:文化共識難題;AI復合系統的道德責任;多重AI倫理問題的概念分析和厘清。
王教授提到,自己對於文化共識問題的認知視角是基於網絡平臺「鏈接人工智能原則平臺(LAIP)」,該平臺旨在整合、綜合、分析和促進全球人工智能原則及其社會和技術實踐。
平臺詞雲圖顯示「以人為本」相關理念受到大多數國家重視,呈現出AI治理文化共識趨向。然而,在不同文化背景下,「以人為本」的抽象準則還需落實到具體的倫理原則。
對於如何實現文化共識,王教授從哲學角度提出了三個智慧共識策略。第一,超越文化的「概念鴿子籠」,即避免使用自己熟悉的文化中的「概念鴿子籠」,把另外一種文化中的事實分格塞進去,來解釋不同的文化現象;第二,在有利於人性進步之準則下,尊重不同的歷史所沈澱的多元價值;第三,AI大模型的倫理嵌入,不論自上而下式還是自下而上式,皆需要分析和清晰呈現道德哲學的語義蘊含。王教授還分享了一個文化分歧的實例為共識策略作出補充。
此外,王教授分享了所在實驗室近期所做的工作,特別分享了中國哲學古籍主題建模項目。王教授表示,哲學表述的抽象性和中國哲學一詞多義性是道德哲學向AI算法轉化的難題。
實驗室所做的LDA主題建模可以用於發現龐大語料庫的整體意義結構,目前多用於文學、史學研究,哲學領域的實踐尚且不多,其實用性還有待考察。
與中國哲學領域專業學者的密切合作,有希望助力LDA模型運用於哲學語料庫,再聚焦於具體文本,進而揭示小文本意義特征和文本間意義關系,從而進行哲學發現,並為一些哲學命題提供實證論據,實現這一領域的研究突破。最後王教授簡要論及主題模型可解釋問題、語義表達映射向量表征、元倫理的建構等問題。
西安交通大學王小紅教授
華東師範大學哲學系潘斌教授指出,王教授的報告帶來了一個重要信息,即關於建立哲學主題數據庫的建議。王教授的報告展示了如何利用大數據進行哲學研究,這對於哲學文獻考證、學術研究和思想史研究都具有重要意義。
他認為,如果能夠建立一個高質量的大型哲學數據庫,將為哲學的數字化研究帶來革命性影響。潘教授還表示,語言數據庫的建立是一個漫長的過程,但一旦完成,將極大地促進哲學研究的數字化轉型。王教授的工作開啟了這一方向,具有重要的示範意義,也希望更多學者能夠參與到這一領域的研究中來,共同推動哲學研究的數字化進程。
華東師範大學哲學系潘斌教授
華東師範大學哲學系付長珍教授以王教授所提出的三大難題為切入點,從三個維度闡述搭建AI倫理治理框架的前提。首先,對AI使用過程中產生的具體倫理問題的治理,這是一種後果性的治理;其次,符合倫理的治理即善治的實現,這是一種原則和方法層面的治理;最後,倫理作為價值目標的前瞻性治理,這關乎未來的人與AI的相處,需要倫理學擔當其使命。
對於如何達成AI倫理治理目標這一問題,付教授提出從原則到實踐的落地性進行考量。倫理原則需要滿足可行性、可接受性和可欲性,搭建一種「帳篷」式的理論框架,既可以為AI發展提供切實的保障,又能夠滿足不同文化情境的要求,符合「科技向善,以人為本」的理念。
付教授認為,這不僅要求哲學家與工程師的共同努力,還需要社會公眾的加入;這不僅意味著AI需要符合人類現有的價值觀,更意味著要促進AI與人類的和諧共生,從而催生出更合乎社會進步方向的價值觀。付教授據此探討了倫理學範式的轉型,並進一步提出了自己的主張,即信息文明背景下基於實踐智慧的生生倫理轉向。
華東師範大學哲學系付長珍教授
華東師範大學哲學系朱晶教授就「前瞻」和「實證研究」兩個關鍵詞分享了自己的體會。朱教授提到,早在2000年左右王教授就已經開始研究如何利用計算機程序進行科學探索。面對如今AI for Science成為熱潮的現實,王教授一直以來的研究無疑展現出高度的前瞻性。
朱教授強調了實證研究的重要性。她指出,王教授的實證研究為探討人工智能倫理、AI for Science中的可解釋性、可證實性和可預測性等前沿問題提供了寶貴經驗。作為科學哲學研究者,需要具備相應的能力,參與這些通常被認為是計算機科學家或數據科學家的工作,例如運行LDA模型。
朱教授認為,研討會上蕭教授提到倫理調查背後的方法論問題以及劉紀璐教授所推進的調查研究,實際上都揭示出實證研究的廣泛應用,將哲學研究推向了經驗研究的前沿。
值得註意的是,哲學家在進行經驗研究時面臨的方法論質疑尤為嚴峻。由於經驗研究結果具體而直接,很容易被質疑存在設計不當、樣本不具有代表性等問題。朱晶教授總結道,王教授的報告展示了如何通過經驗研究推進哲學研究的可能性和拓展空間,雖然存在諸多挑戰,但其廣闊的前景令人期待。
華東師範大學哲學系朱晶教授
三、圓桌討論
華東師範大學哲學系張容南教授圍繞培養機器人道德性的風險闡發思考。張教授指出,儒家的德性主要是在關系性、情境性的過程中培養出來的,並且大多數人的情感都與具身性的活動相關聯,那麽,機器人究竟需要耗費多長時間學習以及經歷多少聯系才能培養出美德,是一個值得思考的問題。
再者,機器人的學習過程具有不確定性,我們無法保證機器人會向好向善學習,因此它最終有可能會發展成為類似儒家所說的「小人」而非「君子」。張教授提出,或許可以嘗試在儒家德性倫理之外增加一些規則倫理,作為基本的底線,以幫助機器人更好地學習和應用道德規範。
華東師範大學哲學系張容南教授
利物浦大學方超助理教授結合自身的社會學背景以及對老齡化和安寧療護問題的關註,提出AI倫理治理與法律之間的關聯。他提到,近幾年荷蘭在安樂死合法化問題上有了新的發展,涉及從身體到心理的全面考量,如果個人覺得生命沒有意義,同樣可以申請結束自己的生命,這同其他國家目前在該領域的法律現狀有著明顯的差別。方教授認為,AI倫理治理以及對機器人的規範同樣需要考慮不同法律和情境的應用。
利物浦大學方超助理教授
華東師範大學思勉人文高等研究院青年研究員梁逸鴻提出宋明理學中的「理一分殊」在機器人倫理設計發揮作用的構想。
他認為,「理一分殊」有普適性價值。對於儒家而言,仁即為最高的理,而仁在不同場合又有不同的表現;對於王陽明而言,「良知」概念有其至高性,同時也在不同情境中表現出不同的品德,如「孝」、「信」等等。在此意義上,或許「理一分殊」理論也有望在機器人倫理設計中發揮作用。此外,他還對劉教授發言中「道德情感產生於道德判斷之後」這一論題的理論來源有所關註。
華東師範大學思勉人文高等研究院青年研究員梁逸鴻
華東師範大學哲學系洪澄副教授圍繞人性與社會性的復雜展開討論。洪教授指出,對於機器人而言,社會性既涉及機器人之間的社會行為,也涉及機器人與人類之間的互動。劉教授認為儒家美德倫理學具有普適性,然而,西方學者的理解可能有所不同。
例如,亞裏士多德認為社會性基於人和人之間的友愛,而霍布斯則強調自愛和自我保存。那麽,機器人倫理是否也需要考慮機器人的自愛和自我保護欲望,這是一個值得討論的問題。此外,洪教授還提到理論、問卷與現實生活的斷裂,指出機器人倫理還需更多聯系實際生活。
華東師範大學哲學系洪澄副教授
華東師範大學哲學系劉梁劍教授指出,哲學與AI有兩種相互作用的進路,一種是「Philosophy for AI」,即從哲學角度思考AI發展過程遇到的問題;另一種是「AI for Philosophy」,即探討AI在推動哲學研究方面的可能性。圍繞機器人情感問題,劉教授提出了兩個討論層面。
一方面,如果討論情感在行動主體(agent)層面的重要性,就需要考慮機器是否真的能感受到喜怒哀樂。另一方面,「情感」概念在面對反例時可以調整其內涵,使其有能力接納反例。「心」「心靈」「人」等概念亦是如此。對於大模型倫理嵌入問題,劉教授表示需要反思事實與價值二分的預設,反思是否應當在語用學而非純粹語義學的層面進行分析。
華東師範大學哲學系劉梁劍教授
華東師範大學哲學系朱承教授指出,技術發展自古以來都是為了改進人類生活,在這基礎上,AI在技術層面可能更具顛覆性,但其最終目標仍是幫助人類建設美好生活。然而,現代社會中快速地布置AI導致一些職業被人工智能所取代,最後呈現的結果竟是人民跟不上科技如此高速的發展,這樣的困境需要重新進行道德審視。
華東師範大學哲學系朱承教授---來源: 澎湃新聞-