人工智能,是福是禍?
日前,無人駕駛出租車引發了人們對於人工智能的熱議。如今,各國政府和各大科技公司都致力於利用人工智能改變我們的生產和生活。強大的人工智能工具現在觸手可及。
但是,即便是在利用人工智能的所有善意舉措中,比如開展數據驅動決策、提高經濟生產力和實現醫療自動化等,滋生負面後果的風險也在不斷增加。
隨著技術邊界的縮小,我們面臨著越來越大的緊迫性,必須縮小治理差距,引導這項先進技術實現公平和可持續發展——換句話說,讓人工智能造福人類。
一個人工智能良好治理的框架離不開三點訴求。
首先,我們必須將人工智能治理植根於合理、共同的價值觀,如透明度、真實性和隱私。
透明度可促進利益相關者間的信任和問責,並使技術得到公平評估,以確保符合倫理和法律規定。
這在交通出行和醫療保健等領域尤為重要,因為這些領域的公共安全取決於可預測和可靠的人工智能行為。
要創建準確、公正的人工智能系統,防止科學、教育和媒體中的錯誤信息,加強社會信任,確保人工智能的良好應用,真實性至關重要。這種新型系統將日益依賴於所收集到的大量個人數據,隱私也變得至關重要。價值觀訴求指向人工智能的集體利益。
其次,應根據這些價值觀展開分層次行動,並不一定都依靠自上而下的方法,而是多主體齊頭並進推動。
這些行動影響著人工智能積極、向上的良性發展,並影響著管理人工智能的法律。
例如,如果我們的目標是為訓練人工智能算法的數據製定全球隱私標準,那麽我們就需要一個國際體系結構來製定和審查這些標準。
如果我們想促進準確的公共健康教育,那麽我們還需要建立行動機制,以遏製錯誤信息的傳播。
現在有了像GPT-4一樣強大的開源模型,但基本上沒有任何保障措施可以阻止惡意行動者利用它傳播錯誤信息。
偏見構成另外一個令人擔憂的問題,因為訓練集可能存在偏差。
醫療保健系統中固有的偏差被編入數據中,而人工智能又將其自動化並實現可操作化。
由此,為了確保人工智能在醫療保健領域得到安全、負責任的應用,必須對人工智能模型嚴格評估,甚至由監管部門將模型視同醫療設備一樣進行監管。
最後,確定人工智能治理的最關鍵領域,優先考慮技術開發和使用鏈條中的主要環節——數據、算法、計算和應用。
數據治理可對數據收集、存儲、分析和跨境流動進行監督,同時保護和防止濫用敏感數據。
算法治理可確保人工智能的判斷不帶歧視和偏見,從而準確、安全地為銀行、執法和醫療保健等部門的應用提供信息。
從雲計算和重要基礎設施的安全性和互聯互通,到數據中心的高耗水量和對勞動力市場的影響,人工智能若實施不當,完全可能擾亂經濟和生態系統。
這要求我們對半導體芯片、邊緣計算、雲計算、環境計算、量子計算、計算能源和計算用水進行管理。與此同時,有效的應用管理可防止濫用,減少不可預見的影響,並確保公平的利益分配。
薄弱的人工智能治理機制留下了治理赤字,原因是現有倡議不足、治理格局存在差距以及難以就更合適的機製達成一致。
挑戰很大程度源於地緣政治,國際合作的程度因政策領域而異,並受到國家意圖的不確定性、信任程度和利益一致等因素影響。
目前,開發和監管人工智能的能力高度集中,這表明中國、歐盟和美國之間的多邊協議可能足以降低關鍵風險。
不過,理論上雖有很大協議空間,但在必要的政策應對方面卻幾乎沒有共識。歐盟強調新法規,美國采取更加自由放任的方法,而中國則依靠行業自律和有針對性立法來治理人工智能。
為人工智能建立一個全球治理機制聽起來似乎有些天方夜譚,但困難並非完全不可克服。
一方面,需要積極協調眾多利益相關者,推動建立普遍參與的國際機制;另一方面,也不妨利用多中心秩序,鼓勵地方政府和私營公司采取多層次行動,制定適合其具體情況的創新政策。
(作者系北京大學新聞與傳播學院教授)---[作者:胡泳/來源: 中國新聞周刊]