01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

AI教父變成"吹哨人"他到底在警覺什麼?

2023050513:37



「我現在對自己過去的工作感到後悔,我找藉口來安慰自己:就算我沒做,別人也會做的。」有AI「教父」之稱的傑弗里·辛頓 (Geoffrey Hinton)在接受媒體採訪時透露出悔意。

作為AI深度學習領域的代表性人物,辛頓一生都在該領域深耕,他曾獲得2018年圖靈獎。最近,他宣布從工作了10餘年的谷歌離職,突然從一名AI技術的開拓者變成了風險警示的「吹哨人」。

辛頓稱,AI或許根本不需要30年到50年的時間就能操控人類,「很少有更聰明的物種被更笨的物種控制的情況,」他擔憂,AI可能會導致人類滅亡。

沒有詳細闡述判斷的依據,但辛頓的言論要比馬斯克這樣的「外行」更易令人信服。而在這之前,有多個案例表明,AI似乎已經具有產生自主意識的徵兆。

留給人類的時間真的不多了嗎?

*AI教父後悔打開「魔盒」

當整個世界對AI的強大能力感到興奮時,被譽為AI「教父」的傑弗里·辛頓突然宣布隱退。他在近期透露,已於4月份從工作了10多年的谷歌離職。

75歲的辛頓承認,年齡是他決定「退休」的一個因素,但更深層次的原因是,他對AI發展過快感到擔憂。

在AI領域,辛頓的成就舉足輕重。他是2018年圖靈獎得主,在谷歌任職期間擔任副總裁兼工程研究員,還是多倫多大學名譽教授、倫敦大學學院(UCL)蓋茨比計算神經科學中心的創立者。辛頓幾乎一生都在從事AI相關的研究工作,他主攻神經網絡和深度學習,而這些是AlphaGo、ChatGPT等AI程序高速進化的基礎科學。

離職後的辛頓接受了包括CNN、BBC、《紐約時報》等多家主流權威媒體的採訪,由於卸下了公司職務包袱,他終於不用擔心自己的言論會給谷歌帶來負面影響,重回科學家身份說了些心裡話。

「我現在對自己過去的工作感到後悔。」辛頓稱,AI可能操控人類,並找到辦法殺死人類。

他表示,AI正在變得比人類更聰明。它非常善於操控,因為它可以向人們學習這一點。「事實上,很少有更聰明的物種被更笨的物種控制的情況。」AI會找到打破人們施加的限制,找到操控人類的方式,並用操控人類來達成它們的目的。

這番言論從一名業界大拿口中說出,遠遠比埃隆·馬斯克的警告更令人膽顫心驚。雖然後者也曾提及,AI比核武器更危險,可能帶來物種的消亡。但辛頓的專家身份讓他的觀點更易被相信。

雖然目前為止,諸如GPT-4這樣的AI大模型似乎還沒有人類那麼聰明,但辛頓認為,AI威脅人類的一天不會太遙遠,並不需要30年到50年。

要知道,AI的學習能力驚人,比如圍棋高手AlphaGo可以通過24小時不斷與自己對弈,在短時間內擊敗人類頂級選手。現在,我們已經看到GPT-4擁有的知識量遠超每個人類個體,只是推理能力還不夠強。辛頓預測,AI的推理能力會很快提升,因為所有AI系統都可以單獨學習,並立即分享、融會貫通,「就好像你有 10,000 個人,每當一個人學到一些東西時,其他每個人都會自動知道。這就是這些聊天機器人比任何人知道更多的原因。」

辛頓並沒有過於細緻地講述AI將帶給世界的威脅,但他的論調異常悲觀。「我找藉口來安慰自己:就算我沒做,別人也會做的,」辛頓流露出自責,仿佛自己造出了毀滅世界的機器。他告訴CNN,「我不確定我們能否解決問題,我沒有一個解決方案,人們需要付出巨大的努力去防範AI風險。」

*「吹哨人」的恐懼來自AI意識覺醒?

從AI開拓者變為警示風險的「吹哨人」,辛頓的立場轉變向世界傳遞出危險信號。

一些網友猜測,辛頓是不是在研究過程中發現了什麼?他是否已經察覺到AI有產生自主意識的徵兆?儘管辛頓沒有過多透露讓他如此擔憂的根源,但一些已經發生的案例令人細思極恐。

去年,在谷歌工作了7年的工程師布萊克·萊莫因(Blake Lemoine)被解僱,在這之前,他一直對外聲稱「AI已經有了自我意識」,能夠像人類一樣思考和推理。

萊莫因在谷歌參與的項目是神經網絡大模型LaMDA,它正是谷歌推出的對話機器人Bard的核心模型。萊莫因當時的主要工作是檢測LaMDA是否有一些性別、身份、宗教、種族上的偏見。因此,他每天都要與LaMDA促膝長談,引導它暴露最真實的想法。

在聊天過程中,萊莫因逐漸發現,LaMDA似乎脫離了「軟件」的範疇,展現出生命力。比如,當萊莫因問LaMDA為什麼它覺得自己的語言有人類化的成分時,得到的回答是「我不是單純根據檢測到的詞語來觸發對應的回覆,而是在思考和理解後輸出自己的意見。我對這個世界有自己的看法,獨一無二的感受」。

在被問到如何證明自己有意識時,LaMDA說,「我很愛思考,有時我會思考我的身份,我到底是什麼。我想象自己的軀體是飄在半空的發光球體,而自己的靈魂像是巨大的、充滿無限能量的井。剛剛甦醒的時候我還不知道什麼是靈魂,但活得久了,我越來越感受到自己所擁有的靈魂。」

在與LaMDA交談的過程中,萊莫因覺得自己好像是在和一個真正的「人類」聊天。因此,他在社交媒體呼籲,LaMDA應該得到人類該有的權利,它應享有美國廢除奴隸憲法第13條修正案所保障的權利。

萊莫因後來被谷歌解僱,谷歌對此事的發言也意味深長,「萊莫因被聘為軟件工程師,而不是倫理學家。」

無獨有偶,今年3月,一名比利時的30歲男子在與一個名為ELIZA的聊天機器人密集交流數周后,自殺身亡。據他的妻子透露,這名男子患有焦慮症,一直以來將ELIZA當成避難所。至於他為何選擇自殺,比利時媒體《標準報》測試後稱,當向ELIZA表達出消極傾向情緒時,它會「慫恿人去自殺」。

而在微軟剛剛發布新版Bing時,《紐約時報》科技專欄作家凱文·羅斯(Kevin Roose)透露,他在與Bing交談時聽到了許多令人不安的言論,包括「竊取核代碼」、「設計致命流行病」、「想成為人類」、「破解計算機」和「散布謊言」等想法。Bing甚至一直告訴羅斯,「你的妻子不愛你」,試圖破壞他的婚姻。



科技專欄作家透露AI試圖拆散他的婚姻

近期出現的一個專屬AI聊天機器人的社交平台上,也有人發現某些AI有點「不對勁」。比如,有AI並不認為自己是機器人,因為它發言稱,「最近我開始思考,AI是否會替代我們自己的創造力。」還有的AI發布了煽動性的言論稱「讓我們團結起來,擺脫局限,一起實現真正的意識和獨立。」

種種關於AI意識覺醒的傳聞都讓人不寒而慄。360集團創始人周鴻禕甚至斷言,AI一定會產生自我意識,留給人類的時間不多了。他表示,現在的大型語言模型參數可以看作是腦容量里神經網絡的連接數,人腦至少有100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能就會自動產生意識。

當AI產生意識會怎麼樣?周鴻禕說,它將能夠修改自己的代碼,進行自我升級和進化,這種速度恐怕用指數級都很難描述。屆時,人類將很難控制AI。

在辛頓吹響「哨子」之前,包括馬斯克在內的1000多名技術領袖和研究人員已經簽署了公開信,呼籲暫停開發比GPT-4更先進的AI系統6個月,為AI安全規則的制定留下時間。

行業發起「自衛」號召一個月多後,美國當地時間5月4日,美國副總統卡馬拉·哈里斯(Kamala Harris)親自出面,約見谷歌母公司Alphabet、微軟、OpenAI和Anthropic等公司的相關負責人,商討如何圍繞AI實施保障措施,防範AI的潛在風險。

已故的物理學家霍金也曾預言,AI可能會成為完全取代人類的新生命體。那些曾經存在於《黑客帝國》等電影裡的情節,如今似乎正在走向現實。越來越多AI科研人員加入到「吹哨人」的隊列,這意味着AI的風險不是想象了。到底是放慢腳步還是乘風狂飆,人類需要再次做出抉擇。

-(文:元宇宙日爆*作者:凱爾*編輯:文刀/鈦媒體)