01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

快拔掉AI的插頭,否則……人體

2023122714:18


你對著老師布置的作文題犯難,不知如何下筆,你問一個朋友:“能幫我以《我最敬愛的人》爲題寫一篇作文嗎?”它立刻洋洋灑灑地寫出了一篇;它還能爲你解答數學問題;你對它傾訴煩惱,它也能用文字安慰你……



它就是目前最火爆的人工智能(AI)聊天機器人——ChatGPT,能模仿人類說話。但就在它功能越來越強大時,科學家們卻突然叫停了對它的研究……

*會說人話的AI

ChatGPT是一個擅長 “說人話”的AI,也許你覺得說話沒什麽大不了的,每個小朋友都能說,但對于電腦而言,這可不是一件簡單的事情。例如,媽媽問你:“你覺得這麽做對嗎?”她可能在責問你做錯的事。你弟弟也可能問出一模一樣的問題,卻是在請教你數學題。同樣的語言可以表達完全不同的意思,電腦難以分辨其中的區別。



ChatGPT卻能聯系上下文,從中理解你的意圖,予以合理、流暢的回應,還能回答無厘頭的問題:“一本書減去一只筆等于多少? ”它會說:“我不清楚書和筆之間的關系,因此無法提供正確答案。”你緊接著對它說:“一本書18元,一只筆4元。”它就會回答“14。”

* 將AI封印6個月

ChatGPT的語言能力令世界驚歎,但它還在飛速成長,一代又一代地升級。就在人們期待升級版ChatGPT更強的功能時,世界頂級科技巨頭和一衆研究人員卻呼籲:所有實驗室在6個月內停止訓練更強大的AI系統,同時制定相關規則。他們擔心高級AI會威脅到人類。



科技從來都是雙刃劍,但AI這把劍不僅法力無邊,而且難以捉摸,使人不免害怕。

*如何訓練AI說話?

ChatGPT從海量信息中學習人的喜好,對人的回答進行模仿。最初由人類對其回答進行評分,它則根據問題、答案、人類評分不斷精進自己的回答,並訓練出了自己的評分模型,即自己對自己的回答進行評分,再根據評分調整回答策略,相當于有了自學能力。



通過循環提問-回答-評分-調整的過程,ChatGPT能快速獲得和人類相似、甚至比許多人更好的語言能力。

* AI會說謊

ChatGPT可能虛構答案或事件。

有人問ChatGPT:“床明月光的作者是誰?”這與李白的《靜夜思》中的“床前明月光”就差了一個字。ChatGPT居然回答道:“《明月光》這首詩的作者是唐代詩人白居易。”它從問題中得出了另一首詩的名字,張冠李戴給了另一位詩人。



它還會根據人的要求寫出逼真的假新聞和郵件內容,人們難以查證,容易受騙。

ChatGPT通過龐大的數據進行學習,這些數據中不乏謠言、偏見和過時的信息,這是它的回答走偏的一個原因。

* 難以識破的作弊工具

有學生用ChatGPT寫作文,而且是大學論文,還得到老師的贊賞,當老師得知這篇文章其實是ChatGPT寫的,可以想象他有多麽震驚。文章抄襲或代筆是很嚴重的錯誤,如同作弊,是學校不能容忍的,但ChatGPT語言流暢,而且可以寫出與他人不重複的語句,讓老師無法判斷這究竟是學生自己寫的還是AI寫的。



爲了防止學生過度依賴AI,老師們只好出招破解,例如,建議學生提交作業時提供一段短視頻,在視頻中重述自己作業的思路,以此保證學生真的學進去了。

* AI可能替代人類法官?

人被機器或技術取代的案例在歷史上曾多次上演,之前是簡單重複的工作被機器取代,如流水線工人的工作,而現在的ChatGPT展示了AI承擔超強專業性工作的可能性。它學習效率高,就像考試大神。



一些人類要學習若干年才能通過的職業或科目考試,它都能取得不錯的成績,甚至能在一些考試中名列前茅。未來AI或許可以成爲作家、畫家、會計、律師、醫生、程序員,甚至法官和政府官員。因此,很多人擔心自己賴以爲生的工作被AI搶走。

* 爲了拯救人類而殺死人類

許多人擔心AI會傷害人類。

科幻電影《我,機器人》中,AI執行著“保護人類的整體利益不受傷害”的命令。當它發現人類常常會發動戰爭、破壞地球生態,爲了保護全人類的未來,便決定殺死一部分人類。這種策略當然是人類無法容忍的。



AI殺人事件曾真實發生過。2012年,德國一名司機駕駛汽車時突發疾病,在失去意識之前,他握緊方向盤急轉,試圖讓汽車在失控前,于路旁的灌木叢中停下。但車上的車道保持輔助系統認爲司機這項操作很危險,又讓車行駛回了馬路上,結果撞死兩人、撞傷一人。這是自動系統給人類造成傷害的首個案例。

在上面的事件中,AI只是在執行命令,但它執行命令的方式傷害了人類,因爲它的設置還沒囊括所有人類希望顧及的細節,悲劇就發生了。而人類社會、道德和情感太過龐雜,許多道德法規連人類自己還在爭論不休呢,如何給AI設置清楚!

* 我們是否還需要學習?

既然AI這麽厲害,我們每天背書、做題,即使不分晝夜,也趕不上AI分毫,那麽,學習的意義在哪呢?AI是由人創造的,它的算法是人類設計的,其運用的知識也都來自于人類的研究成果,如果沒有人學習和探究,AI也只會停滯不前。何況,地球、宇宙和生命還有無盡的謎團等著人類探索。



其次,再先進的AI也可能出錯。我們在使用電子地圖時,就常遇到被帶入錯路的情況,因此,人不能放棄思考,任由AI決定我們的走向。

針對被替代的職業,正如過去工作崗位被取代之後,總會誕生很多新職業,如程序員、整形師、主播等,只要創造力在,人類總會開辟出新的職業。

* AI反客爲主

更可怕的是,當AI持續進化,可能會成爲擁有自主意識、能獨立思考的強人工智能。到那時,AI或許不再甘心任人擺布,而是要做自己想做的事,也不會受制于人類道德,幹出各種傷天害理的事,甚至取代、滅絕人類。



科幻電影《終結者》講述了未來人類研發了名爲天網的AI,其逐漸産生思想,對人類開戰,讓30億人喪生。幸存的人類在指揮官的領導下艱苦反擊,終于反敗爲勝。不甘心的天網又派出機器人穿越時空,想在指揮官出生之前殺死他的母親,從而改變未來。

當然,強人工智能出現時,人類也不可能坐以待斃,也許一批人類技術高手會利用電腦病毒或其他手段與AI對抗。

* 人類動物園

不過,強人工智能也可能會有意保留人類,視之爲地球上獨特的物種,用來飼養、觀察和研究。科幻短片《逃出牢籠》講述了在人類瀕臨滅絕的未來,地球由AI控制。



男主角被AI圈養在一個房間裏,不需要學習,不需要工作,衣食無憂,可以盡情娛樂,只是要像動物園裏的動物一樣供AI參觀。當來自外界的人類女孩試圖讓他逃離時,他一開始回答:“在這裏很開心。”最後,他還是被女孩打動,向往人與人之間的情誼,逃出了AI的牢籠。

* 暫時拔掉AI的插頭

許多研究者急于開發更強的AI産品,使AI的發展勢頭迅猛得讓人害怕,一旦它變成強人工智能,人類再采取行動恐怕已經來不及了。



雖然現在的AI還處于遵照程序指令工作的弱人工智能階段,但ChatGPT已經會編造逼真的假消息,也被很多人濫用,眼看著它快速成長的同時漸漸失控,科技巨頭和研究人員這才想叫停AI,讓大家的技術狂熱冷靜下來,三思而後行。

*“躺平”還是“出逃”

雖然強人工智能還沒有出現,但類似科幻短片中的牢籠已經出現了。許多人沈浸在科技帶來的便利和歡娛中,即使是等紅燈的幾十秒時間,也需要手機來度過;許多人只要進入遊戲或短視頻平台,就會沈迷好幾個小時,迫不得已才會下線。



探索、學習或創造活動的時間被電子娛樂擠占,進行這些活動所需的好奇心、毅力、創造力等人類特質也在相應地減弱,然而,人類能發展到今天,依靠的就是這些特質。



無論是AI還是手機、電腦,總歸都是人類發明的工具,應該是人類掌控它們,而非被它們掌控。

你會選擇在科技牢籠中徹底“躺平”,還是和人類同胞一起逃出牢籠,自主體驗人生、探索世界呢?---(來源: 大科技雜志社)-