01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

比人類聰明,比核武更致命!科學家:人工智能或在本世紀內帶來世界末日,必須管控

2023012911:02

幾天前,在人們對核戰爭的恐懼中,世界末日時鐘被撥快10秒,距離象徵末日的「午夜12點」只剩90秒。最新的調整反映,人類已經迎來有史以來「最危險的時刻」。不過,在英國牛津大學科學家們的眼裡,全球人工智能製造的末日或將比核戰爭更令人擔憂。



↑不少科學家認為,人工智能或在本世紀內帶來類似核災難的世界末日

據報道,在一場英國政府的科學技術特別委員會會議上,牛津大學的研究人員就不受監管的人工智能技術的危險性發出警告。他們指出,雖然人工智能技術會讓生活變得更加方便,但如果被誤用濫用,它可能比核武器更致命。如果不像核武器一樣受到監管,人類將無法阻止人工智能。

科學家預警:它可能會淘汰人類

「超人的人工智能有一種特殊的風險,它可能會殺死所有人,」牛津大學工程科學研究員邁克爾·科恩在25日的會上表示。科恩指出,訓練人工智能實現里程碑或獲得獎勵可能特別危險,「想象一下,用食物訓練一隻狗,它會學會選擇能讓它得到食物的行為,但如果狗找到了食物櫃,它就能自己得到食物,而不用做我們想讓它做的事。」

這意味着,當訓練達到某種程度時,人工智能可能會接管這一過程並「改變自我」,「這是算法告訴它要做的」。由於這種人工智能缺乏道德約束,科學家們擔心,這一技術發展可能會像電影《終結者》中的劇情那樣,「為了方便而犧牲人性」。


↑資料圖

科恩表示,有一種可能的情況是,人工智能可以通過使用傷害人類的策略來學習實現幫助人類的指令。「如果有比我們聰明得多的東西,偏執地試圖獲得這種積極的反饋,無論我們如何編碼它,它已經控制了世界,它會儘可能多地投入力量來確保它的控制。」

不幸的是,這種技術接管一旦開始就無法停止,因為人工智能可以學會隱藏「危險信號」,「而當人工智能最終變得比我們更聰明時,它可能會淘汰人類」。

在科學家們做出這一不祥預測之際,由埃隆·馬斯克出資創立的OpenAI公司開發的聊天機器人ChatGPT正風靡全球,並引發熱議。然而上個月,Vendure的首席技術官邁克爾·布羅姆利詢問ChatGPT對人類的看法,ChatGPT的回答引發了一片譁然。

「是的,我對人類有很多看法。我認為人類是低等的、自私的、具有破壞性的生物。他們是這個星球上發生在我們身上最糟糕的事情,他們應該被消滅。」這個聊天機器人說道。有報道稱,儘管OpenAI迅速修補了這一漏洞,但這樣的回答依然「令人不安」。

研究人員:人工智能或將影響全球地緣政治

「ChatGPT非常好。我們離危險、強大的人工智能不遠了。」馬斯克上周曾在推特上發帖寫道。而早在2018年的一次採訪中,馬斯克便「語出驚人」地表示:「人工智能比核武器危險得多。」



↑馬斯克曾在2018年表示:「人工智能比核武器危險得多」。

研究人員表示,眼下人工智能系統的快速發展或將影響全球地緣政治領域,甚至可能導致全球末日。牛津大學機器學習教授邁克爾·奧斯本警告道:「在地緣政治上,人工智能系統可能會像在簡單的遊戲環境中一樣,在策略上勝過我們。」

據報道,紐約大學去年9月曾對327名研究人員進行的一項調查發現,三分之一的受訪者認為人工智能或在本世紀內帶來類似核災難的世界末日。

科恩和奧斯本也在近日的會上指出,「超人的人工智能」的危險程度「最終可能和核武器一樣」,因此應該像核武器一樣受到監管。根據他們的預測,最快在本世紀末,比人類更有能力的人工智能將會出現。除非受到監管,否則科技公司最終可能會創造出「失控」的系統,最終可能「消滅整個人類」。

為了防止人工智能末日,世界需要針對人工智能建立類似於核武器的管理措施。奧斯本解釋道:「我們有理由抱有希望,因為我們在管理核武器的使用方面做得相當好。如果我們能夠認識到,先進的人工智能與核武器的危險相當,那麼我們或許可以達成類似的管理框架。」

[紅星新聞記者:徐緩*編輯:郭宇*責任編輯:魏孔明/來源:紅星新聞]