01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

OpenAI擬將ChatGPT軍用?與五角大樓合作軍事禁令解除,谷歌前CEO:AI會變成核彈

2024012217:21


【新智元導讀】AI有像核彈一樣的威力嗎?OpenAI近日更改了自身和軍方合作的政策,AI武器化要來了?

AI武器化?



自大語言模型誕生以來,人們對其可能帶來的影響的討論就沒停過。不過,更多人還是從普通人的視角出發,從LLM能對人們的日常工作生活帶來哪些變化來思考的問題。

然而從稍微宏觀一點的視角,我們就會發現LLM以及AI可能對整個社會甚至國家帶來一些改變。

而具體如何,還是得看手握權力的大佬們決定如何去用,和普通人關系並不大了。

就在最近,世界上的LLM先驅,ChatGPT的老家,OpenAI悄悄修改了他們有關AI武器化的政策措辭。

幾字之差?

在討論這個問題之前,我們先來看看OpenAI最近一次有關這個問題在表態上的變化是什麽樣的。

之前,OpenAI的用詞是:禁止將其大型語言模型用于任何軍事或戰爭相關的應用。

英文原文如下:Ban on using its large language models for any military or warfare-related applications.

現在的說法是:OpenAI products can’t be used to “harm yourself or others,” including through weapons development.

翻譯過來就是,OpenAI的産品不可以用來傷害自己或他人,包括通過武器的研發造成的傷害。



細心的讀者應該已經捕捉到了細微區別,前者把重點放在了對軍用、戰爭使用的禁止,而後者放在了傷害上。

換句話說,只要不造成傷害,那麽所謂的軍用就是可以的。

實際上,這項政策上的變化並沒有被大多數人關注到,然而從重要性來講,這個變動完全不可忽視。

這意味著,OpenAI的模型開發人員可以進軍利潤豐厚的國防科技市場,軍方也可以把模型拿過來爲己所用。

而這裏就可以創意十足了。

軍方能用模型來幹什麽,不是咱普通人能想全面的。也許可以幫助分析人員解讀一些參數數據,編寫一些相關的軟件代碼什麽的。當然,我們想不到的用途還會有很多。

要知道,美國國防部在去年8月10日曾經成立過一個特別工作組,專門討論的就是生成式人工智能的各種花式用例。以及這項技術和別的技術有什麽結合的辦法。

該工作組叫做Task Force Lima,由美國國防部副部長Kathleen Hicks,通過國防部首席數字與人工智能辦公室成立。



該工作組的宗旨就一句話,「開發、評估、推薦和監控整個國防部的生成式人工智能能力的實施情況,以確保國防部做好采用生成式人工智能技術的准備,並針對生成式人工智能技術提供適當的保護。」

聽起來並不複雜,但美國一直就在生成式AI的路上沖在了前線。

Lima工作組的指揮官是海軍上尉Manuel Xavier Lugo,他在接受采訪時曾表示,國防部幾十年來一直在研究和開發AI系統。而生成式AI又和傳統的AI系統有所不同,他們風靡和席卷的速度非常之快。

據悉,截止到去年,Lima工作組就已經收到了160多個生成式AI的用例,不可謂效率不高。

不過,作爲旁觀者擔心的還是,即便是按照OpenAI的新說法,「不傷害」,也可能會有不小的風險。

首當其沖的就是2023年的年度熱詞之一,「幻覺」。

試想一下,如果AI在與戰爭有關的高風險應用中産生了「幻覺」,這個後果沒人可以承擔,哪怕並未直接傷害,也一定會造成間接的各類損失。

Project Haven

其實在領導層,一直以來也有大量有關科技公司該如何和軍方合作的討論。

早在2018年,4000多名谷歌員工就曾簽署了一封抗議信,抗議該公司參與一個名叫Project Maven的項目。

簡單來說,這是一個利用人工智能來處理無人機視頻和圖像並探測潛在目標的軍事項目。



當時有了解到項目內容的員工集體選擇了辭職,並且在采訪中和人提到,「不推薦任何人來谷歌」。

參加請願的員工在信中寫道,「我們不能將我們技術的道德責任外包給第三方。」

這封請願書還得到了國際機器人軍備控制委員會(ICRAC)的支持。

而且,人們對這些離職抗議,還有簽署請願書的員工致以了敬意。

還有不少人在當時發推表示,「謝謝你谷歌。AI武器的危險絕對無法預料。」



後來,谷歌就禁止了之後再將其AI技術用于武器制造或是監控的應用。但是,用于網絡安全以及搜救相關的軍事應用還是可以的。

也正因如此,谷歌的業務才又開始涉足國防科技領域。比如,谷歌曾向美國空軍提供過雲計算服務,用于飛機的維護,以及飛行員培訓。

谷歌還曾向美國海軍提供過相關服務,用AI來檢測船只的腐蝕情況。

有了谷歌的前車之鑒,說不定OpenAI能在此兩者之間找到一個中間地帶,求得平衡。既應用了最新科技,又能保證不造成任何直接或間接的傷害。

OpenAI本周二曾表示,該公司正在與五角大樓合作開展軟件項目,其中包括與網絡安全有關的項目。要知道,這與OpenAI之前禁止向軍方提供人工智能技術的做法大相徑庭。

該公司負責全球事務的副總裁Anna Makanju在世界經濟論壇上表示,ChatGPT的創造者也在與美國政府討論開發減少退伍軍人自殺的工具,但她補充說,該公司將保留不准許進行開發武器的禁令。

一直以來,矽谷的科技巨頭們和美國軍方之間的關系都比較難以捉摸。OpenAI此次的措辭改變,證明了在立場問題上科技巨頭們可能出現了軟化。

上述提到的谷歌員工聯名反對AI軍用,也許是科技公司反抗政府的巅峰之作。在之後,谷歌和軍方的合作至少給他們掙了5億美元。

AI=核彈?

谷歌前首席執行官Eric Schmidt現在是國防工業的知名人士,他做了一個非常大膽的比喻:他將人工智能的到來比作核武器的出現。



他表示,「我認爲AI驅動的自主性,以及去中心化的分布式系統就是如此強大,足以産生和核武器一樣的作用。」

當然,他也提到了幻覺的問題。

雖說OpenAI的新措辭還是給自己留了不少後路,排除了用AI開發武器的可能,但是分析數據或者寫代碼這種用途也難說會怎麽樣。

也許,分析和利用數據這件事,在國防層面可能和戰爭相關的那些東西並沒有那麽明確的界限劃分。

畢竟,安全問題無論何時都應該是我們心中的第一要務。---[新智元報導*編輯 : 拉燕/來源: 新智元 ]

參考資料:

https://www.semafor.com/article/01/16/2024/openai-is-working-with-the-pentagon-on-cybersecurity-projects

https://www.theinformation.com/articles/chatgpt-coming-to-an-army-near-you