01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

OpenAI被指控阻止舉報人舉報人工智能風險

2024071415:15

鞭牛士報導,7月14日消息,據彭博社和路透社報導,據路透社看到的一封信顯示,OpenAI 舉報人已向美國證券交易委員會提起訴訟,要求對該人工智能公司涉嫌限制性保密協議進行調查。

參議員查克·格拉斯利的辦公室向路透社提供了這封信,信中寫道:「鑒於不負責任地部署人工智能所帶來的潛在風險有據可查,我們敦促委員們立即批準對 OpenAI 之前的保密協議進行調查,並審查該公司目前正在采取的努力,以確保完全遵守證券交易委員會的規定。」

據信中所述,這家人工智能公司涉嫌讓員工簽署協議,要求他們放棄獲得舉報人賠償的聯邦權利。

舉報人要求美國證券交易委員會對 OpenAI 達成的每項不當協議進行罰款,罰款範圍應在該機構認為適當的範圍內。

SEC 發言人在一封電子郵件聲明中表示,該機構不對是否存在可能的舉報人提交文件發表評論。

OpenAI 尚未立即回應對這封信發表評論的請求。

「人工智能正在迅速而顯著地改變我們所知的技術格局。」參議員格拉斯利說,他的辦公室表示這封信是由舉報人提供的。

他補充說,OpenAI 的政策和做法似乎對舉報人發聲並獲得受保護披露的應有補償的權利產生了寒蟬效應。

《華盛頓郵報》最先報導了這一消息。

舉報人聲稱,OpenAI 向其員工頒發了過於嚴格的就業、遣散和保密協議,這可能會導致向聯邦當局提出有關 OpenAI 擔憂的員工受到處罰。

信中還表示,OpenAI 要求員工如果想向聯邦監管機構披露信息,必須事先獲得公司的同意,並補充說,OpenAI 並沒有在員工不誹謗條款中為向美國證券交易委員會披露證券違規行為設定豁免條款。

該信還要求美國證券交易委員會要求 OpenAI 提供每一份包含保密協議的合同,包括雇傭協議、遣散協議和投資者協議,以供檢查。

OpenAI 的聊天機器人具有生成式人工智能功能,例如進行類似人類的對話和根據文本提示創建圖像,隨著人工智能模型變得強大,引發了安全擔憂。

OpenAI 於 5 月成立了一個安全委員會,由首席執行官 Sam Altman 等董事會成員領導,並開始訓練其下一個人工智能模型。---來源: 鞭牛士-

*消息稱OpenAI在確保產品安全前就匆忙通過測試*

7月14日電,消息人士稱,OpenAI在確保產品安全之前,就匆忙通過了安全測試。 (華盛頓郵報)---來源: 鞭牛士-



* OpenAI神秘項目曝光,遭馬斯克嘲諷*

導讀:雖然大型語言模型已經具備以極快的速度總結長文本提煉摘要、撰寫文章等能力,但目前的大型語言模型使用的技術往往無法解決常識性問題。

當地時間7月12日,特斯拉CEO馬斯克在社交平臺X上嘲諷ChatGPT製造商OpenAI被曝正在開發的一個代號為「草莓」(Strawberry)的項目。

馬斯克寫道:「我們原本以為AI末日是回形針放大器(paper clip maximizer),但沒想到它實際上是永遠的草莓地(Strawberry Field Forever)。」

《永遠的草莓地》是著名搖滾樂隊披頭士創作的一首歌曲。

馬斯克的評論是針對一篇媒體報導,該報導稱,OpenAI正在研究一種新的推理技術,並命名為Strawberry。



OpenAI方面沒有就Strawberry項目公開作出回應,但該公司曾公開表示,「希望AI模型能像人類一樣看待和理解世界」。OpenAI還稱:「持續研究新的AI能力是業內的常見做法,大家都相信這些系統的推理能力會隨著時間的推移而提升。」

OpenAI首席執行官奧爾特曼(Sam Altman)今年早些時候也表示,在人工智能領域,「最重要的進步領域將是推理能力。」

據介紹,擁有高級推理能力的模型系統,將不僅能夠生成查詢答案,而且能夠提前規劃,自主地瀏覽互聯網,進行「深度研究」,並回答當今商業模型無法解決的棘手科學和數學問題。這種推理能力還可能涉及一種在非常大的數據集上進行預訓練後處理AI模型的特殊方法。

雖然大型語言模型已經具備以極快的速度總結長文本提煉摘要、撰寫文章等能力,但目前的大型語言模型使用的技術往往無法解決常識性問題。也就是說,AI還無法以人類的邏輯去理解物理世界。這就會導致當模型遇到一些無法理解的問題時,它經常會「產生幻覺」,提供虛假信息。

推理是AI實現與人類同等甚至超過人類級別智能的關鍵。它能使人工智能能夠提前規劃,反映物理世界如何運作,並可靠地解決具有挑戰性的多步驟問題。這將從重大科學發現到規劃和構建新的軟件應用程序等方方面面提升人工智能的整體水平。

除了OpenAI,包括谷歌、Meta和微軟在內的科技巨頭以及專註人工智能研究的學術實驗室,都在嘗試不同的技術來提高人工智能模型的推理能力。

Meta的人工智能負責人楊立昆(Yann LeCun)經常稱,大型語言模型不具備像人類一樣的推理能力。他的經典名言是「人工智能可能還不如你家的貓聰明」。他認為,人工智能要「進化」到人類智能的水平之前,可能還需要經歷很多年「貓狗水平」的智能,並預測,當前的人工智能系統距離達到某種人類的感知能力還需要幾十年的時間。

專家表示,在人工智能模型實現通用人工智能(AGI)之前,必須先建立類人的推理能力,所謂的通用人工智能指的是,系統可以像人類一樣或更出色地執行大多數任務。

目前業內針對AGI的實現方式主要有兩種路徑的觀點:一種是通過構建更大、更復雜的人工智能模型來改進推理;另一種是使用新的「世界模型」,讓模型從物理世界的環境中獲取視覺信息來開發邏輯,這就好比復製嬰兒如何學習。

美國斯坦福大學著名計算機科學家李飛飛正在研究「空間智能」相關領域,希望利用類人視覺數據處理技術,使人工智能能夠進行高級推理,她認為這將是該技術的一次飛躍。---[微信編輯: 七三/作者: 第一財經 錢童心/第一財經資訊]