01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

微軟OpenAI決裂/Stability AI倒閉,新架構終結Transformer?福布斯2024年AI十大終極預測

2023122917:06


【新智元導讀】近日,福布斯發布了2024年的10大AI預測,Stability AI將會倒閉?微軟和OpenAI也將分道揚镳?

展望2024,AI領域會有哪些發展和變化?

據說Stability AI將會倒閉?而「情同父子」的微軟和OpenAI將會出現裂痕?

還有新的職位——Chief AI Officer即將出現?

另外,2024會不會出現足以取代Transformer的新架構呢?

最近,福布斯發布了2024年的10大AI預測。

* 英偉達將成爲雲服務商

雖然全球都在進行爭奪GPU的戰爭,但大多數組織並不會直接向英偉達購買GPU,而是會選擇雲服務。

他們通過亞馬遜、微軟或者谷歌的雲平台訪問GPU,而這些大型雲服務廠商又從英偉達批量購買芯片。

但這個關系將會變得複雜,因爲所有人都認識到了GPU的價值,所有的雲供應商都在大力開發自己的AI芯片。



這也意味著亞馬遜、微軟和谷歌等,將從英偉達最大的客戶轉變爲競爭對手。

相應的,英偉達也將朝著相反的方向發展:開始提供自己的雲服務,運營自己的數據中心,以減少對雲公司分銷的依賴。

今年早些時候,英偉達推出了名爲DGX Cloud的新雲服務。而在2024.我們將會看到更多類似的舉措。

* Stability AI將會倒閉

作爲曾經高歌猛進的初創公司,Stability AI幾乎已經成爲了緩慢移動的火車殘骸。

首先是人才的流失:最近幾個月離職的包括首席運營官、首席人事官、工程副總裁、産品副總裁、應用機器學習副總裁、通信副總裁、研究主管、音頻主管和總法律顧問。

其次,去年領導Stability AI 1億美元融資的兩家公司Coatue和Lightspeed,最近幾個月都因與Stability AI首席執行官Emad Mostaque發生糾紛,而退出了公司董事會。



今年早些時候,Stability AI試圖以40億美元的估值籌集額外資金,但失敗了。

雖然最近獲得了英特爾投資的5000萬美元,但 Stability 的燒錢率是出了名的高。據報道,在10月份英特爾投資時,Stability AI每月花費800萬美元(同時收入很少)。按照這個速度,這5000萬美元也撐不了多久。

據報道,在投資者的壓力下,Stability AI已開始尋找收購者。

* LLM這個詞將會越來越少見

目前的生成式AI大模型基本都是純文本模型,所以大語言模型(LLM)用來指代幾乎所有的高級人工智能模型。

但隨著人工智能模型類型的激增,以及人工智能變得越來越多模態,這個術語將變得越來越不精確。

多模態人工智能的出現是2023年人工智能的決定性主題之一。當今許多領先的生成式AI模型都包含文本、圖像、3D、音頻、視頻、音樂、物理動作等。它們不僅僅是語言模型。

比如在機器人技術中使用的基礎模型:將視覺和語言輸入與一般互聯網規模的知識相結合,以便在現實世界中采取行動(控制機械臂)。



對于此類模型,應該使用比「語言模型」更豐富的術語來形容,比如「視覺-語言-行動」(VLA)模型。

DeepMind最近發布的FunSearch模型也類似,雖然作者自己將其稱爲LLM,但它處理的是數學而不是自然語言。

2024年,隨著模型變得越來越多維,我們用來描述它們的術語也將變得越來越多維。

* 閉源模型將繼續保持領先

開源閉源之爭,是當今AI領域的一個重要話題。

OpenAI、Google DeepMind、Anthropic、Cohere等選擇了閉源,而Meta和最近的新秀Mistral等少數公司選擇了開源。

如今,表現最好的基礎模型是閉源的(比如GPT-4)。但許多開源倡導者認爲,封閉模型和開放模型之間的性能差距正在縮小,開放模型有望在性能上超過封閉模型,比如下圖中的預測:



但福布斯的預測認爲,在2024年及以後,對比表現最好的模型,閉源模型將繼續優于開源。

基礎模型性能的發展是非常迅速的。盡管Mistral表示,自己將在2024年的某個時候開源一個GPT-4級別的模型,但相比于2023年初發布的GPT-4,已經落後了一年多。

而在2024年,我們也許能看到GPT-4.5甚至GPT-5。

開發一種先進的新模型所需的投資是巨大的,並且會隨著模型能力的每一次階躍式增長而繼續膨脹。據估計,OpenAI將花費約20億美元來開發GPT-5。

相比之下,Llama 2的建造成本約爲2000萬美元,考慮到戰略利益,即使沒有任何相關的收入增長,這種投資水平對于Meta來說也是合理的。

但Meta作爲一家上市公司,最終要對股東負責。它真的會投入近20億美元來構建一個性能最優的AI模型,然後只是爲了開源,而不期望獲得具體的投資回報嗎?

也許,隨著像Mistral這樣的公司,投入越來越多的資金來構建更強大的AI模型,他們最終可能會放松對開源的立場,並保留自己最先進的模型用來盈利。

* Chief AI Officer

今年,人工智能已成爲財富500強公司的優先事項,各行各業的董事會和管理團隊,都想盡快弄清楚AI對于自己的業務有什麽影響。

所以福布斯預計,明年的大型企業將任命一名「首席人工智能官」(Chief AI Officer)來領導公司的人工智能計劃。



十年前,在云計算興起之時,許多組織聘請了「首席云官」來幫助他們了解云的戰略意義。

任命Chief AI Officer(小編不知道這個怎麽縮寫)將成爲一種流行趨勢,用來表明公司對待人工智能的態度。

至于從長遠來看,這個Chief AI Officer到底有多大作用,那就是另外的問題了

* 替代Transformer的全新架構

谷歌在2017年提出的Transformer主導了當今的AI大模型,ChatGPT、Midjourney、GitHub Copilot等都是基于Transformer構建的。

但是,沒有任何技術可以永遠占據主導地位。

研究人員一直在努力開發下一代人工智能架構,比如斯坦福大學實驗室提出的新架構。相比于Transformer,新架構的計算密集度更低,並且能夠更好地處理長序列。

迄今爲止最有前途的架構是Mamba。上個月,介紹Mamba的文章在AI研究界引起了巨大的轟動,甚至有人稱它爲「Transformer的終結」。



另外,麻省理工學院開發的液體神經網絡(liquid neural networks)等新架構也對Transformer提出了挑戰。

明年,也許會有挑戰者真正脫穎而出,並被應用到生産中。

* 對于投資的監管

今年,一波資金從大型科技公司流向人工智能初創公司。

微軟在1月份向OpenAI 投資了100億美元,然後在6月份領投了Inflection的13億美元融資。

今年秋天,亞馬遜宣布將向Anthropic投資40億美元。Alphabet也不甘示弱,幾周後宣布將向Anthropic投資20億美元。



與此同時,英偉達向數十家使用其GPU的人工智能初創公司投入資金,包括Cohere、Inflection、Hugging Face、Mistral、CoreWeave、Inceptive、AI21 Labs和Imbue。

此類投資可能涉及會計規則中的一個灰色地帶。

假設一家云供應商向一家人工智能初創企業投資1億美元,並保證該初創企業會將這1億美元用于雲供應商的服務。從概念上講,這對雲供應商來說並不是真正的正常收入,實際上,供應商是在利用投資將自己資産負債表上的現金人爲地轉化爲收入。

這種交易通常被稱爲「往返」(round-tripping),因爲錢出去了又回來了。

到目前爲止,這種交易幾乎沒有受到監管審查,但在2024年就不一定了。

* 微軟OpenAI或將「決裂」

迄今爲止,微軟已向OpenAI投入了超過100億美元,兩家正值蜜月。

OpenAI的模型爲微軟的關鍵産品提供支持,比如Bing,GitHub Copilot和Office 365 Copilot。

然而,微軟和OpenAI是截然不同的組織,有著不同的願景。

隨著OpenAI尋求積極擴大其企業業務,它將越來越頻繁地與微軟直接競爭客戶。而微軟也在實現多元化,成爲頂尖AI模型的供應商。



微軟最近宣布與OpenAI競爭對手Cohere合作;面對大規模運行OpenAI模型的高昂成本,微軟還投資研究了Phi-2等較小的語言模型。

從更大的角度來看,隨著人工智能變得越來越強大,有關人工智能安全、風險、監管和公共問責制的重要問題將成爲焦點。

鑒于不同的文化、價值觀和曆史,這兩個組織在處理這些問題的理念和方法上將不可避免地會出現分歧。

* 人工智能炒作轉向其他方向

雖然風險投資家和技術領導者都被AI深深吸引,但一年是很長的時間,風險投資人的「信念」可以非常迅速地改變。

比如加密貨幣,新的炒作可能正在醞釀。

* 人工智能與版權

如今,整個生成式人工智能領域都面臨著一個重大且被低估的法律風險:大語言模型已經在大量受版權保護的內容上進行了訓練。

無論是來自GPT-4或Claude 2的詩歌,來自DALL-E 3或Midjourney的圖像,還是來自Pika或Runway的視頻,生成式AI模型都能夠産生令人歎爲觀止的複雜輸出,因爲它們經過了大量數據的訓練。

在大多數情況下,人工智能公司免費從互聯網上獲取這些數據,並隨意使用來開發他們的模型。

但是,這些數據的原作者們對此有發言權嗎?他們是否有權從中獲得一部分收益?

這些問題的答案取決于法院對「合理使用」(Fair use)這一關鍵法律概念的解釋。

將合理使用原則應用于生成式人工智能將是一項複雜的工作,但大量的訴訟已經到來。---[新智元報導*編輯:alan/來源: 新智元]

參考資料:https://www.forbes.com/sites/robtoews/2023/12/21/10-ai-predictions-for-2024/?sh=7295b6f54898