01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

幻覺即智能:AI落地里順勢與逆勢的分界線

2023092117:33



大模型是有幻覺的,其表現很多樣比如與事實衝突,其成因也很多比如缺相關知識或者對齊錯誤,不清楚的點就更多。但和應用相關的最為關鍵的點還不是這些,而是:看起來幻覺是個短期搞不定的事,即使是OpenAI。這就要求在落地的時候把它當前條件和不變量來思考,一旦把它做前條件和不變量,那就會發現像對人類一樣,幻覺也並不全是壞處。

順勢的和逆勢的

我們把幻覺對產品有幫助還是對產品有害作為縱軸,再加上出問題的責任作橫軸,形成一個簡單的坐標系,然後再把各種人工智能體放在在這個坐標系上面,那大概是下面這樣:



也許對不同人工智能體所處的位置會有爭議,但幾個極值應該問題不大。

對於元宇宙而言本來就是高級遊戲,那人物行為的出格反倒是會激發遊戲敘事的多樣性,成為豐富世界內容的一部分養料;對於問診就很麻煩,如果在既有醫療知識框架外發揮,然後病人病情變嚴重了,那就不單有害,後果還很嚴重。現實空間和問診類似的其實更多,包括客服、稅務諮詢等。

在尋找智能飛輪:從數據枯竭到多模態再到自生成裡面我們提到過除了AlphaGo還沒人轉起來智能飛輪,又因為飛輪一旦轉起來必然會產生特定領域的神靈,所以關心這個人工智能應用的人都關心到底在那裡可能再出下圖這樣的智能飛輪:



這在上面的象限圖上也能找到回答的思路:越偏元宇宙這個方向,越容易些。幻覺可以低責任成本的製造新數據,新數據融入場景,然後反過來就可以作為燃料驅動飛輪。

象限中的位置即定位

在象限中的位置對做AI產品落地是非常關鍵的。

這個位置在相當程度上就決定了你的運營成本乃至於跑的快慢。並且它面對的約束非常剛性,不可改變。

通常的理解里,我們都把產品看成一組特性,用能幹什麼不能幹什麼,用功能性能參數等表述,高級一點就用審美偏好衍生的就是品牌。但其實不全面,更深一層產品也是一套權責利系統的匯聚點。這在C端產品上體現的沒有B端明顯。

在過去很少被提及,因為經濟體系里只有一種智能體:人。整個經濟體系都按照人、法人來確定的權責利。但現在這套體系其實是碰到了新的挑戰,人工智能體的崛起讓這種權責體系出現了裂痕,並且運轉滯澀。

最簡單的例子是過去經常說的自動駕駛,用戶、廠家、自動駕駛服務提供商之間會產生新的複雜權責利再平衡。(原來事故的責任基本是用戶的,誰開誰負責,用了自動駕駛後就不行)

這會非常麻煩,因為人工智能並非權責利的主體,但似乎又得承擔對應的責任。這就導致潛意識的每家公司都嘗試拿技術來對沖,讓某些壞的事好像可以不發生,但其實這和堂吉訶德戰風車差不多,基本不可能。

而和用戶、甲方權責利的再平衡其實是會像指揮棒一樣決定公司有限資源分配的導向性的。(事實上形成特定位置的一般性社會成本)

投入產出不好,還不得不干的情形,豈不尷尬?

這種尷尬的核心原因就是用技術沒辦法完全對衝掉的權責。

對沖不掉的權責

為什麼說技術不可能完全對衝掉權責呢?

這固然是因為技術總是有個成熟過程,但很可能更關鍵的原因在於但數字和智能讓問題顯性化的同時,權責被放大了。

面對可以清楚表示的數字結果時每個客戶都會希望無限制的解決問題,而這種限度在過去是被抑制了的。

我們可以拿客服舉個例子:

當僱傭幾千上百的人做客服的時候,服務自身必然有良率問題。但這個時候大家基本能接受一定的錯誤,每個人都知道人會出錯,再加上客服人員還不好找,大家對這個良率就保持了一定的容忍度。假如客服人員服務不好丟失了一單,那最多辭退對應的客服人員或者扣錢。很難向客服追討造成的損失。

當把客服換成人工智能體後,事情還是那個事情,但權責關係就默默的發生了些變化。

即使人工智能體的良率超過了過往的人工,從甲方的角度看,也還會有足夠的動力向提供人工智能體服務的公司追責。而後面的技術公司就得想盡辦法讓人工智能體不出錯。

這就是用技術對沖權責。

本質是用技術解決近乎無限的領域問題。越到後來越變成搗糨糊,因為搞不定。人工智能這行業從智能音箱的喚醒開始就不停的反覆這故事。

而實際情況是即使是古老的搜索引擎如果要求不出錯比如某類內容出現一次就滅掉,那谷歌、百度這樣的公司都不知道死多少次了。

但這種權責體系的容忍度其實有非常多的成因,有歷史的文化的商業現實的,十分剛性,不太可能改變。而如果它不能改變,那就並不怎麼適合純粹的人工智能體。能想到折中方法就是把人再塞回去,即使這個人什麼不干,只做做樣子,那也是他在履行工作職責,人工智能體服務於他,他對所有產出負責。

這樣一來,選擇和定位就很關鍵,因為權責系統本身就是成本、方向和客戶滿意度(「想都是問題,幹才是答案」是錯誤的,雷軍說也不行干就完了不對的老話題)。在幻覺本就是智能的一部分的前提下,真跑到權責系統非常沉重的領域,那其實是事倍功半的。

基於這個視角,我們還可以再拔高一點,談一點新技術的應用模型。

新技術的應用模型

在探討應用模型的時候我們先回到人類本身。

人類文明的核心子系統:政治經濟文化其實全是先虛後實,實又促虛這麼反覆倒騰來的。回到3百年前那有什麼三權分立、自由民主、社會主義,當然也不會有汽車、高鐵、自行車。

這些在想象和某種邏輯合理性的基礎上,加上另外一波人找到了想象到物理定律、商業遊戲之間的聯繫,然後想象就會照進現實。火車、電、汽車、手機等差不多都是這麼來到了世界上。

然後我們再截取1912年2月12日,溥儀退位這個時間點回溯,看看想象的作用。

今天對我們影響至深的產品很多其實都是1912年以前發明的,產品上包括蒸汽機、汽車、電、青黴素、電話、攝影機、電池等,人物則包括諾貝爾、愛迪生、特斯拉、福特等。這些產品出世後大致是不順的,比如蒸汽的汽車就經常爆炸、愛迪生曾經主力攻擊交流電危險容易電死人,但相對寬容的環境讓這些產品都存續了下來。

想象下如果都是慈禧等認為火車回干擾祖宗風水的觀點,那就不可能會有這種多樣化。大清朝用文字獄等對思想的鉗制其實是有成效的,一定程度上了達成了自身希望的穩定性,但穩定性很好的同時整個系統就效能很差,1912溥儀退位可以看成是這種效能差的結果。

這給我們什麼啟示呢?

新技術在一般性社會成本低的地兒開始更合適。權責系統越寬鬆,試錯成本越低,越有助於新技術驅動的不成熟產品轉起來。

整體一般性社會成本的事很複雜,這裡不展開。(就是怎麼避免在火車出現的時候,堅信它會破壞風水。)

對於創新主體的個人,顯然的要規避複雜權責系統。

因為技術不成熟如果還要用它來對沖複雜權責的風險,那肯定吃力不討好。

回到人工智能更具體一點會是什麼樣呢?

環境本身的寬鬆與否在這個時間點看着也許不關鍵,複雜權責系統也許還更容易形成現金流。但越往後可能會更關鍵。因為潛在智能飛輪會起作用,所以這就真的是1.01的99次方和0.99的99次方的差別。

凱文凱利在科技想要什麼里表達了這樣一個觀點,那怕科技帶來的好處只多餘壞處一點點,那隨着它本身的強大,那影響的結果也是非常顯著的。

對人工智能體也是一樣,這一點點差異到後面可能就是智能飛輪轉不轉的起來的差異。

簡單說就是屬於人工智能自身的應用模型是:要找幻覺有益,權責對沖沒那麼複雜的領域,然後由內而外的成長,而不是揠苗助長。

小結 : 從這個角度看,確實幻覺就是智能,至少是智能飛輪的原動力。

很多時候恰恰是幻覺給了我們一種智能的感覺,徹底的去除幻覺還保持智能,就真的是得達成一種超級單一體(克里人的終極智慧),這是很好的理想,但我覺得如果假設人工智能不可能建成完備的世界模型,那去除這種幻覺就是不可能的,所以與其指望用技術解決這問題,就不如根據技術的進展修正應用模型。-(文:李智勇/鈦媒體)