01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

沒有廣告的AI搜索來了!百度們危險了?

2024030815:27

聊起搜索,谷歌、微軟、百度都是繞不開的存在,它們占據了全球搜索引擎市場絕大多數的市場份額,其中谷歌更是一直占據著全球90%以上的搜索引擎市場,截至2023年12月31日,谷歌搜索引擎用戶數達23.6億,規模相當龐大。

AI大模型的到來,打破了這一僵局。生成式AI的流行,令諸多AIGC內容在互聯網上流傳,其中有用戶即興創作的圖文影音內容,也有被用作引流的低質內容和內容農場(一種用大量標題、關鍵詞以及其他伎倆誘騙互聯網用戶進去看廣告的“新聞網站”。)等垃圾信息,這對搜索引擎的搜索排名産生了不少的壓力,如何使用戶能夠看到更多“有用信息”成了谷歌、百度們的頭號難題。

圖源:谷歌

AIGC內容爆炸,搜索引擎共迎頭號大敵

爲了應對AIGC內容這一“頭號大敵”,Google宣布將對搜索算法進行調整,重點打擊AI自動化生成的“內容農場”,預計經過新算法過濾,垃圾內容和非原創內容的搜索結果將減少40%。

過去一年,谷歌搜索中心針對AI生成內容下了不少功夫,其中最主要的是限制用戶使用AI自動化生式內容的尺度以及操控搜索結果排名。但算法並不是萬能的,部分用戶爲了盈利運用ChatGPT等對話式AI生成大量未經人工審核的內容,然後發布網上,最終這些內容因關鍵詞等因素又會被搜索引擎重新呈現到用戶面前。

譬如說,近期OpenAI與馬斯克的罵戰再起波瀾,有心之人就會趁此利用生成式AI創造無數的新聞消息,這些內容未必經過人工複檢,導致的結果就是同樣信息源産生了無數種結論,這些結論有真有假,幾乎無人能分辨。突如其來的海量信息,即便是搜索引擎巨頭谷歌也難以招架。

“真實可靠”是用戶對搜索引擎最核心的訴求,也正因這點,ChatGPT等對話式AI才無法代替現有的搜索引擎。面對“AI瘋狂汙染互聯網”的局面,如何保障用戶看到“真實可靠”的搜索結果,搜索引擎們選擇“用魔法打敗魔法”。

AI搜索大爆發,百度們的生意危險了?

AI+搜索引擎的組合早已不是什麽新鮮事,海外搜索AI化的趨勢尤爲明顯。去年,谷歌在I/O 2023大會上宣布搜索生成體驗SGE,它直接改變了谷歌搜索的底層邏輯,直接提供問題的回答摘要、顯示來源文章的卡片以及提出後續問題的按鈕;而整合了GPT-4模型的微軟New Bing更像是一位智能化的AI助手,在交互方式和搜索能力方面有了明顯提升。

國內搜索引擎市場上,百度作爲常年占據國內市場份額頭名的搜索引擎,在推出文心一言大模型後不久,就將旗下傳統搜索引擎升級爲了AI互動式搜索引擎;昆侖萬維的天工AI搜索、360集團的360AI搜索等AI搜索産品也相繼湧現。



圖源:文心一言

除了老牌搜索引擎們外,無數新玩家也爭相進場。今日頭條、抖音、小紅書、B站、淘寶結合自身平台的特性,推出了“AI搜”、“豆包AI”、“淘寶問問”等一系列AI搜索功能,幫助用戶更好的搜索站內/外內容。

尤其值得一提的是,國外出現了大模型驅動的新一代AI搜索引擎,如Perplexity.ai、You.com,它們甚至可以采取“付費模式”讓用戶心甘情願付費搜索。在中國也有類似的新一代搜索創業者,小雷在搜集資料時就發現了一款極具代表性的AI搜索引擎秘塔AI搜索,主頁“沒有廣告,直達結果”的slogan直戳核心痛點,相比起傳統搜索引擎能提供更直接的答案。


圖源:秘塔AI搜索

傳統搜索引擎在收到用戶請求後會分析搜索需求,再到索引(簡單地說是事前通過爬蟲建立的,雖然操作上複雜得多)去匹配答案。而秘塔AI搜索在收到用戶的搜索需求後它會進行“問題分析-全網搜索-整理答案”,再呈現。跟ChatGPT、文心一言在工作時基于已學習的內容(可能是過時的)不同的是,它的內容更“實時”,因爲來自“全網搜索”。

在整合信息形成觀點的同時,秘塔AI搜索還順帶給出每個觀點的信息來源以及相關聯信息。甚至還給出了觀點以外的延伸閱讀,用戶只用點擊卡片即可實現跳轉,十分絲滑。並且不同于傳統搜索呈現的結果,秘塔AI搜索給出的回答更像人類之間的交流習慣,能更好的幫助用戶理解回答。


圖源:秘塔AI搜索

在産品形式上,AI搜索最重要的一點升級在于:用戶終于不用在滿屏廣告中尋找答案了。在過去,搜索引擎的排名靠前的回答往往被各種廣告占據,十分影響使用體驗。AI搜索0廣告的特點確實非常吸引我。

不過雷科技測試發現,秘塔AI搜索的答案總有許多錯誤,比如雷科技2024年才上線,而不是2011年,以及還有許多其他事實錯誤。原因也不難理解,它只會搜索全網信息,但不知道甄別真假、判斷對錯,截至目前這些工作要人才能做,這也是我們爲什麽要“滿屏找正確答案”的原因所在。

還有,“沒有廣告”也讓小雷對AI搜索的商業模式産生疑問,像Perplexity.ai一樣要用戶付費在中國市場很難行得通。


圖源:秘塔AI搜索

可能是因爲還在內測的緣故,小雷並沒有發現秘塔AI搜索的收費內容,唯一可能在未來形成盈利點的是回答分級,通過更具深度的回答吸引用戶付費,或者像知乎答案一樣展示部分內容,用戶要看全文?請買會員或掏錢。相信這也是未來衆多AI搜索引擎的趨勢。

一番體驗下來,相比起受制于商業模式的傳統搜索引擎,AI搜索在內容質量和交互方式上有著天然優勢。搜索引擎難以解決的廣告、AIGC內容農場以及隱私泄露等問題,在AI搜索這裏得到了改善。

但AI搜索想要改變傳統搜索行業遠沒有那麽簡單。

AI搜索普及需時間,百度們正加速自我革命

建立搜索引擎很難,但更難的是如何讓用戶接受它。

在搜索引擎市場幾乎牢不可破的格局下,想要令更多人習慣使用AI搜索,是相當困難的事情。即使是熱度超高的New Bing,其百萬級別的日活躍用戶數在Bing全球日活躍用戶中的占比也相當小。

AI自然語言模型大多被用于娛樂、生成內容等領域,但當需要查詢真實可靠信息時,用戶們還是習慣性的使用傳統搜索引擎。

因爲“可信度”才是搜索引擎的關鍵,也就是說,答案要“100%可靠”才有意義,這也是爲什麽百度當年要強調“簡單可依賴”。

在ChatGPT、文心一言、秘塔AI搜索,用戶得到的答案只是“可能准確”,是否真的有效,往往需要再去搜索引擎用傳統內容驗證,畢竟二十多年來用戶已習慣于在搜索引擎中給出的海量信息裏找到自己所需的資料,而當前的AI搜索以及ChatGPT等AI工具確實“不夠准”,甚至“經常錯”。

這樣看,其實現在的AI搜索都還只是“玩具”,調查顯示,許多用戶將ChatGPT這樣的AI搜索當“聊天機器人”,而不是搜索引擎。

AI引擎作爲新興産物,尚未建立足夠的公信力。生成式AI以及大模型智能化程度依然不夠高所造成的信任危機,令用戶無法輕易辨別回答的真僞。


圖源:Bing

因此,AI搜索要取代百度、Google,路還很長,當下最重要的事情是提高智能化程度,也就是提供最真實准確的搜索結果。

AI大模型在快速進化,Anthropic在兩天前發布的Claude 3就實現了對GPT-4的超越,國外網友測試發現Claude 3超大杯已經達到了博士水平,僅用了2個提示就重新發明了還未發表的量子算法。但是,個例的突出表現並不等于“100%的准確”,這就像無人汽車、飛行器可以在一些場景下運轉,但依然無法全面普及一樣。

綜上,AI搜索短期內很難真正取代百度、谷歌們。但AI搜索終將可能催生新的搜索居然,好在百度、谷歌們沒有坐以待斃,它們都在爭相接入了生成式AI技術,擁抱AI搜索引擎的浪潮。唯一的問題是,如果AI搜索真的崛起了,百度們還能好好吃廣告這碗飯嗎?看上去,擁抱AI搜索對百度們也是一場“自我顛覆”的革命呢。---來源: 雷科技-

*因客服機器人說錯話,加拿大航空公司被迫退款,AI這類失誤爲何屢禁不止?*

我一直嘗試在日常工作中使用人工智能助手。但我認爲,讓它們難以發揮全部潛力的最大阻礙是,它們經常犯下明顯的錯誤。

我親身經歷的一次錯誤是,我在采訪一個殘疾人時使用了人工智能轉錄平台,但它生成的采訪摘要堅持認爲我們的對話是關于自閉症的。

這是人工智能“幻覺”問題的一個例子:大型語言模型會虛構和編造很多東西。

最近,我們看到了一些規模更大的人工智能問題(故障)。最近的一次荒誕情況是,的 Gemini 模型拒絕生成帶有白人的圖像,尤其是白人男性。

相反,它可以給用戶生成黑人教皇和納粹女兵的圖像。滑稽的是,一直試圖讓其模型的輸出不那麽帶有偏見並以此標榜自身,但事與願違,這家科技公司很快發現自己卷入了美國文化戰爭的漩渦中心。

保守派批評者和指責它有所謂的“覺醒(woke)”偏見,沒有准確地代表曆史。道歉並暫停了該功能。

在另一起事故中,的必應聊天機器人告訴《紐約時報》的一名記者離開他的妻子。客戶服務聊天機器人也不斷給它們服務的公司帶來各種各樣的麻煩。

例如,加拿大航空公司最近被迫根據其客服聊天機器人給出的政策向客戶退款。類似的“被坑”的公司還在增加。

科技公司正急于推出人工智能驅動的産品,盡管有大量證據表明我們很難完全掌控這些産品,而且它們的行爲往往是不可預測的。

之所以出現這些奇怪的行爲,是因爲沒有人確切知道深度學習是如何工作的,甚至沒人 100% 知道爲什麽它們能奏效,而深度學習是當今人工智能繁榮背後的基礎技術。

這是人工智能領域最大的難題之一。我的同事威爾·道格拉斯·海文(Will Douglas Heaven)剛剛發表了一篇文章,深入研究了這一問題。

最大的謎團是, Gemini 和 的 GPT-4 等大型語言模型是如何學會那些未經訓練的事情的?你可以訓練一個語言模型用英語解決數學問題,然後向它展示一些法國文獻,它就可以學會用法語解決數學問題。

威爾寫道,這些能力與經典統計學(理論)背道而馳,後者爲預測模型的行爲提供了最好的解釋。

我們很容易將源于無知的認知誤認爲是魔法。就連“人工智能”這個名字,都在一定程度上誤導了我們:讓人們誤以爲它擁有了所謂的、類似人類的智能。

語言模型看起來很聰明,因爲它們通過預測句子中的下一個單詞來生成文本,跟人類寫出來的很像。

但這項技術並不是真正的智能,稱其爲智能會微妙地改變我們的期望,我們會默默地誇大這項技術的真實水平。

不要相信這些模型是無所不知的,也不要認爲它們生成的東西就是事實,更不要覺得它們幾乎可以勝任我們期望的任何工作。這些都是科技領域流行的營銷陷阱。

由于它們的不可預測性、無法控制的偏見、安全漏洞和編造事實的傾向,它們真正能創造的價值極爲有限,至少目前是這樣。

它們可以幫助人類集思廣益,也可以搞出一些糗事,作爲我們茶余飯後的樂子。

如果你了解這些模型多容易出現小故障和失敗,那麽你就應該知道,向它們提供你的信用卡信息、隱私數據或者在任何事關重大的情況下使用它,都不是什麽好主意。

哈佛大學計算機的科學家博阿茲·巴拉克()表示,人工智能研究領域目前仍處于早期階段。他目前被借調到 的超級對齊團隊。

他表示,該領域的許多人將其與 20 世紀初愛因斯坦提出相對論時的物理學進行了對比。



(來源:AI 生成)

如今,該領域的焦點是模型如何産生它們所做的事情的,但我們還需要更多的研究來了解它們爲什麽會這樣做。

在我們更好地了解人工智能的內部原理之前,還會有更多奇怪的錯誤和大量的炒作,而我們將不可避免地面對這些問題。

作者簡介:梅麗莎·海基萊(Melissa Heikkilä)是《麻省理工科技評論》的資深記者,她著重報導人工智能及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智能政策和政治的文章。她還曾在《經濟學人》工作,並曾擔任新聞主播。---[支持:Ren*運營/排版:何晨龍/來源: DeepTech深科技]