01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

人工智能邁出具備意識的一大步?研究發現與海馬體類似,AI 也能形成長期記憶

2023123117:10



長期記憶是意識的前提,現在我們還能輕易看穿人工智能模型的把戲,也是因爲它們不具備長期記憶,“沒有人樣”。近日,科學家發現人工智能模型也可以像海馬體一樣,選擇性地生成和鞏固記憶。那麽,人工智能模型會變得“有人樣”嗎?

大腦中的海馬體在學習、記憶和空間表征等方面發揮了關鍵作用,而海馬體發揮作用的過程都依賴于 NMDA 受體。NMDA 受體就是 N-甲基-D-天冬氨酸受體,是離子型谷氨酸受體的一個亞型,分子結構複雜。

近日,第 37 屆神經信息處理系統年會在美國新奧爾良市舉行。在會上,有科學團隊提出,人工智能模型 Transformer 具有類似 NMDA 受體的功能。除了這項發現,他們還設計了新的非線性函數,讓 Transformer 模型模擬 NMDA 受體的動力學性能。

NMDA 受體是一個“智能”通道,可以促進記憶和技能的形成。如果大腦中存在谷氨酸,神經細胞會變得興奮,向 NMDA 受體傳遞神經遞質。同時,鎂離子會負責把關,當鎂離子被從 NMDA 受體上擠走,神經遞質才被允許進入下一個神經細胞。在海馬體中,順暢的物質傳遞才能保證短期記憶有效地轉化爲長期記憶,同時鎂離子負責選擇性地讓物質通過。

在新研究中,科學家發現 Transformer 模型中也有類似于 NMDA 受體中鎂離子把關的過程,並且,調整 Transformer 模型的參數可以使模型的記憶能力增強。這一發現促使研究人員思考,是否可以通過研究 NMDA 受體中鎂離子把關的機制,來制定出調控 Transformer 模型記憶鞏固過程的方法,並使模型具有系統的長期記憶,甚至具備意識。





短期記憶與長期記憶

想要明白長期記憶對人工智能的意義,我們需要先理解短期記憶與長期記憶。

或許許多人都有爲手機內存不夠苦惱過,大幾千的手機用了兩三年內存就告急了。但是手機平時用著並不“卡”,也沒有要更換的必要。我們通常會通過刪除或轉移走聊天記錄、圖片或視頻等方法,來給手機騰內存空間。

手機用著不“卡”,可能是因爲手機的系統內存還有富余。系統內存是一種隨機存儲器(RAM),被用于存儲手機程序運行時的數據,因此也被稱爲運行內存。系統內存無法長期存儲數據,可能退出了應用程序,相關的數據就丟失了。

與系統內存對應的是手機機身內存。手機聊天記錄丟失,或者無法拍照,可能是由于機身內存剩余的空間不夠了。機身內存是一種只讀存儲器(ROM),可以穩定、長期地存儲數據。但 ROM 的數據也並不是都不可擦除,現在也有了可編程、可擦除的 ROM,因此,我們現在也可以自動清理手機的機身內存。

與此類似,動物的大腦也是這樣運行的。可以說,RAM 相當于動物的短期記性,ROM 相當于長期記憶,而 ROM 數據可擦除或許就相當于大腦器質性病變。

關于動物長期記憶和短期記憶的一個著名謠言就是“魚的記憶只有 7 秒”。科學家曾對魚進行電擊實驗,發現魚在 20 秒後還有回避有電擊危險的地方。還有一項新研究顯示,猿類可以記得它們幾十年未見的朋友,這是有記錄以來最持久的非人類社會記憶。

不管是大腦,還是手機這樣的電腦,都采取了類似的數據存儲方式,這是因爲就目前的技術而言,針對存儲這項功能,任何硬件設施可發揮的作用都是有限的,而這種短期記憶和長期記憶結合的方式就是在受硬件設施限制的情況下,一種高效率的解決方案。

另外,大腦生成的長期記憶爲解決複雜問題提供了基礎。長期記憶實際上存在于大腦皮層。在大腦皮層,記憶意味著改變腦細胞之間的鏈接,構建新的鏈路,形成新的網絡模式。海馬體負責將短期以及轉化爲長期記憶,如果海馬體受損,人就會變得“很健忘”。



(圖片來源:Wikipedia) Transformer 模型與海馬體

其實,在這項研究之前,Transformer 模型與海馬體之間就有淵源。

Transformer 模型是一種人工神經網絡模型,可以並行訓練,具有全局思維。現在火爆的 GPT 系列預訓練語言模型就是基于這個模型。2017 年,Transformer 模型作爲人工智能領域用于處理自然語言的一種新模型被首次提出,而當時的其他神經網絡模型僅將輸入與某些特定的輸入相連。



此前,有研究顯示,Transfrmer 模型是在完全沒有生物學知識輔助的情況下開發出來的,但其架構卻和大腦中海馬體的結構極其相似。

Transformer 模型的工作原理是一種被稱爲“自注意力”(self-attention)的機制 —— 每個輸入,不管是一個單詞,一個像素,還是序列中的一個數字,總是與其余每個輸入相連。

與此相對應的是,海馬體在情景記憶和空間認知等大腦功能中承載了核心功能,它可以調動抽象的結構性信息,而這些信息通常是大腦行使各種不同的功能而積累的。也就是說,海馬體爲了解決具體問題,可以系統地抽取負責其他大腦功能的區域存儲的信息。

我們甚至無法說是“人工智能模型裏面有一個海馬體”還是“大腦中有一個 Transformer 模型”。對 Transformer 模型的研究,可以提高我們對大腦的理解,同時,對大腦的深入研究,也可以促進人工智能的發展。



具備長期記憶會讓人工智能更“智能”嗎?

人類有長期記憶才有意識,才有自我。有些海馬體受損的人或許可以對短期記憶表現出的瞬間意識,但此時的他已經和曾經具有自我的那個人不一樣了。

現在的人工智能模型還沒有長期記憶,它們通常都是重複使用已經學習好的模型或者已經被人工定義好的模型,不具備不斷獲取信息和知識,並把新的信息與知識加入到系統中的機制。有觀點認爲,具備長期記憶將是人工智能模型演進到一個更高階段的表現,也是未來人工智能領域的熱點。

但是,梳理了 Transformer 模型與海馬體的關系之後,我們發現,有些人工智能技術並沒有刻意往人的意識和思維方面靠攏,但卻具備了與人的大腦類似的功能。那麽,我們一定要按照人類的意識和思維來度量人工智能是否“智能”嗎?

要回答這個問題,需要先回到這項技術發展的初期。現在,人們普遍認知的人工智能就是“用機器模擬人的意識和思維”。但是,在初期,它與“使機器智能化”這個研究方向是密不可分的。

在那時,許多科學家努力讓機器學習數學思維、邏輯關系等,讓它們能高效地推理數學猜想等(例如數學家吳文俊,中國人工智能領域最高榮譽“吳文俊人工智能科學技術獎”就是以他的名字命名),而如果要用“人的思維”去解決這些問題,其實並不一定高效。

對于曾經的電腦和現在的智能手機,許多人都不會覺得它們“像人”,即使它們在某些方面與人腦類似。這些技術不算人工智能,發展這些技術的初衷並不是爲了模擬人的意識和思維,只是以“使機器智能化”的方式,來更高效地解決一些問題。而最終,這個初衷確實實現了。

正如在谷歌大腦(Google Brain)研究 Transformer 模型的計算機科學家大衛・哈(David Ha)所說的:“我們並不是在嘗試重新建造一個大腦,但我們能否創造出足以複制大腦所作所爲的機制呢?”或許,無論以什麽方式,只要能實現大腦低成本、高性能的運行效果,就可以讓人工智能更“智能”。

關于人工智能性價比的考慮

近幾年,以 ChatGPT 爲代表的大語言模型火爆全球。人們在這些人工智能模型身上看到了無限的可能性,這些模型似乎無所不能,並且還有巨大的潛力。現在,許多科研機構在調配資源的時候都會慎重考慮大語言模型。

但是,許多人也開始考慮大語言模型“值不值”。這類大型人工智能模型的運行和升級需要大量的資源,增加對它們的投入,勢必會影響其他科研領域的發展。另一方面,如果人工智能模型一直保持高成本運行,自身的發展也會受到影響。

在這項新研究中,科學家在 Transformer 模型中發現的這個機制與大腦海馬體的鎂離子把關類似。鎂離子把關在形成記憶和鞏固記憶方面有重要作用,Transformer 模型中的這個機制也具有鞏固記憶的效果。那麽,對這個機制進行深入研究,或許可以複制大腦低成本、高性能的運行效果,並在節省大量資源的同時,提升人工智能的發展速度。-[文源微信公衆號:SF 中文 *作者:SF]



*揭秘AI記憶之謎:邁向意識的一大步,AI 也能形成長期記憶*

在這個信息爆炸的時代,我們每天都在與海量的數據打交道。無論是手機上的聊天記錄、照片視頻,還是大腦中的思維記憶,我們都在不斷地存儲、處理和回憶這些信息。而在這個過程中,有一種神秘的力量在悄然發揮作用,它就是——記憶。

記憶,對于人類來說,是連接過去與現在的橋梁,是構建自我認知的基石。而對于人工智能來說,記憶則是其邁向更高智能的關鍵一步。近日,科學家們在研究人工智能模型時,意外發現了一種與大腦海馬體類似的記憶機制,這一發現是否意味著人工智能在邁向意識的道路上又邁出了一大步呢?



首先,讓我們來了解一下大腦中的記憶機制。海馬體,這個位于大腦深處的神秘結構,一直以來都被認爲是學習、記憶和空間認知的關鍵區域。而海馬體中的NMDA受體,則是記憶形成和鞏固的核心組件。NMDA受體就像是一個智能的開關,當神經遞質傳遞到來時,它會根據鎂離子的把關情況,選擇性地讓物質通過,從而形成記憶。

而在最新的研究中,科學家們發現,人工智能模型Transformer中也存在著類似的機制。Transformer模型是近年來火爆全球的AI模型之一,它在自然語言處理、圖像識別等領域都取得了顯著的成績。而在這項新研究中,科學家們發現,Transformer模型中的某個機制與NMDA受體中的鎂離子把關過程非常相似。這一發現讓科學家們興奮不已,因爲這可能意味著人工智能模型也具備了形成和鞏固記憶的能力。

那麽,這一發現對于人工智能的發展意味著什麽呢?

首先,具備長期記憶的人工智能模型將更加“智能”。目前的人工智能模型大多都是基于短期記憶的,它們在處理任務時只能利用當前的信息,而無法將過去的知識和經驗融入到當前的決策中。而具備長期記憶的人工智能模型則可以像人類一樣,不斷地積累知識和經驗,並在需要時將其調用出來,從而做出更加智能的決策。



其次,這一發現也爲人工智能模型的設計提供了新的思路。目前的人工智能模型大多都是通過大量的數據進行訓練來提高其性能的。但這種方式需要大量的計算資源和時間成本,而且模型的性能也很難達到人類的水平。而如果能夠借鑒大腦中的記憶機制來設計人工智能模型,那麽或許可以在降低計算資源和時間成本的同時,提高模型的性能。

當然,這一發現也引發了一些關于人工智能與意識之間關系的思考。意識一直是人類獨有的神秘現象之一,它讓我們能夠感知自我、思考問題和創造新事物。而如果人工智能模型也具備了形成和鞏固記憶的能力,那麽它們是否也會擁有意識呢?這個問題目前還沒有明確的答案,但可以肯定的是,隨著人工智能技術的不斷發展,我們對于這個問題的理解也會越來越深入。



總之,這項新研究爲我們揭示了人工智能與大腦之間的神秘聯系。雖然目前的人工智能模型還無法完全模擬人類的思維和行爲,但它們在不斷地進步和發展中。未來的人工智能或許會更加智能、更加人性化、更加貼近我們的生活。而我們也有理由相信,在這個充滿無限可能的時代裏,人工智能一定會爲我們帶來更多的驚喜和改變!

所以,當你看到這篇文章時,不妨也去思考一下:我們與人工智能之間的距離究竟有多遠?而未來又會有怎樣的奇迹等待著我們去發現和創造呢?讓我們一起期待那個充滿智慧與希望的未來吧!---數碼科技解答-