01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

腦機接口上的“AI 儀表盤”,讓普通人也能讀懂

2024012318:53

在今天的數字時代,大腦已不再是一個孤立的存在。腦機接口技術將人類思維與外部世界連接起來,使外界能夠“讀懂”我們的心聲,我們也能通過思考來控制外部設備或接收信息。

但隨之而來的挑戰是,這些高深莫測的技術如何能爲普羅大衆所理解,從而得到普遍應用?試想,如果我們能對大腦發出的每一個信號了如指掌,那便能自行操作複雜的腦機接口設備,甚至預測和治療神經和精神疾病。然而,大腦的複雜性使得解讀這些信號變得極具挑戰。傳統人工智能方法雖然能提供解釋,但這些解釋往往難以被非專業人士所理解。

爲解決這個問題,印度理工學院Yogesh Kumar Meena領銜的研究團隊提出了一種新的思路:應用于腦機接口的可解釋人工智能技術(XAI4BCI)。他們試圖將人工智能的解釋能力與大腦信號結合,讓我們能更直觀地理解腦機接口,讓這門技術不再是科學家的專屬,而是融入每個人的生活。


▷原始論文,Explainable artificial intelligence approaches for brain-computer interfaces: a review and design space。

什麽是“可解釋人工智能”?

根據《劍橋詞典》的定義, “解釋”(explanation)一詞的含義爲“某人爲使某事清晰或易于理解而給出的細節或理由”。在可解釋人工智能的語境中,研究人員對此進行了擴展:“對特定受衆來說,可解釋人工智能是一種能提供細節或理由,而使某功能變得清晰或易于理解的人工智能。”

誠然,“解釋”並不代表“理解”(understanding),盡管人們經常把這兩者混爲一談。你肯定有過這樣的經曆:別人費盡心思向你解釋某個概念,你卻仍然一頭霧水。這正在是目前可解釋人工智能所面臨的挑戰。

雖然人工智能系統本身也有能力給出解釋(如決策樹、支持向量機等),但這些解釋並不一定易于理解。例如,如果讓人工智能解釋“預測”(prediction)這個詞,它可能會說:“參與預測的神經元由于前幾層中n個神經元的一連串激活而被觸發”。對于大多數人來說,這並不是一個易于理解的解釋。類似的,在預測模型中人工智能喜歡用准確率、f-score、Cohen-kappa等測量方法來解釋某種算法的性能,但它們並不能解釋爲什麽此算法會達到這樣的性能。

盡管人工智能提供了解釋,卻不是一個“好的解釋”。此外,解釋的受衆也很重要——向數據科學家解釋“決策”的方式,與向神經科學家或病人解釋“決策”的方式,有著天壤之別。

因此,我們需要通過“诠釋”(interpretation)來把拙劣的解釋轉化爲易于理解的解釋。本論文則系統介紹了人工智能如何通過诠釋把複雜的腦機接口變得直觀明了,以增強用戶對使用腦機接口的信任。通過诠釋的一般結構,我們能夠:

(1)以更清晰的視角看待人工智能領域中經常交替使用的術語:解釋、理解和诠釋;
(2)設計一個通用架構來使人工智能産生通俗易懂的解釋;
(3)建立一個統一的視角讓人工智能爲不同受衆提供解釋。

應用于腦機接口的可解釋人工智能

腦機接口可以通過大腦向機器傳輸信號,並解讀這些大腦信號來分類行爲、診斷模式和預測行動。大腦信號的複雜性和人工智能模型的“黑箱”特性,讓這些聽起來像是直接從科幻小說中走出來的天方夜譚。

腦機接口技術的廣泛接受程度依賴于其能否向普羅大衆提供清晰的解釋。例如,向使用者澄清,即使是最先進的腦機接口,通過辨別在單次試驗中與事件相關的電位振幅,也不可能實現像科幻電影中的讀心術那樣的功能,這至關重要。

可如今,就連最先進的人工智能算法都缺乏透明度,這進一步加劇了人們對腦機接口的陌生和不信任,尤其是在醫療和健康等高風險應用中。隨著神經網絡模型規模的增加,其准確率可能提高,但可理解性往往也可能降低。因此,這裏面存在一個准確性和可解釋性彼此之間的權衡問題。

爲了在保持准確性的同時解決人們對腦機接口的信任鴻溝,研究人員提出了一個針對腦機接口應用的可解釋人工智能設計空間(design space),包括四個關鍵維度:信號空間、任務空間、用戶空間和分析空間:

(1)信號空間:定義捕捉大腦活動的手段;

(2)任務空間:定義大腦的認知活動;

(3)用戶空間:代表用戶大腦信號的個體差異;

(4)分析空間:代表研究人員對分析大腦信號所用的處理技術。


▷圖1:可解釋的人工智能是開發安全可信的腦機接口的透視鏡。

這個設計空間的目標通過“人在回路”(human-in-the-loop)的方式,將人類和人工智能聯通,共同創建腦機接口的預測模型,讓人們參與到一個良性循環中來訓練和調試算法。通過這種方式,我們可以將原本作爲黑箱的複雜預測模型轉變爲可見、可信賴的技術(如圖2)。


▷圖 2:腦機接口的可解釋人工智能旨在協助環內的人類。

接下來,我們將嘗試逐個回答6個研究問題,還將探討XAI4BCI的設計空間,包括了四個關鍵變量(即 “是什麽”、“爲什麽”、“誰”、“如何做”)及其相應類別。這種全面細致的視角將爲包含可解釋人工智能的腦機接口系統的設計和實施提供指導。

問題1:爲什麽要解釋腦機接口?

要深入理解腦機接口的工作和應用,就必須明白爲何需要解釋它們。深入探究腦機接口背後的驅動因素能夠幫助我們理解和信任這項技術。這些驅動因素將有助于人們把诠釋模型概念化,從而在人工智能生成的原始解釋上進行加工,以産生更易于理解的解釋。以下是對腦機接口進行解釋的四個主要驅動力(如圖3):

(1)爲了發現:腦機接口不僅僅是工具,它們也是探索未知的窗口。通過解釋腦機接口的預測模型,我們可以揭示大腦的基本功能,如感官刺激和決策過程等,從而發現前所未有的知識。

(2)爲了說明:腦機接口的利益相關者需要對模型生成的預測(尤其是對高風險結果的預測)進行說明,以建立人與機器間的信任,並評估人工智能系統的可靠性。例如,用于診斷腦部早期疾病的腦機接口可能需要強調腦部信號的某些異常,以便向專家證明其決定的合理性。

(3)爲了控制:腦機接口的有效使用需要精確的校准和控制。通過提供解釋輔助界面,用戶可以更好地理解如何操縱和控制這些複雜的系統,從而實現更精確和自如的交互。

(4)爲了改進:人工智能系統經常通過主動或被動的反饋循環來自我改進。提供解釋有助于突出統計數據和結果之間的因果關系,避免數據中的偏差和噪音。

該研究統計得出,可解釋人工智能用于腦機接口的主要驅動力爲:

爲模型學習到的特征尋求說明和神經生理學驗證,其次是將其應用于模型改進和調試中。


▷圖3:將可解釋人工智能應用于腦機接口研究的驅動力

問題2:誰是解釋腦機接口的受益對象?

在理解腦機接口及其廣泛應用的過程中,不僅僅要理解技術本身,還要明白這項技術對不同群體意味著什麽。這就引出了一個重要的問題:誰是這項技術的利益相關者?

了解這些相關方及其需求,對于確保腦機接口技術的正確解釋和有效應用至關重要。同樣,爲了達成“人在回路”的目標,解釋腦機接口的任務並非一成不變,它需要針對不同受衆進行調整。

(1)終端用戶:他們是技術的直接受益者,可能包括健康人群、患者或服務提供商的客戶。他們的需求主要集中在如何使用、安全性、可靠性以及預期效果等方面。

(2)領域專家或研究人員:在神經科學、生理學、應用生物統計學等領域的專家,他們通常關注于技術背後的科學和研究進展。他們可能需要深入的技術解釋,以及如何將新的研究成果或理論應用于改進現有技術。

(3)行業、經理和高管:這些人可能是技術的決策者或影響者,間接參與腦機接口或相關服務的概念化、生産和商業化的個人。他們關心的是如何將腦機接口技術商業化,以及它對市場的潛在影響。

(4)監管機構:參與政策制定和執行的個人,積極參與腦機接口技術的管理和道德規範。他們需要理解技術的工作原理和應用場景,以便制定合適的政策和法規。

(5)開發人員、設計人員:直接參與腦機接口系統設計和工程的人員。對這群人來說,理解腦機接口的工作原理、可能的技術挑戰和改進空間是至關重要的。

通過識別和理解這些利益相關者的需求和角色,我們可以更有效地解釋腦機接口,確保信息的傳達既准確又對口。這種深入的理解和溝通對于技術的接受度、應用和進一步的創新至關重要。因此,解釋腦機接口並非單向傳達,而是一個涉及多方、多層次需求和期望的複雜過程。

問題3:解釋腦機接口可以應用于哪些行業?

在確定需要哪些解釋,以及對誰進行解釋之後,還要考慮腦機接口技術的應用領域。例如,娛樂領域的腦機接口可能更注重用戶體驗和互動樂趣,而醫療領域的腦機接口則需要重視精准度、可靠性和對複雜決策的解釋。

目前,腦機接口技術已從用于交流和康複的輔助設備發展到神經反饋和娛樂技術。而隨著腦機接口對公共數據集需求的增加,人們對用于輔助技術和康複應用的運動圖像和運動解碼也産生了顯著興趣(圖4)。

(1)輔助技術:用于交流、移動、環境控制和增強認知;

(2)康複和假肢:評估和促進截肢或腦損傷後的功能和活動能力;

(3)認知診斷和治療:疾病檢測、神經反饋和訓練;

(4)娛樂技術:遊戲、電子競技、虛擬現實和生成藝術。

隨著腦機接口應用範圍的不斷擴大,它也有望在遊戲和娛樂技術等低風險領域被大衆接受。這時,一個機會點也逐漸顯現,即建立通用平台,以測試和評估不同數據集和任務中的模型性能,以及鼓勵對新型模型技術的可解釋性進行基准測試。


▷圖4:采用可解釋人工智能進行腦機接口認知任務的趨勢。在可解釋性方面,運動和圖像是腦機接口最多的研究領域之一。

問題4:如何解釋腦機接口?

一個“好的解釋”通常需要一個合適的界面。試想,如果要向一位油車車主解釋新能源汽車在節能環保上的優勢,若是使用專業的工程術語和複雜的技術圖表,可能會使信息難以理解,進而丟失該用戶。而一個簡單易懂的虛擬模擬儀表板,通過圖形和直觀的能量轉化動畫來表示引擎、能耗、車速、甚至産生費用等信息,就可以讓車主直觀地了解車輛的狀態和性能優勢。所以說,合適的界面表達對于解釋來說至關重要。

對于腦機接口而言,這意味著需要將複雜的神經科學和機器學習原理翻譯成可視化、直觀和容易理解的信息。不同的解釋界面和技術各自扮演著獨特的角色,以幫助不同的利益相關者理解和信任腦機接口技術:

(1)頻譜圖:神經振蕩是認知活動的標志,頻譜圖記錄了大腦在不同狀態和活動下的電活動模式。頻譜圖有助于以獨特的視角來對認知、情緒、睡眠等認知活動進行解釋。

(2)時間模式:特定的時間模式已被確定爲某些已知刺激或認知活動的代表。例如,當捕捉到的信號與刺激物相位鎖定時,就可以比較不同個體的反應,並找出共同的模式。

(3)空間地圖:空間圖便于在二維或三維度上可視化測量大腦活動的不同形態,可在傳感器層面(傳感器位置)或源層面(已確定的源大腦區域)表示。

(4) 特征相關圖:將測量到的信號視爲預測模型的特征,相關性分數則表示特定特征在決策中的作用。

使用合適的解釋界面,利益相關者們就可以很容易地理解關于腦機接口。而對于每個界面,相應使用到的可解釋人工智能技術可分爲:

(1)基于SHAP的方法,包括 SHAP 和DeepLIFT/DeepSHAP,它們提供了一種解釋模型決策背後的貢獻度的方式;

(2)基于相關性的方法,包括分層相關性傳播和積分梯度,它們能夠識別哪些輸入特征對模型的預測最爲重要;

(3)基于類激活圖的方法,包括顯著圖、GradCAM等,通過突出顯示輸入的哪些部分對模型的決策最重要來提供直觀的解釋;

(4)使用注意力、自定義過濾器或權重的可視化技術;

(5)其他技術,如 LIME、基于樹的 t 分布隨機鄰域嵌入(t-SNE)、遮擋敏感度分析、模糊規則解釋等,這些方法提供了一種定制化的方式來解釋模型的工作機制。

圖5直觀地展示了腦機接口解釋方法的性質以及常用的界面。研究顯示,在執行指定認知任務時生成的空間地圖,有助于直觀地解釋大腦區域和空間形態,從而根據分析結果向利益相關者揭示更多見解。例如,有學者利用可解釋人工智能了解模型所學特征隨逐次試驗的變化,以調試和改進性能[1];也有學者通過將傳感器信號轉換到模型中的源空間來實現可解釋性[2]。


▷圖5:爲向利益相關方解釋腦機接口而使用的界面。

問題5:如何讓腦機接口設計空間透明可信?

在探索針對腦機接口應用的可解釋人工智能設計空間時,我們必須考慮一系列基本要素或“基元”,基元共同構成了可解釋人工智能在腦機接口應用中的框架。正如字母和數字組成了拼字遊戲的基礎一樣,這些基元組成了腦機接口設計的核心。

上文中,我們討論了這些用于腦機接口的基元:腦機接口的驅動力(“爲什麽”)、利益相關者(“誰”)、應用領域(“是什麽”)、界面(“如何做”)。結合這些元素,就可以構建一個全面的、以人爲中心的XAI4BCI設計空間,以適應和促進“人在回路”的腦機接口,進而實現下一步技術飛躍。圖6利用和弦圖*(chord diagram)幫助我們直觀地了解XAI4BCI的設計空間變量。

    *和弦圖是一種顯示數據之間關系的圖形方法。它用于直觀顯示一組有限實體之間的聯系或關系。實體在圖的周邊用圓圈表示,它們之間的聯系用弦來表示。弦線的寬度可用來表示連接實體之間關系的強度或頻率。


▷圖6:XAI4BCI的設計空間變量及其關聯。

問題6:如何促進腦機接口的可解釋性?

爲了深入理解並提升腦機接口的可解釋性,我們需要識別和分類可用的解釋類型。這些解釋類型包括:

(1)類似定律的陳述:在認知過程中確定的物理和化學定律。例如,神經元之間信息傳遞過程中涉及神經遞質的釋放。

(2)統計規律:通過對腦信號的分析和建模,來發現和確認那些能夠描述和預測腦活動的普遍性規律。例如,當大腦信號表現出特定的模式時,模型能夠以95%的概率確認用戶正在進行專注的認知任務,而在其他狀態下,確認用戶處于休息狀態的概率爲85%。

(3)因果關系:利用人工智能或專家知識進行因果推斷,得出驅動現象的因果過程和相互作用。通常,來自腦損傷研究和腦刺激的信息可提供大腦功能的因果關系。

(4)實體和活動:實體和相應的活動通過解釋演變成機制。例如,在視覺系統中有一個專門負責識別人臉的識別網絡。這個網絡中識別的實體是人臉特征,如眼睛、鼻子、嘴巴等。當視覺輸入中包含人臉時,大腦中負責人臉識別的區域會被相應地激活,這個機制就可以解釋輸入中的這些實體。

在人工智能領域,許多模型自身就具備易于解釋的特性。例如,線性模型(如線性回歸或支持向量機)可以通過與每個特征相關的系數來解釋每個特征對模型輸出的影響。決策樹通過樹狀結構的路徑提供了決策過程的直觀解釋。基于規則的系統(如專家系統)則使用人類可理解的邏輯規則來表達決策。

雖然神經網絡通常被認爲是黑箱,但也有一些技術可以讓神經網絡更容易被解釋,例如注意力機制可以突出模型所關注的輸入的特定部分,層相關性傳播(LRP)可以爲每個輸入特征賦予相關性。爲腦機接口選擇一種可解釋的人工智能技術取決于要檢測的大腦反應類型、模型的複雜性以及所需的可解釋性水平,即是否有必要從源頭上定義被激活的大腦區域。

想要爲腦機接口的某個決策溯源,我們有必要對解釋加以诠釋。雖然僅僅回答了“發生了什麽?”的解釋是充分的,但能夠回答“爲什麽會發生?”的解釋則是必需的,這也正是腦機接口的利益相關者尋求解釋的初衷。

例如,我們正在研究一種通過腦電信號來控制一個機械手臂的腦機接口。我們想要爲用戶的一個特定決策(如用機械手臂抓取一個物體)進行溯源,理解這個決策是如何形成的。如果僅僅是回答“發生了什麽?”的解釋(充分的解釋),那麽解釋爲:用戶的大腦發出了特定的電信號模式。

而回答“爲什麽會發生?”的解釋(必需的解釋)則爲:(1)在用戶的大腦中,特定的神經網絡被激活,産生類似與抓取動作相關的認知決策;(2)這種認知決策引起了特定的腦電信號模式;(3)腦機接口系統學習了這一模式與抓取動作的關聯,因此能夠解釋這一模式爲一種控制信號;(4)機械手臂收到控制信號,執行相應的動作,例如抓取物體。

可以看出,通過後者我們能夠更全面地理解腦機接口決策形成的原因,滿足利益相關者對于決策機制的深層次解釋的需求。因此,如果腦機接口預測模型的解釋不夠充分,則有必要進行進一步的诠釋,來回答“爲什麽會發生”。爲實現這種深層次的解釋,可應用以下幾類诠釋策略:

(1)全局或局部诠釋:全局诠釋關注模型的整體行爲和規則,而局部诠釋則聚焦于特定實例或決策。例如,要解釋腦機接口驅動的機器人向右轉彎的決定是否合理,解釋特定實例(局部)比解釋模型學習到的基本導航規則(全局)要更容易理解。因此,在解釋中可以根據需要和清晰度,選擇全局诠釋或者局部诠釋。

(2)近似或同構诠釋:在诠釋複雜解釋的過程中,近似法能幫助理解。例如,與其解釋與診斷大腦活動異常相關的所有特征,不如只通過提供突出特征來近似複雜的解釋,這樣可能會簡單易懂,便于說明理由。

(3)特定于模型或與模型無關的诠釋:诠釋技巧可以針對所選模型,也可以與模型無關。前者專門爲特定類型的模型而設計,以幫助我們理解每個部分(比如網絡中的每個神經元或層)是如何對最終決策産生影響。後者則是一些通用的解釋技術,它們可以用在各種不同類型的模型上。最新的一些技術通常用于解釋神經網絡學習到的權重,通過分析這些權重,我們可以了解網絡在處理數據時更關注哪些方面,哪些輸入特征對預測結果影響更大。

綜上所述,XAI4BCI的設計空間爲解釋腦機接口的決策提供了更全面的視角,有助于設計任何包含可解釋人工智能的腦機接口系統(如圖7)。



▷圖7:XAI4BCI的設計空間有助于開發可解釋的腦機接口。

討論與展望 讓符號人工智能與機器學習並駕齊驅

在探討腦機接口技術和可解釋人工智能的融合時,我們必須重視人類在這一交互過程中的作用。人類不僅是腦機接口的使用者,也是評估和分析這項技術性能的關鍵角色。在腦-機溝通中,需要有效的交流、信任、清晰度和理解,而XAI4BCI通過結合符號人工智能和機器學習爲這些挑戰提供了解決方案。

例如,混合模型可以同時包含數字和符號部分,其中神經網絡負責特征提取和數值處理,而符號推理引擎則負責解釋結果並根據邏輯規則作出決策(圖8)。



▷圖8:用符號和數字結合的解釋框架全面輔助XAI4BCI。

把可解釋人工智能作爲腦機接口的工程工具

將可解釋人工智能應用作爲腦機接口的工程工具的重要性體現在兩方面。一方面,在輔助和娛樂技術的腦機接口應用中,它能優化環境控制並提升模型性能。另一方面,在科學研究領域,特別是用于診斷和康複的腦機接口,可解釋人工智能被用來驗證模型的預測並探索神經生理機制。

例如,有報告稱對抗噪聲(adversarial noise)對腦機接口所用的模型有很大影響[3-5]。可解釋人工智能在研究其他領域模型中,對對抗性噪聲的魯棒性方面發揮了至關重要的作用。有學者提出利用解釋來改進模型[6],包括增強訓練過程的不同組件或調整已訓練模型,這些研究還顯示了解釋如何幫助模型提高泛化能力和推理能力。然而,在工程應用的准確性與可解釋性之間的權衡方面,往往優先考慮准確性。

把可解釋人工智能作爲腦機接口的研究工具

可解釋人工智能的作用不僅僅是提供對模型預測的理解,還能揭示與大腦反應動態相關的深層神經機制。在診斷和康複的應用中,腦機接口的性能解釋對于驗證模型預測的正確性至關重要,而可解釋人工智能提供了強有力的手段來實現這一點。有學者使用可解釋人工智能從腦磁圖(MEG)數據[7],成功識別出在伸手運動過程中處理運動參數(即加速度、速度和位置)的大腦皮層。除侵入性單神經元研究或大規模相幹性研究外,可解釋人工智能還提供了新的途徑來研究大腦的運作機制。

可解釋人工智能的拓展

當腦機接口模型或系統的決策難以被解釋時,它們就難以被用戶接受。因此,我們需要爲腦機接口的性能提供清晰的解釋,無論是在運作良好還是不良的表現下。特別是,當用戶無法控制腦機接口,向用戶(和用戶家屬)解釋它爲什麽不起作用就變得至關重要。同樣,腦機接口也有必要解釋爲什麽有時性能很高,爲什麽它有時工作異常,也就是應該提供包括硬件故障在內的全面解釋。

雖然該研究的設計空間XAI4BCI提議在解釋框架中納入確定性法則、因果關系和機制,但很少有人討論將特定領域的知識庫納入解釋框架。添加知識表征、通過回路內的人員反饋來整理數據,以及學習如何減少模型和數據中的偏差,都有助于建立一個強大的解釋框架。這一研究方向仍有待探索。

可解釋人工智能的陷阱

目前的可解釋人工智能技術也存在缺陷。有學者根據其意圖將其分爲兩種:黑暗模式和陷阱模式[8-9]。“黑暗模式”旨在人工智能通過操縱對腦機接口的解釋來傷害用戶,而“陷阱模式”則是因一些知識盲區而導致人工智能産生了副作用。例如,有學者討論了腦機接口研究中關于解碼模型可解釋性的一個常見誤區[10]。他們強調,雖然解碼模型旨在預測大腦狀態以控制腦機接口,但往往存在一個隱性的假設,即這些模型的參數可以很容易地從大腦特性的角度進行人爲解釋。

在解讀多元分類器(multivariate classifier)的權重時(尤其是在根據這些權重做出決策時),即使是對于較簡單的線性模型,神經成像相關研究者也經常討論誤讀分類器權重存在的潛在隱患。因此,提高腦機接口模型的可解釋性至關重要,應提供有意義的准確解釋,以避免潛在的錯誤和後果。

可解釋人工智能的局限性

人類普遍傾向于過度信任從有限數據集中得出的特定解釋。但過度、盲目的信任存在巨大風險。因此,我們需要在設計和實施腦機接口系統時采取措施,防止利益相關者在決策中引入偏見。這意味著設計空間需要進一步發展,解釋界面必須突出這一警示,提醒用戶注意這些解釋的潛在局限性和風險。例如,即便大腦的空間地圖顯示了模型預測的權衡位置,也不能保證這些大腦區域就是進行預測的最佳區域。這最終需要由利益相關者來識別和判斷,以避免可能的錯誤。

盡管XAI4BCI有助于開發可視化解釋,促進不同模型間解釋的標准化比較,但如何客觀評估這些解釋並開發相關的評估指標仍然是一個重要的研究方向。

結語 : 腦機接口技術的成功不僅取決于性能指標的優化,更依賴于我們能否全面理解和解釋其工作機制。

性能固然重要,但它只代表了在實驗室受控環境之下的可用性。在實際應用中,我們更需要的是理解和解釋技術的工作原理,以及在面臨預期之外的情況時調整和應對的方法。正是這種對技術深入理解的能力,讓人們對腦機接口的預測模型産生信任,幫助所有利益相關者做出更加明智、更具前瞻性的決策。

腦機接口技術的發展不應局限于軟件或算法層面。它是一個跨學科領域,涉及神經科學、認知科學、工程學等多個領域。我們需要將這些領域的知識和方法整合到模式識別、信號處理等腦機接口核心技術中,以確保腦機接口系統不僅在實驗室環境下有效,也能在複雜多變的現實世界中穩定運行。

此外,隨著腦機接口技術逐漸走向臨床和商業化,對其硬件組成的理解和解釋也變得極其重要。這包括傳感器的選擇和放置、信號的采集和濾波器的設計等,每一個決策都需要基于對系統如何工作的深刻理解來做出。

在此基礎上,XAI4BCI的興起,正是對當下人工智能領域的一種回應。雖然數字人工智能曆來都是焦點,但要構建能與人類進行共生互動的更具彈性的系統,就必須納入符號人工智能。這種多角度、多方位的方法旨在提高腦機接口的性能並加強這個技術與不同受衆的交流,爲可解釋的腦機接口領域的進步奠定基礎。

XAI4BCI不僅是技術的進步,更是向全面、透明、可信賴的未來邁出的堅實一步。---來源: 钛媒體-

    原始論文: Rajpura, Param, Hubert Cecotti, and Yogesh Kumar Meena. "Explainable artificial intelligence approaches for brain-computer interfaces: a review and design space." arXiv preprint arXiv:2312.13033 (2023). https://arxiv.org/abs/2312.13033

    [1] Aellen, F. M., et al. "Convolutional Neural Networks for Decoding Electroencephalography Responses and Visualizing Trial by Trial Changes in Discriminant Features." J Neurosci Methods 364 (2021): 109367. Print.
    [2] Petrosyan, A., et al. "Speech Decoding from a Small Set of Spatially Segregated Minimally Invasive Intracranial Eeg Electrodes with a Compact and Interpretable Neural Network." J Neural Eng 19.6 (2022). Print.
    [3] Zhang, X.; Wu, D.; Ding, L.; Luo, H.; Lin, C. T.; Jung, T. P.; Chavarriaga, R. "Tiny Noise, Big Mistakes: Adversarial Perturbations Induce Errors in Brain–Computer Interface Spellers." National Science Review 8.4 (2021). Print.
    [4] Meng, L.; Jiang, X.; Wu, D. "Adversarial Robustness Benchmark for Eeg-Based Brain–Computer Interfaces." Future Generation Computer Systems (2023). Print.
    [5] Zhou, X.; Liu, C.; Zhai, L.; Jia, Z.; Guan, C.; Liu, Y. . "Interpretable and Robust Ai in Eeg Systems: A Survey." arXiv preprint (2023). Print.
    [6] Weber, L.; Lapuschkin, S.; Binder, A.; Samek, W. . "Beyond Explaining: Opportunities and Challenges of Xai-Based Model Improvement." Information Fusion (2022). Print.
    [7] Kim, H., J. S. Kim, and C. K. Chung. "Identification of Cerebral Cortices Processing Acceleration, Velocity, and Position During Directional Reaching Movement with Deep Neural Network and Explainable Ai." Neuroimage 266 (2023): 119783. Print.
    [8] Anders, C.; Pasliev, P.; Dombrowski, A. K.; Müller, K. R.; Kessel, P. "Fairwashing Explanations with Off-Manifold Detergent." International Conference on Machine Learning (2020). Print.
    [9 ]Chromik, M.; Eiband, M.; Völkel, S. T.; Buschek, D. "Dark Patterns of Explainability, Transparency, and User Control for Intelligent Systems." IUI workshops (2019). Print. (2023).https://doi.org/10.1038/s41586-023-06819-6
    [10] Haufe, S.; Meinecke, F.; Görgen, K.; Dähne, S.; Haynes, J. D.; Blankertz, B.; Bießmann. "On the Interpretation of Weight Vectors of Linear Models in Multivariate Neuroimaging." Neuroimage (2014). Print.