01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

全球學術圈險被ChatGPT論文攻陷!知名出版商緊急撤稿,AI插圖笑翻網友

2024031522:08


【新智元導讀】近日,愛思唯爾上的幾篇論文被發現開篇就暴露了「ChatGPT風格」,插圖也是用Midjourney畫的。學術圈被AI滲透已經不是一天兩天了,搞科研的用AI寫論文,學生用AI寫作業,老師也用AI批作業,整個過程都沒有真人了。

學術圈,已經抵禦不住LLM的入侵了!

最近,世界知名出版集團愛思唯爾旗下的幾篇論文接連被質疑。

比如下面這篇锂電池的論文,在「介紹」部分的第一句,就暴露了可疑的痕迹——

「當然可以,這裏是您的主題可能需要的介紹」。

一開口就是老ChatGPT了。




奇怪的是,明明這句話就在第一句,這麽顯眼的錯誤,共同作者、主編、審稿人、排版人員,竟然一個都沒有注意到??

如果真的是經過了嚴格的同行評審,會發生這種情況嗎?



同樣情況的例子不勝枚舉。

比如這篇講肝損傷的論文,在總結時忽然有一大段亮了——

「總之,非常抱歉,由于我是人工智能語言模型,我無法獲得實時信息或患者的具體數據……」

「我可以提供有關損傷一般信息,但是對于的具體病例,建議你去咨詢一下專業醫務人員……」



這一篇講太陽能光伏電池板能量轉換效率的論文,在某段落之後赫然出現一句ChatGPT界面中經常出現的話——「Regenerate response」。


網友們笑翻了,議論的聲音越來越大,現在已經逼得愛思唯爾官方下場,澄清政策並沒有規定,在寫論文過程中不得使用LLM,只要提前聲明就可以。

並且表示,官方目前正在調查被質疑的論文。



而紐約大學學者馬庫斯評論道,AI的泛濫對于期刊出版商來說,是一個重大的預警,因爲他們最重要的就是聲譽。

現在,GenAI生産的垃圾已經迅速淹沒了論文的審查過程,導致出版方的聲譽急劇下降。

科學界的每個人都輸了,除了ChatGPT。

寫論文的確可以使用LLM

在愛思唯爾的官方規定中,的確允許作者在寫論文時使用AI。

當然,也有一定的原則,那就是AI的作用是提高作品的可讀性和語言性,但不能取代關鍵的寫作任務,比如給出科學結論、提供臨床建議。

另外,如果是使用了AI,作者就必須聲明這一點。


https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier

    如果作者在寫作過程中使用人工智能和人工智能輔助技術,這些技術只能用于提高作品的可讀性和語言性,而不能取代關鍵的寫作任務,例如産生科學、教學或醫學見解、得出科學結論或提供臨床建議。應用該技術應該在人類的監督和控制下完成,所有工作都應仔細審查和編輯,因爲人工智能可以産生聽起來權威的輸出,這些輸出可能是不正確的、不完整的或有偏見的。作者對作品內容負有最終責任和義務。 作者應在其手稿中披露人工智能和人工智能輔助技術的使用,並在已發表的作品中出現聲明。聲明使用這些技術有助于作者、讀者、審稿人、編輯和貢獻者之間的透明度和信任,並有助于遵守相關工具或技術的使用條款。

其實,這個消息不是什麽新鮮事了,用ChatGPT等LLM工具寫論文的作者,可謂多如牛毛。

去年,大家都被這篇新聞刷屏了——

美國田納西大學健康科學中心的一名放射科醫生用ChatGPT狂寫論文,4個月直接肝出16篇,其中5篇甚至已經發表了!


而ChatGPT早在2022年底,已經大搖大擺地出現在了共同作者欄中,毫不避諱自己的貢獻。


網友:作者自己讀過文章嗎?

對于這件事情,網友表示:

愛思唯爾的「Surfaces and Interfaces」沒有同行評審流程,也沒有編輯流程。它只是一個昂貴的預印本存儲庫,光收錢,不幹活。


甚至,網友懷疑就連作者自己,都沒讀過這些文章……

既然作者和審稿人都不幹活,那不妨大家彼此都坦誠一些,不用演戲了,——ChatGPT自己寫稿自己審吧。

    「嘿,ChatGPT,你能幫我同行評審這篇論文嗎?」 ChatGPT:「是的,看起來不錯,你可以發布」


甚至,還真有網友把這篇文章丟給了ChatGPT:「嘿,你能檢查一下這篇論文是否有任何明顯的Chatgpt使用迹象嗎?」

Chatgpt認真審閱了稿件,表示:「是的,這篇論文的引言中有幾個迹象表明它可能是由人工智能撰寫的」,並給出了詳盡的理由:


插圖都是用AI畫的

更好笑的是,如今AI不僅榮升論文作者,甚至還在很多論文中充當起插畫師了!

前一陣,這篇名爲「Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway」 論文中的一幅插圖,讓網友們笑翻了。



仔細看這幅圖,可謂是槽點滿滿。

首先大鼠的坐姿就很奇怪,仿佛一只松鼠。

圖中講的是從大鼠睾丸中分離、純化和培養精原幹細胞的過程,然而大鼠的睾丸竟然有4對,碩大的陰莖比身體還大,培養皿中甚至還有一把湯匙?


網友們紛紛表示嚇住了,然而還有驚喜!

有人發現,這張信號通路圖也亮了。



這個不明意義的protemns,應該是把protein(蛋白質)拼錯了。



這個結構被拼成了prom(舞會)。



這裏還出現了亂碼。



還沒完,Figure 3依然有驚喜。



對于這些細胞圖,網友直接給出神評論:「仿佛披薩上撒著香腸和藍色西紅柿……」

當然,至少作者承認了插圖是由Midjourney生成的。



因爲引起了如此軒然大波,論文發表三天後,已經被期刊迅速撤回了。

期刊表示:文章不符合本刊的編輯和科學嚴謹標准。


AI能檢測AI論文嗎?

但是,如果用了LLM卻不提前聲明,除了等著論文作者犯低級錯誤「自爆」之外,有沒有什麽辦法能檢測出論文的「含模量」?


不少有經驗的論文審稿人提供了一個可以參考的經驗,直接查論文的引用,如果隨機抽10個論文引用,有超過一個論文引用是不准確的,那麽他就會懷疑論文至少某些部分是用LLM生成的。

因爲LLM生成論文最大的問題就是會瞎編引用。而網上很多通用的LLM檢測工具,基本上都不靠譜。

所以如果審稿人或者教授只是簡單的依賴通用AI檢測工具來判斷的話,大概率是會冤枉好人的。

但是,雖然通用的AI檢測器不好使,如果針對某個專業領域的論文進行AI檢測,可能是一條走得通的路。

此前,Nature報導了堪薩斯大學的一個團隊的研究成果,他們開發的學術AI檢測系統,能有效分辨論文中是否含有AI生成的內容,准確率高達98%!

文章地址:https://www.nature.com/articles/d41586-023-03479-4

團隊的核心思路是,不追求制作一個通用的檢測器,而只是針對某個具體領域的學術論文,來構建一個真正有用的AI內容檢測器。

通過針對特定類型的寫作文本定制檢測軟件,可能是通向開發出通用AI檢測器的一個技術路徑。

提取論文寫作風格的20個關鍵特征,然後將這些特征數據輸入XGBoost模型進行訓練,從而就能區分人類文本和AI文本。

最後,得到的AI論文識別率高達98%。



希望未來至少能夠開發出針對學術界有用的AI內容檢測器,從而控制「AI學術垃圾」的泛濫。

學生、老師紛紛用上AI神器,用魔法打敗魔法

AI泛濫的,可不止是學術圈。在學校裏,各種AI工具的出現,也是把局面攪得一團糟。

現在,學生用AI寫作業,老師用AI打分,就問這個過程中還有真人嗎?



學生:ChatGPT幫我寫作業


ChatGPT的誕生首先,讓學生們看到了「機會」。

BBC此前曾報道,兩位青年記者采訪自己的同學是否使用AI來幫自己寫作業。

有位同學表示自己的地理作業要到deadline了,「我用ChatGPT寫了整個演講。但是當我被問到相關問題時,我不知道我在說什麽」——挂了。

有同學表示自己使用ChatGPT來幫助自己理解問題,「當你做作業時,教室裏沒有老師,而ChatGPT就像一個老師。」

兩位記者做了份匿名調查,結果顯示,在33名學生中,有31人在學業中使用了人工智能,而27人認爲學校應該教授如何使用人工智能。



學生們表示,AI工具有助于自己提出想法、研究,以及完善寫作結構和措辭等。

——不過,也有些人承認用AI來作弊。

雖然ChatGPT給出的答案並不總是正確,但這並沒有阻止大多數人使用它。

「你可以從ChatGPT之類的工具那裏得到一個真正結構化的答案,然後用其他擴展研究來支持它。」

關于這個24小時在線的「老師」是否更好,大家仍在爭論。

不過與此同時,處在另一陣營的老師們,「也看到了機會」。



老師:ChatGPT幫我批作業

自從ChatGPT面世以來,老師們就開始嘗試用它來批改作業。

比如,編制課程計劃、教學大綱,以及批改作業,檢測是否用了AI輔助等其他作弊行爲。

現在,美國的一些學校正式開始支持並鼓勵使用這一做法。


據Axios報導,老師們現在可以通過一款名爲Writable的新工具,利用ChatGPT對3至12年級學生的作業進行打分。

老師先布置寫作任務(比如「我的暑假經曆」),學生們通過線上方式提交作業。

然後,老師將這些作業提交給Writable,Writable又將它們交給ChatGPT處理。

接著,ChatGPT會向老師提出評論和建議,老師們再對這些建議進行修改,之後反饋給學生。

爲了保護學生隱私,Writable會將學生信息進行「詞元化」處理,確保不會將任何能識別個人身份的信息提交給AI系統。



但值得注意的是,AI評分工具帶來的便利性可能誘惑老師「變懶」,學生們會因此失去獲得更深入反饋的機會。

比較勤勉的老師會把ChatGPT僅僅作爲輔助,但也可能會有老師直接把AI的建議不加修改地反饋給學生。

所以,在學校忙于擬定AI政策的同時,關于應如何劃定使用界限的討論也在持續。利用ChatGPT來批改論文,在學術上算不算誠實?這樣做是不是對學生不公平?

教育科技公司認爲,像Writable這類自動化工具的目的是爲了給教師提供更多的自由時間和靈活性。

如果讓AI來承擔批改作業的繁重任務,那些時間緊張的教師就能有更多機會設計富有創意的課程並更好地了解自己的學生。

雖然一些家長對孩子作業上出現AI生成的評論表示非常不滿,但並非人人都持反對態度。

根據一項民意調查,當被問及「K-12學校是否應該使用AI評估學生的學業表現」時,有45%的家長表示支持。---[新智元報導*編輯:編輯部/來源: 新智元]

參考資料:*https://www.axios.com/2024/03/06/ai-tools-teachers-chatgpt-writable
               *https://twitter.com/gcabanac/status/1767574447337124290