01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

Sora竟是用這些數據訓練的?OpenAI CTO坦白惹衆怒

2024031521:52

    采訪首次揭示出 Sora「有所爲(比如,將生成效果逼向極限)」和「有所爲不爲(比如短期內不開放、不生成公衆人物)」背後的深層考量——找到一條將 AI 融入日常生活的正確道路是極其困難的,但也絕對值得一試。

OpenAI 的 Sora 在今年 2 月橫空出世,把文生視頻帶向了新階段。它能夠根據文字提示生成超現實場景。Sora 的可適用人群受限,但是在各媒體平台上,Sora 的身影無處不在,大家都在期待著使用它。

在前幾天的訪談中,三位作者透露出 Sora 的更多細節,包括它處理手部時仍然存在困難,但正在優化。他們也對 Sora 更多的優化方向進行了闡述,要讓用戶能夠對視頻畫面有更加精准的控制。不過,短期內,Sora 並不會對公衆公開。畢竟 Sora 能夠生成與現實十分接近的視頻,這會引發很多問題。而正因如此,它還需要更多的改進,人們也需要更多時間來適應。

不過不用氣餒,這個短期可能不會太久。OpenAI 首席技術官 Mira Murati 接受了華爾街日報科技專欄作家 Joanna Stern 的采訪。她在談到 Sora 何時推出時,透露道 Sora 將于今年推出,大家可能要等幾個月,一切都取決于紅隊的進展情況。

OpenAI 還計劃在 Sora 中加入音頻生成的功能,讓視頻生成效果更加逼真。接下來,他們也會繼續優化 Sora,包括幀與幀之間連貫性、産品的易用性以及成本。OpenAI 也希望添加用戶編輯 Sora 生成視頻的功能。畢竟 AI 工具的成果並不是百分百准確。如果用戶能夠在 Sora 的基礎上進行再創作,想必會有更好的視頻效果和更准確的內容表達。

當然,技術解讀上的深入淺出只是采訪的一部分,另一部分始終圍繞著安全、擔憂這樣的大衆話題。比如,一段 20 秒的 720p 視頻,不需要幾個小時的生成時間,只要幾分鍾,Sora 在安全方面又將采取怎樣的舉措?

采訪中,主持人還刻意將話題引到 Sora 訓練數據上,Mira Murati 表示,Sora 接受過公開可用和許可數據的訓練。當記者追問是否用到了 YouTube 上的視頻時,Mira Murati 表示自己不是很確定。記者又追問是否用到了 Facebook 或者 Instagram 上的視頻?Mira Murati 回答道如果它們是公開可用的,可能會成爲數據地一部分,但我不確定,我不敢打包票。

此外她還承認 Shutterstock(是一家美國圖片庫、圖片素材、圖片音樂和編輯工具供應商) 是訓練數據的來源之一,也強調了他們的合作關系。

不過看似一場普通的采訪,但也引來了衆多爭議,很多人指責 Mira Murati 不夠坦誠:


還有人從微表情推測 Murati 在說謊,表示道「記住不要讓自己看起來像是在說謊。」



「我只是好奇,作爲 OpenAI 的 CTO 居然不知道使用了什麽樣的訓練數據。這不是在明目張膽的撒謊嗎?」


「作爲這樣一家公司的首席技術官,她怎麽能不准備好回答這麽基本的問題呢?讓人摸不著頭腦...」


還有人認爲 Murati 並沒有說謊,也許 Facebook(FB)真的允許 OpenAI 使用部分數據。


但這種說法立馬遭到反駁「Facebook 是瘋了嗎?這些數據對 Facebook 來說絕對是無價的。爲什麽他們要把數據賣給或授權給他們最大的競爭對手,這實際上是他們在 GenAI 競賽中唯一的競爭優勢。」



顯然,很多人都認爲 Murati 沒有說實話:「作爲 OpenAI 的首席技術官,當被問及 Sora 是否接受過 YouTube 視頻的訓練時,她卻表示自己不確定,並拒絕討論有關訓練數據的進一步問題。要麽是她對自己的産品相當無知,要麽是在說謊 —— 無論哪種方式都非常可惡。」

這就不得不將話題引入到另一個層面:版權問題。一直以來,OpenAI 深受數據版權的困擾,前段時間,《紐約時報》一紙訴狀將 OpenAI 告到法庭,起訴書中《紐約時報》列出了 GPT-4 輸出「抄襲」《紐約時報》的「證據」,GPT-4 的許多回答與《紐約時報》的報道段落幾乎完全一致。

數據監管問題該如何解決?斯坦福教授曼甯表示「目前最簡單但最有用和最合適的 AI 監管之一是要求模型提供者記錄他們使用的訓練數據。歐洲議會剛剛通過並批准的《人工智能法案》也強調了這一點。」


圖源:https://twitter.com/chrmanning/status/1768311283445796946

OpenAI 到底使用了什麽數據來訓練 Sora,現在看來,這座巨大的冰山已經露出了一角。這次采訪除了大家關心的數據問題,還有更多信息值得大家一看。

以下是這次采訪的主要內容,我們做了不變更原意的編輯:



記者:我被人工智能生成的視頻震撼了,但我也擔心它們的影響。所以我請 OpenAI 來做一期新的視頻,並和 Murati 坐下來解答一些困惑。Sora 是如何工作的?

Mira Murati:它從根本上說是一種擴散模型,這是一種生成模型。它從隨機噪聲開始創建一個圖像。如果是電影制作,人們必須確保上一幀延續到下一幀,物體之間保持一致性。這就給你一種現實感和存在感。如果你在幀之間打破它,你就會斷開,現實就不存在了。這就是 Sora 做得很好的地方。

記者:假如我現在給出 prompt:「紐約市人行道上的一名女性視頻制作人手裏拿著一台電影攝像機。突然,一個機器人從她手中偷走了照相機。」



Mira Murati:你可以看到它並沒有非常忠實地遵循提示。機器人並沒有把相機從她手中拽出來,反而這個人變成了機器人。這還有很多不完美的地方。

記者:我還注意到了一件事,即當汽車經過時,它們會改變顔色。

Mira Murati:是的,所以雖然這個模型很擅長連續性,但它並不完美。所以你會看到黃色的出租車從框架中消失了一會兒,然後它以不同的形式回來了。

記者:那我們可以在生成後下達「讓出租車保持一致,讓它回來」這樣的指令嗎?

Mira Murati:現在是沒有辦法的,但是我們正在爲此而努力:怎麽把它變成人們可以編輯的、用來創造的一個工具。

記者:你覺得下面這段視頻的 prompt 是什麽?

Mira Murati:一頭公牛在瓷器商鋪中嗎?可以看到它在不停地踩,但是沒有任何東西破碎。其實這應該是可以預測的,我們未來會提升穩定性和可控性,讓它更准確地反映出你的意圖。

記者:然後還有一個視頻,左邊的女人在一個鏡頭中看起來大概有 15 個手指。



Mira Murati:手實際上有他們自己的運動方式。而且很難模擬手的運動。

記者:視頻中的人物嘴巴有動作,但是沒有聲音。Sora 有在這一方面做功課嗎?

Mira Murati:目前確實是沒有聲音的,但未來一定會有的。

記者:你們用了哪些數據來訓練 Sora?

Mira Murati:我們使用了公開可獲得的數據和許可數據。

記者:比如 YouTube 上的視頻?

Mira Murati:這我不是很確定。

記者:那 Facebook 或者 Instagram 上的視頻?

Mira Murati:如果它們是公開可用的,可能會成爲數據地一部分,但我不確定,我不敢打包票。

記者:那 Shutterstock 呢?我知道你們和他們有協議。

Mira Murati:我只是不想詳細說明所使用的數據,但它是公開可獲得的或獲得許可的數據。

記者:生成一段 20 秒的 720p 視頻需要多長時間?

Mira Murati:根據 prompt 的複雜性,可能需要幾分鍾。我們的目標是真正專注于開發最好的能力。現在我們將開始研究優化技術,以便人們可以低成本使用它,使它易于使用。

記者:創造這些作品,肯定需要消耗大量的算力。與 ChatGPT 響應或動態圖像相比,生成這樣的東西需要多少算力?

Mira Murati:ChatGPT 和 DALL・E 是爲公衆使用它們而優化的,而 Sora 實際上是一個研究輸出,要貴得多。我們當時不知道最終向公衆提供它時到底會是什麽樣子,但我們正試圖最終用與 DALL・E 相似的成本提供它。

記者:最終是什麽時候呢?我真的很期待。

Mira Murati:肯定是今年,但可能是幾個月後了。

記者:你覺得是在 11 月選舉前還是後呢?

Mira Murati:這是了一個需要慎重考慮處理錯誤信息和有害偏見的問題。我們也不會公布任何可能會影響選舉或其他問題,我們沒有把握的東西。

記者:有什麽東西是不能生成的。

Mira Murati:我們還沒有做出這些決定,但我認爲我們的平台將會保持一致。所以應該類似于 DALL・E,你可以生成公衆人物的圖像。他們會有類似的 Sora 政策。現在我們正處于探索模式,我們還沒有弄清楚所有的限制在哪裏,以及我們將如何圍繞它們。

記者:那裸體呢?

Mira Murati:你知道的,有一些創造性的設置,藝術家可能想要有更多的控制。現在,我們正在與來自不同領域的藝術家和創作者合作,以弄清楚該工具應該提供什麽樣的靈活性。

記者:你如何確保測試這些産品的人不會被非法或有害的內容吞噬?

Mira Murati:這當然很困難。在早期階段,這是 Red Teaming(紅隊測試)的一部分,你必須考慮到它,並確保人們願意並能夠做到這一點。當我們與承包商合作時,我們會更深入地了解這一過程,但這無疑是困難的。

記者:我們現在正在嘲笑這些視頻(生成效果不好的視頻),但是當這類技術影響到工作時,視頻行業的人們可能在幾年後就不會笑了。

Mira Murati:我認爲這是一種擴展創造力的工具,我們希望電影行業的人們,無論在哪裏的創作者,都能參與其中,告知我們如何進一步開發和部署它。此外,當人們貢獻數據等時,使用這些模型的經濟學是什麽。

記者:從所有這些技術中可以清楚地看出,技術將很快變得更快、更好,而且廣泛可用。到時,怎麽將真實視頻和 AI 視頻區分開?

Mira Murati:我們也在研究這些問題,包括給視頻加水印。不過我們需要先搞清楚內容來源,人們如何區分真實內容、現實中發生的事情和虛假內容,這也是我們還沒有部署這些系統的原因,大規模部署之前要先解決這些問題。

記者:有你這些話就能安心點了。不過,人們還是非常擔心矽谷籌集資金創造 AI 工具,還有他們對金錢和權利的野心會危及人類的安全。

Mira Murati:平衡利潤和安全並不是真正的難題,真正困難的部分是搞清楚安全與社會問題,這是我堅持下去的真正原因。

記者:這個産品確實讓人驚豔,但也引發不少擔憂,我們也討論過了,真值得嗎?

Mira Murati:絕對值得。AI 工具將擴展我們的知識和創造力、集體想象力、做任何事情的能力。在這個過程中,找到將 AI 融入日常生活的正確道路,也是極其困難的,但我認爲這絕對值得一試。

AI 時代,第一是人才,第二是數據,第三是算力。OpenAI 在儲備了衆多人才的同時,該如何解決數據問題,還需要時間給出答案。---[機器之心報導*機器之心編輯部/來源: 機器之心Pro]

原視頻鏈接:https://www.youtube.com/watch?v=mAUpxN-EIgU