不要暴露、放棄AI、儘快搬離地球!霍金的這些忠告究竟有何深意?
不要主動尋找外星人!儘量加快搬離地球的速度!放棄研發人工智能,否則會給世界招致毀滅。以上,就是已故物理學家斯蒂芬·霍金,留給世人的三大忠告。
也許你會覺得,他的說法難免有些小題大做,甚至是危言聳聽了。但你又是否想過,假如他的這些擔心終成現實的話,世界又將變成什麼樣子呢?
如果你對地外文明感興趣,那麼就一定聽說過SETI這個名字。它是一個,利用全球的聯網計算機搜尋地外文明的實驗計劃。自其1999年成立至今,始終在不懈的搜尋宇宙中的可疑信號。並期待着某天,會與某個遙遠的地外文明不期而遇。
但霍金卻認為,這樣做太危險了。任何出現在地球的外星文明,其科技和智慧水平,都將是人類難以企及的。
它們的到來,無疑會與數百年前,哥倫布登陸美洲大陸時別無二致。所帶來的,只會是死亡和毀滅。
另外,霍金還認為,我們不能只把自己局限於地球。目前,無論氣候變化、資源枯竭、人口增長等現實問題,都將會成為制約人類發展的關鍵。
因此在他看來,我們應該儘快搬離這裡,並通過星際移民,去往其他行星播撒文明的種子。這,才是保證人類能夠長期存在的最佳途徑。
不僅如此,他還建議不要去開發人工智能。因為,這很可能會最終給人類招致毀滅。根據霍金的說法,隨着人工智能的迭代,它們最終可能會發展出自我意識。一旦失控,我們如今在科幻電影中見到的那些恐怖場景,都將在未來變為現實。
儘管現在,人工智能的水平還遠未具備如此恐怖的能力。但隨着不斷的自我學習和完善,它們終將會有超越人類智慧的那天。屆時,整個地球未來結局的掌控者,也將就此易主。
當然,霍金的忠告並沒有阻止人類探索的步伐。如今,無論尋找地外文明,還是開發人工智能,都在按部就班的進行着。馬斯克也宣布將與NASA合作,準備開展火星移民計劃。
只是不知道對我們來說,在毀滅與離開之中。最先到來的,究竟會是哪一個!-探謎者-