[摘要] 霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版。他在書中認為,技術奇點之后超級智能將出現,人類經過基因編輯之后成為超人,未來人類將到星系開疆拓土,新生命形式的星際旅行機器會出現。
霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版西安車牌識別公司。他在書中認為,技術奇點之后超級智能將出現西安專業車牌識別系統,人類經過基因編輯之后成為超人西安公司車牌識別,未來人類將到星系開疆拓土西安辦公室考勤車牌識別,新生命形式的星際旅行機器會出現。
“我在這個星球上過著不平凡的生活西安軍用車牌識別,同時用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠的地方,進入了黑洞,回到了時間的起源西安立方車牌識別。在地球上,我經歷過高潮和低谷,動蕩和和平,成功和痛苦西安安全車牌識別。我富有過,貧窮過,我健全過,殘疾過。我受到過贊揚也受到過批評,但我從未被忽視西安密碼車牌識別。”霍金逝世7個月后,他生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在書中寫的自白。
不同于經典著作《時間簡史》西安員工打卡機,這本最新的著作重點關注目前地球上所有人都將面臨的幾個重大挑戰監獄車牌識別,包括人工智能的發展、基因編輯技術、氣候變化、核戰爭的威脅等等。這部書由《萬物理論》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne和2017年諾貝爾物理學獎獲得者Kip Thorne做前言介紹,霍金女兒Lucy Hawking做后記?;艚鹪跁性噲D回答幾個問題:人類會在挑戰之下活下來嗎?我們應該在太空中殖民嗎?上帝真的存在嗎?
在亞馬遜Kindle版的介紹中,給出了這樣的評價:對世界來說,“Brief Answers to the Big Questions”是這位偉大的物理學家最給出的最后信息。
創造AI可能是人類歷史上最后一個大事件
人們很容易把高度智能機器的概念當作科幻小說來看待,但這將是一個錯誤,而且可能是我們有史以來犯的最嚴重的錯誤?;艚鹫J為,當AI在人工智能設計領域變得比人類更優秀,以至于它可以在沒有人類幫助的情況下遞歸地自我改進時,我們可能會面臨一場智能爆炸,最終導致機器的智能遠遠超出我們。
機器智能跟人類的差距有多大?霍金說,這種差距甚至比人類超過蝸牛的還要大。當這種情況發生時,我們需要確保計算機有跟我們一致的目標。
迄今為止,人工智能的原始形式已被證明非常有用,但霍金擔心,如果創造出一種能與人類匹敵或超越人類的東西,后果將不堪設想。人類受到緩慢的生物進化的限制,無法競爭,將被取代。在未來,人工智能可以發展出自己的意志,一種與我們的意志相沖突的意志。
霍金認為,創造人工智能將是人類歷史上最大的事件。不幸的是,它也可能是最后一個,除非我們學會如何規避風險。
技術奇點之后超級智能會降臨
數學家Irving Good在1965年提到,擁有超人智能的機器可以不斷地進一步改進它們的設計,科幻作家Vernor Vinge把這種進化稱之為技術奇點。我們可以想象,這種技術會超過金融市場,超過人類研究人員的發明,超過人類領導人的操縱,甚至可能用我們甚至無法理解的武器制服我們。人工智能的短期影響取決于誰來控制它,而長期影響則取決于它能否被控制。
在中期,人工智能可能會使我們的工作自動化,帶來巨大的繁榮和平等。展望未來,可以實現的目標沒有根本的限制。一個爆炸性的轉變是可能的,盡管它可能會以不同于電影的方式上演。簡而言之,超級智能人工智能的出現要么是人類有史以來最好的事情,要么是最糟糕的事情。人工智能真正的風險不是惡意,而是能力。
一個超級智能的人工智能會非常擅長實現它的目標,如果這些目標與我們的不一致,我們就有麻煩了。你可能是憎恨螞蟻,也不出于惡意踩死螞蟻,但如果你負責一個綠色水電能源項目,而該地區有一個蟻丘要被淹沒,這種情況下對螞蟻來說實在太糟糕了。因此,人類不要成為AI的螞蟻。
不要覺得這種擔憂很可笑,舉例來說,如果一個高級外星文明給我們發了一條短信,說:“我們再過幾十年就會到達”。我們會不會只是回復說:“好吧,你來的時候給我們打電話,我們會讓燈一直亮著。”外星人可能不會來,但這很可能是會發生在人工智能身上的事情。
近期最擔憂:各國開發自主武器系統
雖然霍金自己是一個眾所周知的樂觀主義者,但他不確定這種樂觀能持續多久。例如,在短期內,世界各國軍隊正在考慮在自主武器系統中展開軍備競賽,以選擇并消滅自己的敵人。
當聯合國正在討論一項禁止此類武器的條約時,自主武器的支持者通常忘記問一個最重要的問題:軍備競賽可能的終點是什么?這對人類來說是可取的嗎?我們真的希望廉價的人工智能武器成為未來沖鋒槍,在黑市上賣給犯罪分子和恐怖分子嗎?考慮到人們對我們長期控制越來越先進的人工智能系統的能力的擔憂,我們是否應該武裝AI,并將我們的防御力量交給AI?
因此說,現在是停止自主武器軍備競賽的最佳時機。
星際擴張也許是人類拯救自己的唯一辦法
霍金認為,在未來1000年的某個時間點,核對抗或環境災難將使地球癱瘓是不可避免的。到那時,霍金希望并且相信,人類這個聰明的種族將會找到一種方法來擺脫地球上粗暴的束縛,從而在這場災難中幸存下來。
目前,除了地球人類無處可去,但從長遠來看,人類不應該把所有雞蛋都放在一個籃子里,或者放在一個星球上?;艚鹣M谌祟悓W會如何逃離地球之前,能避免掉下籃子。并且,離開地球需要一個協調一致的全球方式——每個人都應該加入。人們需要重新點燃20世紀60年代早期太空旅行的激情。
現在,太空探索技術幾乎在人類的掌握之中,因此,是時候探索其他太陽系了。星際擴張也許是唯一能把人類拯救自己辦法。
本世紀出現基因編輯后的超人
另一方面,人類沒有時間等著達爾文的進化論讓我們變得更聰明、更善良。人類現在正進入一個新的階段,這個階段可能被稱為“自我設計進化”——人類將能夠改變和改善我們的DNA。
首先,這些變化將局限于修復遺傳缺陷——例如囊性纖維化和肌營養不良,它們由單個基因控制,因此很容易識別和糾正。其他的品質,比如智力,很可能是由大量的基因控制的,而要找到它們并找出它們之間的關系就會困難得多。但也不是不可能?;艚鸫_信在本世紀人們將會發現如何修正智力和本能,比如攻擊性。因此,他預測反對人類基因工程的法律可能會通過。但有些人無法抗拒改善人類特征的誘惑,比如記憶力大小、抗病性和壽命長短。
一旦人們嘗試這種“誘惑”,就會出現超人。一旦這樣的超人出現,那些無法與之競爭的人類將面臨重大的問題,他們將會消亡,或者變得不重要。相反,那些靠自我設計改變基因的人,會以越來越快的速度提升自己。從這個角度講,如果人類能夠重新設計自己,也很可能會擴展到其他星球。
新生命形式的星際旅行機器會出現
然而,長距離的太空旅行對于以化學為基礎的生命形式來說將是困難的,與旅行時間相比,人類這種生物的自然壽命很短。根據相對論,人類到達星系中心大約需要10萬年。在科幻小說中,人們通過太空扭曲或者穿越維度來克服這個困難。但霍金認為這些都不可能實現,無論生命變得多么聰明。
而未來還可能出現一種更簡單的方法——幾乎已經在我們的能力范圍內——設計出能夠持續足夠長的機器用于星際旅行。當人們到達一顆新恒星時,他們可以在合適的行星上著陸,開采出更多的物質來制造更多的機器,這些機器可以被送往更多的恒星。這樣的機器將會是一種新的生命形式,基于機械和電子元件而不是大分子。它們最終可能取代以DNA為基礎的生命,就像DNA可能取代了早期生命一樣。
宇宙中還有其他智慧生命嗎?這個問題爭論已久。如果存在外星生物,那為什么我們沒有被拜訪過呢?霍金提出了幾種可能。
形成自我復制系統的可能性是合理的,就像細胞一樣,但這些生命的大多數形式并沒有進化出智力。我們習慣于認為智能生命是進化的必然結果,但如果不是呢?更有可能的是,進化是一個隨機的過程,智力只是眾多可能結果中的一個。甚至不清楚智力是否有任何長期的生存價值。如果地球上所有其他生命都被我們的行為所消滅,細菌和其他單細胞生物可能會繼續生存。
從進化的年表來看,也許智力對地球上的生命來說是不太可能的發展,因為從單個細胞到多細胞生物需要很長時間——25億年——這是智力的必要前體,所以這與生命發展智力的概率很低的假設是一致的。在這種情況下,我們可能期望在銀河系中找到許多其他的生命形式,但我們不太可能找到智慧生命。
另一種無法發展到智能階段的生命可能是小行星或彗星與行星相撞。一部分觀點認為,大約6600萬年前,一個相對較小的天體與地球相撞,導致了恐龍的滅絕。一些早期的小型哺乳動物幸存下來,但是任何像人類一樣大的動物幾乎肯定會被消滅。
還有一種可能性是,生命有合理的可能性形成并進化為智能生物,但系統變得不穩定,智能生命毀滅了自己。這將是一個悲觀的結論,霍金說,我希望這不是真的。
他更傾向于第四種可能性:我們忽略了其他形式的智慧生命。在我們目前的階段,與一個更先進的文明相遇,可能有點像當初的美洲居民與哥倫布相遇,霍金認為對方會因此而更現先進。
|