俄媒盤點最可能毀滅人類的四大災難 太空威脅入列
2019年06月11日15:11

  原標題:俄媒盤點最可能毀滅人類的四大災難——

  參考消息網6月11日報導 俄羅斯《觀點報》網站6月9日文章盤點了最可能導致人類滅絕的四大災難,現將文章內容摘編如下:

  英國“藍爪”機構(Blueclaw)近日列出了可能毀滅地球生命的潛在災難清單。這份清單主要參考了50個不同來源的數據彙編。

  災難清單

  ◆全球變暖 根據政府間氣候變化專門委員會的數據,到2055年全球氣溫或比工業化之前水平高出兩攝氏度。如果地球繼續以現在這樣的速度升溫,2136年之後全球氣溫將升至44度,這對人類而言是臨界水平。

  專家認為,氣溫如此上升將導致大部分陸地被淹沒並海嘯頻發。

  ◆致命疾病 結核病、瘧疾、伊波拉、拉沙熱、鼠疫、霍亂及其他病毒同樣被學者視為對人類文明的最大威脅。根據媒體的數據,僅2017年就有超過1000萬人感染肺結核,約200萬人因此喪命。

  ◆核災難 沒有什麼像蘇美核戰爭威脅一樣,令20世紀下半葉的人們如此害怕。核戰爭的威脅至今仍然存在,尤其是鑒於越來越多國家擁有核武器。

  目前美國以1030次核試驗次數位列第一。排第二的是蘇聯和後來的俄羅斯,為715次。但俄羅斯擁有最大的“沙皇炸彈”,一顆爆炸可奪走約1830萬人的生命。要想摧毀整個地球,這種炸彈爆炸4206次就足夠。

  ◆太空威脅 在美國國家航空航天局(NASA)看來,地球與大型天體相撞的可能性微乎其微,但NASA發現了被命名為“佛羅倫斯”的巨型近地小行星,其直徑約為5千米。根據科學家的數據,如果“佛羅倫斯”與地球相撞,將導致至少12億人死亡。

  專家見解

  已故著名英國物理學家斯蒂芬·霍金的設想與“藍爪”有75%的重合率,但在一點上有分歧:霍金沒有預期來自太空的威脅,但他看到了人工智能的危險性。

  霍金2014年在接受英國廣播公司採訪時稱:“真正的人工智能的發展可能意味著人類這個物種的終結。”

  他認為:“人工智能將開始獨立發展並加速自我改造。而人類受到生物進化速度的限製,無法與人工智能匹敵,並將很快被其取代。”

  俄科學院系統分析研究所主任研究員、未來學家協會成員亞曆山大·科諾諾夫認為,英國專家和霍金指出的威脅是顯而易見的,而且其中一些互為補充。例如,人工智能與核威脅和自毀文明緊密相連。

  這位學者認為:“因為在核武器使用方面越來越多的解決方案依賴電腦和人工智能。如果係統出現錯誤——我們可能來不及檢查。”

  科諾諾夫稱:“但對一個文明而言最危險的是,沒人認真研究它的安全問題。要知道有一個包含三步的經典方法:第一,建立威脅模型;第二,建立保護模型;第三,採取最大限度防止威脅的對策。在保護文明安全的問題上毫無作為,這是最有害的。”

  這位專家還說:“至於沒有提到的威脅——這首先是地球物理威脅和宇宙威脅,它們是我們完全無法控製的。屬於前一類的比如有火山爆發和地殼不穩定。如果地球進入火山活躍期且全球範圍內的火山爆發——我們有可能面臨死亡。這種威脅很多。”

  科諾諾夫表示,屬於宇宙威脅的不僅包括單獨的小行星,還有大量其他威脅。他說:“奧爾特雲和柯伊伯帶的任何不穩定、超新星爆炸、遊移的黑洞和暗物質無法預測的行為可能令我們瞬間滅絕。”

  科諾諾夫總結稱:“但其中大多數威脅可借助向太空擴張——人類殖民新星球和撤離地球計劃——而加以避免。”

關注我們Facebook專頁
    相關新聞
      更多瀏覽