您现在的位置:首页 > 解读 > 正文

人类会如何灭亡?霍金的这三种警告引人深思

时间:2023-04-11 12:55:35    来源:中华网看看头条    


(资料图片)

有生就有灭,宇宙万物都会有灭亡的一天,甚至包括宇宙本身。那么我们人类又会如何灭亡呢?伟大的理论物理学家史蒂芬·霍金对这个问题总是直言不讳,探讨了人类灭亡的多种可能性,其中谈得最多的是“人工智能”、“人类冲突”和“外星文明”。

1.人工智能

霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是“人类历史上最严重的错误”。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说“AI的全面发展将导致人类的终结!”霍金的这个观点不无道理,获得了很多精英人士的支持,其中“现实版钢铁侠”埃隆·马斯克就曾声援称“AI是人类生存最大的威胁!”

霍金对AI的威胁最到位的一句评价是——“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”

标签:

相关新闻

凡本网注明“XXX(非现代青年网)提供”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和其真实性负责。

特别关注

热文推荐

焦点资讯