超级AI可能控制整个世界,霍金马斯克“押中”?

导读:近日,根据相关媒体报道,人工智能一直取得更大的进步,一些科学家和哲学家对不可控制的超级智能AI的危险发出了警告。 说起AI威胁论,不由想到霍金和马斯克。 此前,霍金曾表示,人工智能的崛起可能是人类文明的终结,霍金还呼吁人们必须建立有效机制尽早识...

近日,根据相关媒体报道,人工智能一直取得更大的进步,一些科学家和哲学家对不可控制的超级智能AI的危险发出了警告。

说起AI威胁论,不由想到霍金和马斯克。

此前,霍金曾表示,人工智能的崛起可能是人类文明的终结,霍金还呼吁人们必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。

除此之外,霍金还将人工智能的威胁分为两种,分别是短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。

值得一提的是,现如今霍金所提到了短期威胁基本已经“实现”,但是并不普及。

而关于马斯克,他曾表示,AI曾会在未来取代人类,这也是为什么他致力专注于脑机接口方面,其中,他认为利用某些连接到人类大脑的高带宽接口,有助于实现人类和机器智能的共生系统,并可以解决控制问题和实用问题。

而在外媒的报道中,国外研究团队曾用计算证明,控制超级智能AI很可能难以实现,不仅如此,甚至表示现如今一些机器能够完成某些重要的任务,但是程序员并不完全了解它们是怎么做到的。

在研究的过程中,研究团队还曾构思了一种论遏制算法,其主要的目的是为了模拟AI的行为被认为是有害的情况下,人们能够进行阻止,以保证伤害到人类。

但是结果并不理想,分析中显示,在目前的计算范式中,这种算法是无法建立的。

现如今社会的发展十分的迅速,AI的到来有利有弊,而无论是利大于弊或者是弊大于利,我们都要怀着正确的眼光去看待,而不能一昧的只是看到AI的某一点。

但是不可否认的是,当一项技术过于的成熟再者加上了主观意识,确实会按照什么样的事态发展是人们很难预料得到的。

最后,关于这件事情,你还有什么看法?

欢迎点赞留言关注,第一时间不迷路知道新鲜科技资讯。

(本文图片均来源于互联网,如有侵权请联系删除)