钢铁侠埃隆马斯克曾撰文称:“我们需要万分警惕人工智能,它们比核武器更加危险!”
霍金则在接受英国广播公司的采访时表示,人工智能会迅速演变并超过人类,他的理由很直白,“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己”。
为何马斯克和霍金会对人工智能如此的恐惧?
因为历史可以告诉未来。
20万年前,智人登上历史舞台,尼安德特人面临的命运只有灭绝。
1492年哥伦布登上美洲大陆,美洲大陆的原住民遭受了血腥的屠杀。
众多的历史事实告诉我们,人类每到一个进化节点,进化后的种族会毫不留情地灭绝自己的创造者。
未来学家雷蒙德库兹韦尔认为“奇点时刻”到来将终结纯粹的人类文明。
所谓“奇点时刻”指电脑智能与人脑智能兼容的那个神妙时刻。
他预言“2045年”将是人类又一个“奇点时刻”
“强人工智能”时代到来,是带领人类进入更美好的未来,还是丢进历史的垃圾堆?
强人工智能时代到来,带来的利好消息是:
通俗点说,强人工智能时代将创造出:金刚狼,钢铁侠那些科幻片中的超级人类。
一个非常强大新的物种,拥有非常强大的能力,将带来:财富自由(绝对贫困不再存在)时间自由(青春永驻,永生不老)空间自由(超速旅行)
强人工智能带来的坏消息是:由于强人工智能具有自主设计,自主进化的能力,AI可能会自主进化,由于AI强大的快速迭代能力,进化速度可能远远大于“新智能人”(人机融合)的进化速度,或许会出现《黑客帝国》中那种毁灭人类超级计算机智能。
因为纯粹由AI进化出来的智能,太过强大,新智能人彻底被边缘化,没有用的物种迟早都是要被淘汰掉的。
(量子计算机。)
对于宇宙碳水化合物组成的生物体太过脆弱,而且碳水化合物组成的人脑容积有限,
从长远来看,远远不如硅基生命强大和适应宇宙环境。
未来某一天,世界将会发生以下变化。
a,生物人将不再存在。b,人类身体将超级材料化,机械化;意识将虚拟化,这都将导致永生。
对于强人工智能一个可以接受的未来是:人类和AI不会成为对立的对象,人类可能会最终会拥抱AI,蜕去这个生命体的躯壳,成为“硅基生命”,一个可不断全方位升级的生命形式,从某种意义上来讲这是现代人类的落日,也是“新智能人”的朝阳。
至于“新智能人”和纯AI之间的竞争,新智能人具有先天的优势,由于AI是人类的创造物,人类可以设计安全码控制纯AI的危险性。
人类不用担忧AI和强人工智能的融合,但要防止AI的独立进化。
- 上一篇: 人工智能“危机”,机器人竟在深圳打砸?有何铁律制约他们
- 下一篇: 人工智能的职业替代或是多虑了