吴忠 调查 厅局 图片站 问政 桂刊
政务 社会 体育 通讯员 娱乐 爆料
红豆社区 红豆村 博客 漫画  3C  交友 汽车 保险
红豆相亲 房产 健康 理财 会展 商城 新知 游戏
柳州 梧州 防城港 
玉林 百色 北海  
 
专家警告称:AI的毁灭性超核弹十倍
http://xiansano.cn  2019/5/7 0:43:29  

专家警告称:AI 的毁灭性超核弹十倍

专家称,人工智能的潜在危害超过核弹十倍,需要国际联盟共同监管。

腾讯科学讯,据英国《每日快报》报道,最有希望的美国总统候选人 Zoltan Istvan 警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧。

许多专家都对于研发人工智能提出了警告,因为它事实上能够让人类遭到淘汰,因为它们能够取代我们的工作,而且最终把我们视作一种障碍。作为超人类主义者,Istvan 先生希望能够通过科技将人体与机器融合,彻底改变人类和人类的体验。他声称人工智能将被用于军事领域,而且比核弹的研发更值得注意。

Istvan 先生对《每日快报》记者称:“如果我明天成为了总统,我会投入大量的资源进行人工智能的研发,因为我发现无论谁最早控制人工智能或者控制最聪明的人工智能,或许都将很快在全球军事领域占据领先地位。”

他声称:“如果你的机器能够编写病毒或者黑入其它任何机器,那么你就比其它任何政府都拥有明显的优势。无论谁首先获得人工智能,都将最终成为世界领袖。当美国在日本投下原子弹的时候就改变了军事格局。而第一个批人工智能将是日本核弹爆炸的五到十倍威力。”

他认为全世界政府应当成立一个联盟来研发人工智能,因为这项技术需要小心翼翼的进行监控。Istvan 先生称:“对我来说,一个民主国家首先研发人工智能是非常重要的,因为我们需要让它成为一种民主力量,而非一种军事力量。”

当问及人工智能是否有可能反叛人类时,Istvan 先生回应称:“这就是为何我认为成立一个国际联盟来研发人工智能才是最佳选择的原因。我并不清楚未来会发生什么,人工智能能够一晚上自我升级十次,那样就会比我们人类还要聪明。它会给军方甚至是全人类都带来巨大的问题。”


相关阅读:
山西电梯回收 http://guoyangwuzi.com/
请选择您看到这篇新闻时的心情
0
0
0
0
0