欢迎光临GGAMen游戏资讯




看人工智能的未来,霍金:人类社会要避免成为被淹没的蚁丘

2024-12-23 210

普立兹巨作《枪炮、病菌与钢铁:人类社会的命运》作者贾德·戴蒙,认为世界会变成这个样子,是十六世纪开始人类利用资源优势掠夺、占领而来,现在的自由关税协议,只是以比较文明的方式解决,但自始自终都是全球化的一环,然全球化只会嘉惠优势一方,现在又在科技推波助澜下,更加深社会不平等隐忧。

英国著名物理学家史蒂芬·霍金在一场论坛中,被问及如何看待未来机器人对人类社会造成的影响。他悲观的认为,机器人只会让人类社会更不平等,穷人更无法翻身。他被问及几个问题,包括发展人工智能需要多久、当人工智能变聪明时会怎样、为何担心人工智能、是否想过工作被机器人取代的技术性失业等等。

首先,相同人类水平智慧的人工智能要花多久时间发展,他说:“目前没有共识,所以请不要相信某些人信誓旦旦的说,人工智能这辈子内会发生或是不会的说法。”且他认为就算最终发生了,对人类不是带来最好的影响,就是最坏的影响,所以得到权力会带来巨大价值。

如果人工智能也可如人类一样演化变得更聪明,我们可能会面临“智慧爆炸” (intelligence explosion),最终导致机器的智慧超过我们,且超过的程度大于人类比蜗牛的程度。

“智慧爆炸”是 1965 年统计学家 I.J. Good 于 1965 年提出,当时他说,二十世纪内人类就会设计出远超过任何智力的超级机器,超级智慧机器就会生产更优良的机器,之后必定出现“智慧爆炸”,人类智慧会被远远抛在后头。霍金也赞同这样的推测。

霍金担心人工智能的原因是,他认为人工智能真正的风险不是恶意,而是竞争。他举例,“你或许不是一个讨厌蚂蚁的人,但是如果你负责的是水电绿能计划,这项工程会淹没区域内的蚁丘,这对蚂蚁来说就是一场灾难,我们要避免自己成为那些蚂蚁。”意思就是说,人工智能会完成任务,但如果手段与人类不一致,那就完蛋了。

关于机器人取代人类工作造成技术失业问题,霍金认为这要看资源如何分配。他说,“如果机器创造的财富是共享的,那么每个人都能享受奢华生活,如果机器拥有者成功游说反对财富重新分配的话,大部分的人会终其一生贫穷。随着科技加深不平等,现在看来趋势是往不好的方向走。”

人工智能对人类社会是否是个威胁。霍金认为,虽然人工智能设计目的不是演化,而是完成目标,但是未来人工智能仍会发展出生存驱动力,并需要更多资源来完成目标,因为生存与拥有更多资源可增加完成其他目标的机会,这对人类而言就会产生问题,因为人类的资源会被抢走。

I.J. Good 当时提出智慧爆炸的可能性时,就说人类制造人工智能应该适可而止,他说,“第一台超级智慧机器是人类需要完成的最后一项发明,前提是这台机器足够听话,会告诉我们如何控制它。”

  • Stephen Hawking: Robots aren’t just taking our jobs, they’re making society more unequal

(首图来源:flickr / Lwp Kommunikáció CC BY 2.0)

2019-03-23 18:30:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 资讯头条 游戏头条 ggamen 科技新闻 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0