欢迎光临GGAMen游戏资讯




要是人工智能杀了人,我们应该怪谁?

2024-11-24 205

关于人工智能伦理问题,特别是涉及到开发机器人武器之类的问题,我们已经讨论过很多次了。实际上,之前我们更多是把人工智能作为一种人类已知威胁来展开讨论的。那些喜欢电影《魔鬼终结者》的粉丝应该对它的情节还记忆犹新吧,片中人工智能“天网”希望终结人类,如果这一幕真的发生,那么我们现在讨论什么监管啊、责任啊,似乎都毫无意义。但所谓千里之堤毁于蚁穴,尤其在法律哲学家 John Donaher 的眼里,如果能够仔细思考这些问题的话,说不定会有助于减少未来可能存在的风险。

人工智能的监管与责任,其实和安全与公共福利一样,都像是硬币的正反面。监管的目的,是为了确保人工智能系统尽可能的安全;而责任,其实就是为了当人工智能系统出错时,我们可以找到可以追究问题的人,或者再说得准确一点,就是找谁可以获得法律上的赔偿。

 

应该向谁追责呢?

让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想像下,在不远的将来可能会发生这样一个场景:一辆无人驾驶牵引机原本应该按照指令在 A 农民的田里播种,但是奇怪的是,它却把种子播种到了 B 农民家的田里。

让我们先假设 A 农民是完全按照操作手册来使用那辆无人播种牵引机的,同时,我们也假设 A 农民无需再做其他额外的操作,比如在农田交界处设置无线电信标等。那么现在,假设农民 B 要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?

实际上,有很多问题需要被回答,这个事故是农民 A 的责任吗?可能不是;那么,是无人播种牵引机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些问题相关的责任和标准呢?比如无人播种牵引机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作物,这是否算是财产损失,又是否能否追溯经济赔偿呢?

在一连串问题之前,我们其实是先假定了无人播种牵引机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由协力厂商开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?

随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会产生更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。

为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种牵引机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,最终的结果就是没人承担责任!

 

责怪人工智能机器人

为什么我们不干脆去责怪机器人呢?毕竟,关于人工智能人格也有过讨论,而且人工智能系统本身也有担负刑事责任的可能。

但是,这种方法在实际应用时又有什么不一样呢?这里,还是借用别人曾经说过的一句话吧。“人工智能系统真的会像著名小说家艾萨克·阿西莫夫笔下的机器管家那样吗?遵守法律,遵从道德良知,还能保护银行存款?”

我们姑且不去讨论人工智能系统是否可以被起诉,但人工智能制造商和开发商们必须受到监管。只有这样,才有可能将一些无法归责的各方,用严格责任赔偿(注:严格责任赔偿是指只要造成了损害,不论行为人有无过错,都要承担赔偿责任。 常见的适用于无过错责任原则的,有从事高压、剧毒、高速、放射等作业造成他人损害的。工伤是典型的适用无过错责任原则的,也就是说只要劳动者在工作期间因公受伤了,排除劳动者个人主观故意的因素之外,雇用单位无论有无过错都要承担工伤赔偿的责任的。)约束起来。

实际上,在我们的日常生活里,严格责任赔偿已经应用到了很多地方。当然除了这种责任赔偿之外,如果需要对人工智能追责,其实也可以采用无过错责任赔偿和赔偿方案池等方式。

 

规章制度

如果从监管的角度来看人工智能,那么你会发现,严格的安全标准,以及建立完善的安全认证流程也都是非常必要的。不过,如何设计一个合适的机构与流程框架,并且让这个框架得以有效运行,依然是一个非常棘手的问题。

人工智能领域复杂难懂,而且外部世界对于人工智能研发圈子普遍缺乏认识,这也就是人工智能专家需要尽快创建行业框架的原因所在。实际上,这里所说的框架,就是规章制度,说通俗些也就是游戏规则。因此,这意味着人工智能顾问委员会需要和政府一起,尽快立法,建设行业标准。

我们不得不承认,人工智能行业存在巨大的潜在效益;但是标准和流程,需要不断的创建、更新、并且执行,这样才能达到一种持续性平衡,继而最大限度地提高公共福利和安全;当然,也只有这样,才不会扼杀创新,更不会出现不必要的法律负担。

事实上,站在国家的角度上,建立任何一个法律框架或游戏规则,都必须要足够灵活,监管机构不仅需要考虑到本国利益,也要从全球角度出发。这意味着在某种程度上,你不仅要考虑本国的人工智能产量,以权衡进口其他各国人工智能技术,同时,你还要思考该如何任何不同国家之间的安全标准和认证,必要的时候,你是否还需要遵守未来可能出现的国际条约或公约等。所有这一切,远比我们想像的要复杂得多。

因此,当我们沿着人工智能研发的道路上前行,围绕人工智能构建规章制度是必须要去做的事情,不要当一切都来不及时再后悔莫及。

现在,我们已经开始对无人驾驶汽车所涉及到的问题展开讨论了,那么未来人工智能还需要受到哪些法律法规的约束呢?

  • Who Do We Blame When Artificial Intelligence Systems Go Wrong?

(本文由 雷锋网 授权转载)

2019-03-23 23:32:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技资讯 游戏头条 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 新闻网 ggamen游戏财经 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 游戏头条
0