到目前为止,任何遵守法律的机器人始终严格按照其代码运行。致命事故和严重伤害通常仅是由于人为事故或安全系统和障碍物使用不当而发生的。我们尚未真正测试我们的法律将如何应对更复杂的自动化技术的到来,但是那一天并不遥远。人工智能已经以许多不可见的实用方式渗透到我们的生活中。在机器革命令人着迷的同时,这将对到处的人类造成伤害,而具体化的人工智能系统可能对立法者构成最重大的挑战。

按照不变的代码运行的机器人是一回事,多年来造成了许多人死亡和事故-不仅在工厂而且在手术室也是如此。不断学习的机器是完全不同的前景-提出解决该问题的法律很可能是渐进的事情。

  新兴机器人行为和责备比赛

新兴的行为将使机器人比以往任何时候都更加有效和有用。突发行为的潜在危险是它是不可预测的。过去,机器人是为设定任务编程的,仅此而已。紧跟安全壁垒并遵守既定规程可以确保操作员安全。

丰富的人工智能将改变这一切。制作一个能够安静地越来越好地分析大量数据的计算机程序是一回事,但是谁又知道物理化的AI接下来将要做什么呢?从定义上讲,设计人员不会-整个观点是机器人可以自己学习,那么我们如何立法制定安全和责任制呢?

让我们将人工智能和机器人视为单纯的产品。在某些方面,您可以将这些产品与火车和汽车等过去的新技术进行比较。汽车制造商如果生产不安全的车辆,可被起诉。但是,您不能仅仅因为您以100英里/小时的速度行驶并杀死一名行人而起诉制造商。此类产品的制造商和用户都需要以不同的方式负责。

M拥有超过33年为受他人伤害的人工作的经验,但他说机器人是一个新概念,肯定会使索赔变得更加复杂:“制造商目前受到产品责任法的起诉因产品缺陷或虚假陈述而对财产或人员造成的损害。产品责任法的麻烦在于它不是黑白相间的,配备AI的机器人将使情况更加混乱。从现状看,如果制造商要继续进行合理的自由创新,就必须有所作为。”

  责怪用户,责怪制造商还是责怪机器人?

让我们看一个假设的例子。我们将在将来的某个环境中考虑一个负责洗车的机器人。制造商创建它的目的是学习越来越有效的清洁车辆的方法。机器甚至可以为此重写其算法。一年之内,机器人在发生事故时的工作速度更快,更好,并且超出了所有预期。驾驶者由于这一不幸而受了重伤,但是谁在过错呢?

在美国,此类事件可能会导致基于过失或设计缺陷的民事案件。可能会争辩说,产品的任何用户都有权获得安全且不受体验伤害的权利。对于原告而言,制造商可能会显得很粗心,原告只想洗车并相信技术可以安全地完成这项工作。用户真正需要避免的所有责任就是将产品用于预期目的。

产品责任法全都在于归咎于责任,但在这种情况下谁真正犯了错?毕竟,这是一台不断学习的机器,结果是不可预测的。制造商并没有试图掩盖这一事实,在任何行销活动中都可能突出这一事实。将机器人的环境和学习能力归咎于制造商,这是公平的吗?这是无法预见的吗?也许还可以说,在事故发生时,机器人已经按照它自己编写的算法进行工作-那么我们应该怪机器人吗?

至少可以说,这是一个灰色区域。最终,制造商选择出售一台自学机器,并从这项技术中获利。如果产品的性质造成损害,也许他们需要承担一些冲击。但是,如果公司无法在法律诉讼风险与利润之间取得平衡,则存在一个非常现实的危险,即进展可能会大大减慢甚至停止。事实是,尽管人工智能相对较新,但它对立法者提出的问题却并非如此。

体现出来的AI不会是产品责任法律第一次符合全新的产品类型。

  历史上的新技术和立法

在18世纪末和20世纪初,汽车引起了混乱,但逐渐受到管制。没有人知道如何在汽车推出时立法—因为没人知道会发生什么。问题开始出现后,问题就得到解决。例如,只有在成千上万的人被杀之后,才出现了违反马术的法律。

只有时间能告诉我们二十一世纪的立法者如何应对AI和紧急机器人行为。似乎唯一清楚的是,这不会是社会最后一次需要采用新技术。
想了解更多关于人工智能的信息,请继续关注教育。