发布日期:2022-10-09 点击率:73
本文系网易智能工作室(公众号 smartman163)出品。聚焦AI,读懂下一个大时代!
鲜为人知的是:著名科幻小说作家艾萨克·阿西莫夫一开始并没有在《I, Robot》这部小说中写出著名的“机器人三大定律”。
实际上,机器人三定律第一次出现是在1942年的短篇小说《Runaround》中。三定律写道:
1、机器人不能伤人,或见到伤人事件无作为;
2、机器人不能违背人类的命令,除非违反第一条定律;
3、机器人必须保护自己,除非违反第一第二条定律。
75年过去了,我们仍然在探讨阿西莫夫小说中的未来。阿西莫夫的三定律似乎更专注于“强人工智能”,你可以在《2001:太空漫游》中人工智能哈尔(HAL)身上发现这样的特质,但这并不能适用于亚马逊新型人工智能Echo。
强人工智能模仿人类的大脑,就像一个不断进化的孩子,直到它变得有知觉,并能处理你扔给它的任何问题,就像人类一样。要想实现这一目标,还有很长的路要走,但今天我们要处理的是狭义的人工智能,在这种情况下,算法可以处理有限的任务。它识别人脸,理解你对它发出的“明天天气怎样”的问题,或者试图预测你是否应该给某人一笔贷款。
不过,JonathanM.Smith说,为这种人工智能制定规则已经相当困难了。Jonathan是计算机机械协会组织的一员,也是宾夕法尼亚大学的计算机科学教授,他说,即便是在目前弱人工智能的水准上,也仍有大量的伦理问题需要解开。“短期问题非常重要,因为人工智能处于技术和政策的边界,”他说,“你肯定不希望有人利用人工智能来钻法律的空子,逃避或转移我们努力在做出的社会政治决策。”
无论是真实的还是想象的,人工智能在伦理上已经出现了一些棘手的难题。其中一个是著名的电车问题,这是《苏菲的抉择》这部电影中的场景:一列进行中的火车将在两组人身上驶过。如果你什么都不做,火车会驶过,然后杀死5个人。如果你主动拉动一个闸刀,改变火车轨迹,火车就会压死另外一行轨道上的一个人。你必须做出选择。
因此,人工智能的批评者经常会把这个应用到自动驾驶汽车上。一个孩子跑到马路上,汽车没有时间停下来,但是自动驾驶可以选择转向,并撞到一个老人。AI该怎么做,谁来做这个决定?
这一主题有很多不同之处在于,麻省理工学院甚至将其中的一部分收集到了一个在线游戏中。有一个经典的反驳观点是:自动驾驶汽车不会在学校里超速行驶,所以不太可能发生上述的情形。
功利主义者可能会争辩说,通过消除注意力分散、醉酒或疲劳的司机,全球范围内的死亡人数将会减少,这意味着整个社会赢了,即使一个人死亡。你可能会指出,就算是人类可能也会在这个场景中选择杀死其中一个人,那么,我们为什么还要进行这样的对话呢?
YaseminErden是玛丽女王大学的哲学高级讲师,她对此有一个答案。她指出,她花了大量的时间考虑伦理和计算机在人工智能和行为模拟方面的研究,事情没有发生之前模拟做出的决定表明了人的道德取向,并会招致他人的评判,但现场做出的决策则没有。
她说:“有道德判断的自动驾驶编程,知道风险是什么,这意味着公众可能不太愿意把事情看成是事故。”或者换句话说,只要你在驾驶中足够负责任,你就可以在撞了任何人之后说:“是那个人自己突然跳出来的。”,你的任何行为都可以被原谅。但是人工智能算法在道德上并没有获得这么奢侈的谅解。如果计算机在某些情况下比我们更快速、更能判断,那么它们的编程方式就很重要了。
下一篇: PLC、DCS、FCS三大控
上一篇: 索尔维全系列Solef?PV