发布日期:2022-05-18 点击率:16
人工智能可以学习人类社会的道德价值观吗?人工智能系统能否权衡不同人群的损害和利益之间做出决定?人工智能可以发展对与错吗?简而言之,人工智能有良心吗?
在考虑当今仅能完成非常狭窄的任务的AI系统时,这个问题听起来可能无关紧要。但是随着科学继续开辟新天地,人工智能正逐渐进入更广阔的领域。我们已经看到AI算法适用于没有明确定义好坏决定界限的领域,例如刑事司法和工作申请。
将来,我们希望AI能够照顾老年人,教给我们的孩子以及执行许多其他需要道德判断的任务。然后,人工智能中的良心和良心问题将变得更加关键。
考虑到这些问题,这些书解释了人类如何发展良知,并给出了关于我们对大脑的了解是否为认真的AI提供路线图的想法。
一位朋友建议由加州大学圣地亚哥分校的神经科学家,哲学家,埃米尔塔里塔教授(Patricia Churchland)提出良心:道德直觉的起源。丘吉兰德博士的书,以及我读完《良心》后与她的对话,使我对脑科学的范围和局限性有了很多了解。良心向我们展示了我们已经了解到大脑的物理结构和运作与人类道德观念之间的关系。但这也向我们展示了,要真正理解人类如何做出道德决定,我们还必须付出更多的努力。
对于那些对探索人类良知的生物学背景感兴趣并反思AI和良知交集的人来说,这是一本非常容易阅读的读物。
这是良知告诉我们有关人脑中道德直觉的发展的非常简短的摘要。头脑是AI的主要蓝图,对良心的了解可以告诉我们很多有关AI学习人类社会道德规范的知识。
学习系统
丘兰德在书中写道:“良心是一个人对通常是对还是错的判断,通常是(但不总是)反映出该人感到依恋的某个群体的某些标准。”
但是人类如何发展理解采用这些是非的能力呢?为了回答这个问题,当我们的第一个温血祖先出现时,丘吉兰德博士带我们回到了过去。
鸟类和哺乳动物是吸热体:它们的身体具有保持热量的机制。相反,在爬行动物,鱼类和昆虫等冷血生物中,人体会适应环境温度。
吸热的最大好处是能够在夜间收集食物并在寒冷的气候中生存。权衡:吸热的身体需要更多的食物才能生存。这项要求导致了温血生物大脑中的一系列进化步骤,使它们变得更聪明。其中最值得注意的是哺乳动物大脑皮层的发育。
大脑皮层可以整合各种信号,并提取与生存和繁殖相关的事件和事物的抽象表示。与昆虫和鱼类相反,它们的皮质使哺乳动物对气候和景观的变化更加灵活,而昆虫和鱼类则非常依赖其环境条件的稳定性。
但是,学习能力又需要权衡:哺乳动物天生就是无助和脆弱的。与蛇,乌龟和昆虫不同,它们会摔倒在地,并在破坏蛋壳时完全发挥功能,而哺乳动物则需要时间来学习和发展其生存技能。
这就是为什么他们彼此依靠生存。
大脑中复杂的皮质结构的发展引发了哺乳动物的社交行为
所有生物的大脑都有一个奖励和惩罚系统,可确保它们做出支持自己的生存和基因生存的事情。哺乳动物的大脑重新利用了这种功能,以适应社交。
丘兰德写道:“在哺乳动物大脑的进化过程中,支持自我生存的愉悦和痛苦感得到了补充,并被重新用于激发亲属行为。” “自我爱延伸到一个相关但新的领域。”
这一变化的主要受益者是后代。进化引发了哺乳动物大脑电路的变化,以奖励对婴儿的照料。母亲和某些双亲的父母竭尽全力保护和喂养后代,这通常对自己不利。
丘兰德(Churchland)在《良心》(Conscience)杂志中描述了对不同哺乳动物的大脑进行生化反应的实验,这些反应奖励了社会行为,包括照顾后代。
丘兰德写道:“哺乳动物的社交性与其他缺乏皮质的社交动物(如蜜蜂,白蚁和鱼类)在质量上有很大不同。” “它更灵活,更少自反,并且对环境中的突发事件更加敏感,因此对证据也很敏感。它对长期和短期考虑都很敏感。哺乳动物的社交大脑使他们能够导航社交世界,从而了解其他人的意图或期望。”
人脑在哺乳动物中具有最大和最复杂的皮质
在哺乳动物中,人的大脑皮层最大,最复杂。我们人类的智人大脑的大脑是黑猩猩的大脑的三倍,而黑猩猩在5-8百万年前与我们共同拥有一个祖先。
较大的大脑自然会使我们变得更聪明,但对能量的要求也更高。那我们怎么来付卡路里的账单的呢?丘兰德写道:“学会用火煮饭很可能是至关重要的行为改变,它使人参素的大脑远远超出了黑猩猩的大脑,并在进化时期迅速扩展。”
在满足人体能量需求的情况下,人参素最终能够做更复杂的事情,包括发展更丰富的社会行为和结构。
因此,我们今天在物种中看到的复杂行为,包括对道德规范和规则的遵守,起初是为生存而进行的斗争,也是为了满足能量约束的需要。
丘兰德在《良心》杂志上写道:“能源约束也许不是时尚和哲学上的,但它们像雨一样真实。”
我们的遗传进化有利于社会行为。道德规范作为对我们需求的切实可行的解决方案而出现。而且我们人类与其他所有生物一样,都受进化定律的制约,丘吉兰将其描述为“一个盲目的过程,没有任何目标,就无所不用其极。” 我们大脑的结构是无数实验和调整的结果。
丘兰德写道:“在他们之间,支持社交和自我照顾的电路,以及内部化社会规范的电路,创造了我们所谓的良心。” “从这个意义上说,您的良心是大脑的构造,通过关爱,自我和他人的本能,通过发展,模仿和学习被引导到特定的行为中。”
这是一个非常敏感且复杂的主题,尽管脑科学取得了所有进步,但人类思维和行为的许多奥秘仍未得到解决。
“能源需求在古代人类道德起源中的主导作用并不意味着必须降低礼节和诚实。这也不意味着它们不是真实的。这些美德无论从何而来,仍然对我们社会人来说是令人钦佩和值得的。他们是使我们成为人类的重要组成部分。”
人工智能与良知
丘兰德(Churchland)在良心中讨论了许多其他主题,包括强化学习在社会行为发展中的作用以及人类皮层具有的经验学习能力,反思反事实情况,发展世界模型,从相似事物中吸取相似之处。
基本上,我们使用使祖先得以生存的奖励机制,并利用分层皮质的复杂性在社交环境中做出非常复杂的决定。
“道德规范是在社会紧张局势下出现的,它们以生物为基础。学习社会实践依赖于大脑的正负奖励系统,还依赖于大脑解决问题的能力。”
阅读了良心之后,我对良心在AI中的作用有很多疑问。良心会成为人类人工智能的必然产物吗?如果能量和身体的限制促使我们发展社会规范和尽责的行为,那么对AI会有类似的要求吗?来自世界的身体经验和感官输入在智力发展中是否起着至关重要的作用?
物理经验是AI良心发展的必要条件吗?
从丘吉兰德博士的书(以及其他有关生物神经网络的研究)可以明显看出,物理经验和约束条件在人类和动物的智力发展以及良知发展中起着重要作用。
但是今天,当我们谈到人工智能时,我们主要谈论的是诸如人工神经网络之类的软件架构。当今的AI主要是无形的代码行,这些代码行在计算机和服务器上运行并处理通过其他方式获得的数据。物理经验和约束是否会成为开发真正的智能AI的必要条件,该AI还可以欣赏并遵守人类社会的道德规则和规范?
丘兰兰德博士在我们的谈话中说:“当机器的解剖结构与大脑的解剖结构非常不同时,很难知道行为的灵活程度。” “对于生物系统(奖励系统)而言,强化学习系统绝对至关重要。正负奖励的感觉对于有机体了解环境至关重要。在人工神经网络的情况下可能并非如此,我们只是现在还不知道。”
她还指出,我们仍然不知道大脑如何思考。她补充说:“如果我们要了解这一点,我们可能不必为了获得某些相同的行为而在人造大脑中完全复制生物大脑的每个特征。”
丘吉兰(Churchland)提醒说,虽然最初AI社区在很大程度上不使用神经网络,但最终在满足其计算要求时它们才变得相当有效。尽管目前的神经网络与人脑相比智力有限,但将来我们可能会感到意外。
她说:“我们现阶段确实知道的一件事是,具有皮质,奖励系统和皮层下结构的哺乳动物可以学到东西并进行泛化,”她说。“目前,人工神经网络可能非常擅长于对人脸进行分类,而对分类哺乳动物则毫无希望。那可能只是一个数字问题。
“如果您是一名工程师,并且想要取得一些成就,请尝试各种尝试。也许您确实必须有类似情感的东西,也许您可以将其构建到人工神经网络中。”
我们是否需要在AI中复制大脑的细微物理差异?
我从良心中学到的东西之一是,人类通常会与社会的社会规范保持一致,有时也会挑战自己。每个人脑的独特物理结构,我们从父母那里继承的基因以及我们一生中所获得的后来的经验,使这些细微的差异使我们提出了新的规范和思想,有时甚至违抗了先前确立的思想作为规则和法律。
但是,AI广受吹捧的功能之一是其统一的可重复性。创建AI算法时,您可以复制无数次,然后将其部署到所需的任意设备和机器中。它们都将与其神经网络的最后一个参数值相同。现在的问题是,当所有的AI都平等时,它们是否会保持其社会行为的静止状态,而缺乏细微的差异来驱动人类社会的社会和行为进步?
丘兰德说:“直到我们对生物大脑的工作原理有了更深入的了解,才真的很难回答这个问题。” “我们知道,为了从神经网络中获得复杂的结果,该网络不必具有潮湿的东西,也不必具有线粒体和核糖体以及蛋白质和膜。
“没有数据,您只是一个有意见的人,而我没有任何数据可以告诉我,您必须模仿强化学习系统中的某些特定电路才能拥有智能网络。
“工程师们会尝试看看有什么用。”
我们还没有学到很多关于人类良知的知识,甚至还没有更多地了解它是否以及如何应用于高度智能的机器。“我们不确切地知道大脑在头架上学会平衡时会做什么。但是随着时间的流逝,我们就掌握了它。”丘兰德在良心中写道。“在更大的程度上,我们不知道大脑在学会如何在一个社会复杂的世界中寻求平衡时会做什么。”
但是随着我们继续观察和学习大脑的秘密,希望我们将有更好的条件去创造能够服务于全人类的AI。
下一篇: PLC、DCS、FCS三大控
上一篇: 机器学习系统的漏洞: