自动驾驶电车难题的康德式道德决策

摘 要 自动驾驶电车难题是检验人工智能伦理可行性的一块试金石 , 面对不同情境 , 其计算程序既要作出可决定的、 内在一致的判断决策 , 又要与人类的普遍道德常识相兼容 康德义务论给出了具有普遍性与一致性的理论框架。 自动驾驶电车的道德决策可视为由计算程序执行的第三人称视角司法判决。 康德式道德决策以法权义务为基础 , 并在经验判断中纳入人性法则作为道德评价的优先法则, 能够为自动驾驶电车难题提供一种针对一切理性存在者且符合常识道德认知的解决方案。
关 键 词 自动驾驶 ; 电车难题 ; 道德决策
随着人工智能的升级发展 , 通用人工智能伦理研究成为理论关切点 什么样的伦理应当用于通用人工智能领域, 什么样的伦理可以用于通用人工智能领域 , 这是人工智能伦理研究中的两个核心问题, 前者对应人工智能伦理的选择根据问题 , 后者对应人工智能伦理的技术实现问题 自动驾驶电车难题被视为人工智能伦理的试金石, 通过检验计算化程序是否能以与人类道德规范和道德常识不相冲突的方式自洽地解决电车难题, 考察人工智能伦理的形式化法则是否具有可行性 本文借由自动驾驶电车难题, 试图论证康德义务论可以为通用人工智能伦理提供与人类道德规范和道德常识相容且技术上可实现的计算模型。

自动驾驶电车难题中的伦理问题

自动驾驶电车难题是电车难题扩展至人工智能领域的升级版 电车难题源自 20 世纪 60 年代 ,由菲利帕· 福特为了反驳功利主义的主张而提出 福特假设了这样一个场景 : 一辆电车在行驶中 ,发现前面轨道上绑着 5 个无辜的人 , 此时电车已经无法及时制动以避免这 5 个人伤亡 , 但可以通过轨道拉杆让电车转上另一条轨道, 可是另一条轨道上也绑着 1 个人 , 同样无法避免伤亡 在此情形下, 如果你是轨道拉杆操控者 , 作出怎样的选择才是符合道德的 ? 电车难题的天桥版本则让电车难题的伦理冲突更加尖锐: 假设天桥上的一位路人看到电车前进方向上绑着 5 个人 , 路人旁边有一形高大者,推下天桥恰恰能起到制动作用,阻止电车前进,救下轨道上被绑的 5 个人。 此时,面对 难选择的天桥路人又将如何决策? 从电车难题的司机版本过渡到自动驾驶电车难题只有一步之遥, 用自动驾驶电车的执行程序取代电车司机 , 我们面对的就是自动驾驶电车难题 自动驾驶电车难题也有一个修改版本。 当一辆自动驾驶电车在行驶中发现前面有 5 个行人 , 自动驾驶程序通过行驶数据与周围环境数据输入判断, 制动来不及 , 转向则会撞向路边的阻碍物 , 可能导致车内 1 名乘客伤亡, 此时 , 在伤害 5 个行人与保护车内 1 名乘客之间 , 自动驾驶电车应作出怎样的道德决策 ?
自动驾驶电车难题主要考查的问题是 , 自动驾驶电车配载的执行程序是否能够以符合人类道德规范的方式作出正确的选择。 在自动驾驶汽车推广指日可待之时 , 对这个问题的思考具有紧迫的现实意义。 MTurk 网站上著名的道德机器试验就是以自动驾驶电车难题为原型 , 试验中的被试者要求就 13 种两难场景作出选择 , 包括引入数量 年龄 性别 是否违规 路人与乘客 性格特征等各种比较参数。 试验的发起者认为 , 在自动驾驶电车道德规范问题上 , 不能由伦理学家单方面进行规定, 还需要得到公众的接受与认可 。 “ 任何人工智能伦理的提议都至少需要有公共道德认知 , 这一点不容否认, 但通过网络调查的实验方法并不能获知什么是公共道德 道德机器试验只能估算到公众受文化影响的道德心理偏好, 而经验中的主观心理偏好并不等同于公共道德 , 更不能成为公共道德的可靠根据。 公众的意见因囿于己见往往很难达成一致 , 受人类主观欲望影响的经验行为不能达成普遍共识, 以经验为根据的偏好 , 即使是多数人的偏好也不能成为伦理的普遍法则 ,这一点在康德对功利主义的批评中得到证明。
通过算法化把一种道德规范纳入自动驾驶执行程序 , 不仅有技术上的算法一致性问题 , 还有公意认同与商业发展问题。 对伦理算法化的网络调查显示 , 尽管人们更倾向于认为功利主义的伦理算法更道德, 但却更倾向于购买置入自保算法的自动驾驶汽车 康提萨 (Giuseppe Contissa)、 拉吉亚诺(Francesca Lagioia) 和萨尔托尔 (Giovanni Sartor) 提出设计自动驾驶的伦理旋钮 , 在自动驾驶汽车中设计利他、 利己 功利主义三个挡位 , 由个人决定执行何种道德程序 , 这虽然能在一定程度上调和道德规范与商业发展之间的冲突, 但却会带来更多伦理难题 从道德与商业价值的关系而言 ,不是商业价值决定道德, 而是道德约束商业行为 道德体现公共价值对个人行为的制约 自动驾驶伦理旋钮看似把道德的自主权留存给个人, 且不说利他挡位被选择的可能性有多大 , 其实供选择的不同伦理框架把自动驾驶道德规范碎片化, 根本无法体现道德制约个人行为的目标价值 , 且在现实中带来责任边界模糊的问题。 试问 , 利己挡位下的交通事故是自动驾驶汽车技术上的事故 , 还是挡位选择上的事故? 两者之间并不能明晰责任因果关系
电车难题中 , 作出道德判断的是具有自由意志的人类 ; 自动驾驶电车难题中 , 作出道德判断的是既定程序。 人类作出道德判断 , 可能受道德情感与道德心理的作用 , 在非道德的动机作用下 , 人类依然可能作出符合道德目的的行为决定。 相比之下 , 自动驾驶电车执行既定的计算程序 , 不具有道德情感。 韦伯把人类理性区分为工具理性与价值理性 , 计算机程序可以模拟工具理性的计算运行方式, 但无法自动生成计算理性运行的方向目标 人的道德选择可以直接进行道德归责 , 计算机程序则无法进行直接归责。 对于一辆造成事故的自动驾驶电车 , 我们除了追究自动驾驶电车公的责任,无法对自动驾驶电车本身施加任何有效的追责行为。 对于一辆违背道德常识、出现道德 择错误的自动驾驶电车, 我们首先会排查是否计算错误 , 接着会反思是否编程错误 自动驾驶电车通过既定的程序运行, 只有他律而没有自律 , 即遵循外部法则而不能自己为自己制定法则 , 即使非监督式学习算法, 也是机器模拟人类的归类形象思维作出有根据的判断输出
理想的自动驾驶电车应如同人类一般作出智能化的道德决策 当然 , 我们不能过于乐观地期望, 人工智能能够无条件地完美解决人类都无法突破的道德困境 从宽泛的意义上而言 , 一种行动是道德的, 意味着这种行为能增进社会的 而抵制社会的 ”。 康德规定普遍的法权法则 , 即“如此外在地行动 , 使你的任性的自由应用能够与任何人根据一个普遍法则的自由共存 , 可视为在共同体内定义了一种以普遍自由为根据的善, 当进入大家都遵循法权义务的法权状态 , 个人内在地可自主追求德性完善, 外在地可合法谋取生活幸福 。 AI 科学家斯图尔特 · 罗素 (Stuart Russell) 提出在充分开发人工智能之前, 先搭建人工智能治理结构 , 通过构建 AI 与人类之间的价值同盟 , 确保这项技术为人类的利益服务。 人类为人工智能设定价值航标 ,“ 如果我们把错误的目标输入比我们更智能的机器里, 机器就会实现目标 , 但我们也就失败了 人工智能不具有内生价值 , 人工智能与人类之间的价值同盟只能是一种起源于人类的价值。 智能与理性行动有关 ,“ 是智能的 意味着智能体能够在一个情景中作出判断并采取可能最好的行为。 这一最好当然包含伦理规定的最好 ,即有助于促进社会的善。 行动具有道德价值 , 道德价值的判断标准应对所有理性行为有效 , 其中既包括人类的理性行为, 又包括智能化的理性行为 , 如自动驾驶

康德式人工智能伦理的理论展开及其非完全决定性问题的应对

康德的义务论是延伸至人工智能领域的三种主要伦理范式之一 在功利主义 义务论与美德论之间, 究竟何种伦理更适合延伸为人工智能伦理 , 需要从可计算化 确定性 一致性 可普遍化等多方面考量。 从技术上而言 , 功利主义具有直观的可计算化特征 , 在问卷调查中 , 也得到更多人的认同, 但何谓功利缺乏普遍与统一的判断标准 在人工智能伦理领域 , 美德论被认为最有前景 , 通过学习算法, 道德榜样的美德可期完美模拟 , 但何谓美德并不是一个边界清晰的概念 , 机器学习依然需要被监督, 以便有根据地判断什么样的美德值得学习 , 如果这种根据只是来自多数人的经验认同, 依然缺乏坚实的理性基础 康德义务论建立在道德的普遍性法则之上 , 以定言命令为根据确保义务的一致性, 既为人工智能伦理提供统一的理论支持 , 也能扩展为人机共享的伦理规范 , 从而有助于构建通用人工智能的伦理框架。
在康德看来 , 义务起源于实践理性的自我立法 鲍威尔 (Thomas M. Powers) 康德机器的前景》 中试图论证机器生成实践理性的可能性 , 以此确保机器可以形成与人类类同的义务规定 鲍威尔指出, 康德的道德形而上学体系为康德机器奠定了三个方面的理论基础 : 一是由绝对命令保证的普遍性与一致性; 二是可用缺省逻辑表达的常识伦理知识 ; 三是通过机器学习确保伦理知识体系的连续性③ 鲍威尔的构想并没有把康德的人性法则纳入其中 , 因为系统缺乏目标导引 , 所以康德机器不得不面对义务的非完全决定性以及初始道德法则的任意性假定。 常识伦理知识作为背景知识引入机器数据库, 并不会自动生成康德所言的人性法则 , 只有理性的自我定义与自我反思才会确保人把自身作为目的而不作为手段。 机器是否能够模拟人类理性自我反思与自我立法的能力 ? 一问题的肯定回答与否定回答涉及两种不同的机器伦理图景,在科幻电影中都有表达,一种如《机 械公敌》, 一种如 黑客帝国 》。 《 机械公敌 中的 维奇 遵循人类给机器人制定的三大定律 , 以最大限度地保护人类为目标, 最终导致机器人利用人类制定的规则来规训人类 , 限制人类自由 。 《 黑客帝国》 , 机器世界拥有自己的法则与意志 , 最终导向机器人意志与人类意志在战争与和平之间的不断循环, 直至走向人类意志与机器人意志更高层次上的统一 当人工智能具有自我立法的能力 ,也就对人工智能伦理提出了更高的要求, 如果人工智能偏离人类的法权法则 , 生成独立的生存意志, 则可能造成灾难性的后果 当然 , 从技术层面而言 , 这并不是当前迫切需要解决的问题
怀特 (Ava Thomas Wright) 以康德区分法权论与德性论的理论为基础 , 论证了人工智能作为法权机器的可行性② 康德区分了法权立法与伦理立法 , 法权立法只涉及使行动成为义务的客观必然性, 伦理立法则同时规定了义务又是行动的动机 对于人工智能伦理而言 , 呈现行动的客观必然性比呈现行动的主观动机更具有可行性。 如怀特所言 , 法权义务 是每个人都应当接受的义务 ”, 而美德义务“ 在具体情形中是有争议的 ”, 人工智能遵循的义务首先应是 每个人都应当接受的义务 ”,同时也是可清晰定义的义务。 法权只涉及行动的外在客观强制 , 德性则需要同时考虑行动的主观动机。 主观涉及人的自由意志 , 人工智能是否具有自由意志 , 这一点尚有争议 , 如果人工智能限于再现法权义务的客观必然性, 则可绕过这一争议
怀特采用与鲍威尔同样的方式 , 借助非线性逻辑来陈述 义务逻辑 ”。 这种义务逻辑具有非传递性, 也就是说 , 在某些情形下 , 当人工智能没有执行某一义务规定 , 并不必然构成对这一义务的否证。 由此 , 相冲突的义务能够在同一义务系统中共存 非传统逻辑虽然能够表述非线性的义务系统, 却无法决定如何在相冲突的义务之间进行取舍 如鲍威尔采用的缺省逻辑 , 符号表述为 :(C:A) / A。 其中 ,C 是默认前置条件 ,A 既是来源于事实的证据 , 也是不完全结论 理论 (TEXT) 用来表述缺省逻辑 T = (W,D) 的结果集 , 其中 W 是事实集 ,D 是缺省规则 , 通过对规则的一致性测试 , 我们可以使用这个结论④ 但在这过程中 , 事实集的选择却独立于缺省规则 , 相反 , 恰是事实集给予了理论(TEXT) 在形式一致性外必要的内容补充 怀特求助于法权责任的合理化 , 即把法权责任视为给定事实, 但只以法权责任作为限定 , 这给人工智能留下过多自主决断与任意决断的空间 , 并不足以使人工智能作出符合人类道德规范的判断, 如鼓励唯责任是从的道德冷漠 , 这也是缺省逻辑表述下道德判断的非完全决定性问题。
鲍威尔与怀特的义务逻辑系统存在一个问题 , 即没有决定性的理由来选择冲突的一方或另一方。 对这一问题的回答需要重新审视康德义务体系的内容结构 康德把义务视为无条件的绝对命令, 我们似乎就不能根据条件对义务作出实然判断 但康德所言义务的无条件性只是相对于理性的主观动机而言, 相反 , 义务的实然则必须满足客观条件 , 或遵循许可法则 , 比如帮助他人的义务 ,必须拥有帮助他人的能力, 心有余而力不足的帮助无法使义务从应然走向实然 义务在客观上不能视为是无条件的,义务的客观条件是使义务之所以成为义务的根据,比如遵纪守法的义务以 入法权状态的客观要求为条件, 不撒谎的义务以语言的可信性为条件 并且 , 康德义务体系中的所有义务并不能视为均等的, 史密特 (Elke Eliabeth Schmidt) 就此区分了狭义的义务与广义的义务 , 并以此来判断电车难题中的义务冲突① 康德否认义务之间存在冲突 , 但承认履行的责任之间可能出现冲突, 义务冲突也就表现为兑现义务的责任根据之间的冲突 因此 , 为了解决义务冲突问题 , 同时也是为了实现义务从应然走向实然的有序判断, 在义务的兑现价值之间实现有序分层是必要的
康德的义务体系在形式上符合道德的普遍性法则 , 在内容上则可以视为趋向至善的价值规定 , 与 是目的而不是手段 这一人性法则一致 从个人 共同体 自然法则 法权等不同角度出发 , 在经验可能提出不同的义务要求, 在这些不同的义务要求之间作出判断选择 , 即从经验层面应对义务冲突, 需要一种判断法则 康德把义务冲突视为兑现义务根据之间的冲突 , 那么 , 这种判断法则也就是针对义务兑现根据的优先法则, 需要在义务逻辑系统的普遍性与一致性法则之外 , 纳入康德强调的义务的人性法则, 人是目的而不是手段 ”。 人作为目的性存在包含两层含义 : 一是人的平等的自由存在状态, 二是人作为道德性的存在获得走向至善的可能
罗尔斯在论证个人对公正原则的理性选择时 , 采用了一种层级优先法则 , 分析微观层面的优先法则如何最终在实践理性层面反馈为向平等的正义的汇聚③ 我们可以采用这种层级优先法则分析康德的义务体系, 根据这种优先法则 , 义务最终在实践理性层面反馈为以人为目的并向至善的汇聚。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/433585.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Redis篇(数据类型)

目录 讲解一:简介 讲解二:常用 一、String类型 1. 简介 2. 常见命令 3. Key结构 4. 操作String 5. 实例 二、Hash类型 1. 简介 2. 常见命令 3. 3操作hash 4. 实例 三、List类型 1. 简介 2. 特征 3. 应用场景 4. 常见命令 5. 操作list …

嘻哈纸片人仿手绘插画!FLUX一键生成方法!

​ ​ ​ 如何生成这种嘻哈纸片人的仿手绘插画? 只需1个lora,3个步骤! 接下来我们来具体的说一下操作方法以及lora使用注意 嘻哈纸片人lora 基于FLUX模型训练 在线使用&下载地址: https://www.liblib.art/modelinfo/53ee…

计算机毕业设计之:微信小程序的校园闲置物品交易平台(源码+文档+讲解)

博主介绍: ✌我是阿龙,一名专注于Java技术领域的程序员,全网拥有10W粉丝。作为CSDN特邀作者、博客专家、新星计划导师,我在计算机毕业设计开发方面积累了丰富的经验。同时,我也是掘金、华为云、阿里云、InfoQ等平台…

使用 Paramiko 实现 SSH 远程连接和命令执行

使用 Paramiko 实现 SSH 远程连接和命令执行 每当灶火燃起,香气弥漫,熟悉的味道植入记忆深处,家,才获得完整的意义。万户千家,味道迥异,但幸福的滋味,却何其相同。 ——《风味人间》 在现代网络…

Kubernetes从零到精通(15-安全)

目录 一、Kubernetes API访问控制 1.传输安全(Transport Security) 2.认证(Authentication) 2.1 认证方式 2.2 ServiceAccount和普通用户的区别 2.3 ServiceAccount管理方式 自动ServiceAccount示例 手动ServiceAccount示例 3.鉴权 (Authorization) 3.1鉴权方式 3.2 …

TOF系列—深度图滤波

本篇文章主要介绍TOF深度图的后处理,鉴于自身水平所限,如有错误,欢迎批评指正。(欢迎进Q群交流:874653199) TOF由于其本身的特性,导致其所获得的深度图存在以下问题: 1.对空的地方存…

Kafka学习笔记(一)Kafka基准测试、幂等性和事务、Java编程操作Kafka

文章目录 前言4 Kafka基准测试4.1 基于1个分区1个副本的基准测试4.2 基于3个分区1个副本的基准测试4.3 基于1个分区3个副本的基准测试5 Java编程操作Kafka5.1 引入依赖5.2 向Kafka发送消息5.3 从Kafka消费消息5.4 异步使用带有回调函数的生产消息6 幂等性6.1 幂等性介绍6.2 Kaf…

搜索引擎onesearch3实现解释和升级到Elasticsearch v8系列(一)-概述

简介 此前的专栏介绍onesearch1.0和2.0,详情参看4 参考资料,本文解释onesearch 3.0,从Elasticsearch6升级到Elasticsearch8代码实现 ,Elasticsearch8 废弃了high rest client,使用新的ElasticsearchClient,…

AI驱动的智能运维:行业案例与挑战解析

华为、蚂蚁、字节跳动如何引领智能运维? ©作者|潇潇 来源|神州问学 引言 OpenAI 发布的 ChatGPT 就像是打开了潘多拉的魔盒,释放出了生产环境中的大语言模型(LLMs)。一些新的概念:“大语言模型运维 (LLMOps)”…

统信服务器操作系统进入【单用户模式】

统信服务器操作系统D版、E版、A版进入单用户模式的方式。 文章目录 前言一、问题现象二、问题原因三、解决方案1. D版问题解决方案2. E版及A版问题解决方案前言 D版又称企业版、E版又称欧拉版、A版又称龙蜥版。 单用户模式主要是在 grub2 引导时编辑内核引导,一般用于修改用…

mysql索引结构操作(主键/唯一键/普通索引的创建/查询/删除),复合索引介绍(索引覆盖,索引最左匹配原则)

目录 索引操作 创建索引 主键索引 介绍 在创建表时设置主键 创建表后添加主键 唯一键索引 介绍 在创建表时设置唯一键 创建表后添加唯一键 普通索引 在创建表时指定某列为索引 创建表后添加普通索引 自主命名索引 索引创建原则 哪些列适合创建索引 不适合作为…

【Linux:共享内存】

共享内存的概念: 操作系统通过页表将共享内存的起始虚拟地址映射到当前进程的地址空间中共享内存是由需要通信的双方进程之一来创建但该资源并不属于创建它的进程,而属于操作系统 共享内存可以在系统中存在多份,供不同个数,不同进…

14 vue3之内置组件trastion全系列

前置知识 Vue 提供了 transition 的封装组件,在下列情形中,可以给任何元素和组件添加进入/离开过渡: 条件渲染 (使用 v-if)条件展示 (使用 v-show)动态组件组件根节点 自定义 transition 过度效果,你需要对transition组件的name属性自定义。…

基于BeagleBone Black的网页LED控制功能(flask+gpiod)

目录 项目介绍硬件介绍项目设计开发环境功能实现控制LED外设构建Webserver 功能展示项目总结 👉 【Funpack3-5】基于BeagleBone Black的网页LED控制功能 👉 Github: EmbeddedCamerata/BBB_led_flask_web_control 项目介绍 基于 BeagleBoard Black 开发板…

ChatGPT 推出“Auto”自动模式:智能匹配你的需求

OpenAI 最近为 ChatGPT 带来了一项新功能——“Auto”自动模式,这一更新让所有用户无论使用哪种设备都能享受到更加个性化的体验。简单来说,当你选择 Auto 模式后,ChatGPT 会根据你输入的提示词复杂程度,自动为你挑选最适合的AI模…

DataGrip远程连接Hive

学会用datagrip远程操作hive 连接前提条件: 注意:mysql是否是开启状态 启动hadoop集群 start-all.sh 1、启动hiveserver2服务 nohup hiveserver2 >> /usr/local/soft/hive-3.1.3/hiveserver2.log 2>&1 & 2、beeline连接 beelin…

缓存装饰器@cached_property

这个装饰器好像在好多包里都有,我在阅读源码的过程中,transformers.utils也有这个。查阅资料,大体上了解了它的用法。参考:[python]cached_property缓存装饰器 - faithfu - 博客园 这个装饰器用在类里面的某个方法前面&#xff0…

统信服务器操作系统【qcow2 镜像空间扩容】方案

使用 qcow2 镜像安装系统,当默认安装系统存储空间不够用时,进行自定义扩容 文章目录 准备环境扩容步骤一、检查环境信息1.查看镜像信息2.查看镜像分区信息3.确认需要扩容的分区名二、扩容1.备份镜像2.创建新的镜像文件,并指定空间3.将系统扩容到新的镜像三、扩容 lvm 分区四…

用5款AI帮你写论文,只需10分钟(附详细工具)

在当前的学术写作领域,AI技术的应用已经变得越来越普遍。借助这些工具,学生和研究人员可以显著提高写作效率,并在短时间内生成高质量的论文初稿。以下是五款值得推荐的AI论文写作工具,它们可以帮助你在10分钟内完成一篇论文&#…

【笔记】自动驾驶预测与决策规划_Part4_时空联合规划

文章目录 0. 前言1. 时空联合规划的基本概念1.1 时空分离方法1.2 时空联合方法 2.基于搜索的时空联合规划 (Hybrid A* )2.1 基于Hybrid A* 的时空联合规划建模2.2 构建三维时空联合地图2.3 基于Hybrid A*的时空节点扩展2.4 Hybrid A* :时空节…