acadwrite AI LOGOacadwrite AI · Research

伦理强化学习:基于康德绝对命令的价值对齐

引言

伦理强化学习(Ethical Reinforcement Learning, ERL)作为人工智能领域的新兴分支,旨在解决智能体在学习过程中可能产生的伦理道德风险。随着强化学习(Reinforcement Learning, RL)技术在医疗、金融、自动驾驶等高风险领域的广泛应用,确保智能体的行为符合人类价值观,避免潜在的负面影响,变得至关重要。这一挑战的核心在于价值对齐(Value Alignment),即如何使智能体的目标与人类的伦理道德规范相一致。然而,现有的价值对齐方法往往依赖于预定义的规则或奖励函数,难以应对复杂多变的现实环境,且缺乏普适性和解释性。因此,探索一种更加稳健、可解释的伦理约束框架成为了当前研究的关键。

本综述旨在探讨基于康德绝对命令(Kant's Categorical Imperative)的价值对齐方法在伦理强化学习中的应用。康德绝对命令作为一种经典的伦理理论,强调普遍性、尊重人和自律性,为构建伦理约束提供了一种潜在的理论基础。本文将深入分析康德绝对命令的核心思想及其在强化学习中的形式化表达,并探讨如何将其应用于奖励函数设计、规则约束和策略学习等环节。

为了全面理解基于康德绝对命令的伦理强化学习,本综述将首先回顾伦理强化学习的背景与挑战,包括强化学习中的价值对齐问题、现有伦理框架的局限性、伦理强化学习的评价指标以及在不同领域的应用案例。随后,我们将深入探讨康德绝对命令的理论基础及其在伦理强化学习中的适用性,重点关注其核心思想、形式化约束的挑战与可行性、基于康德绝对命令的奖励函数设计以及康德伦理与其他伦理理论的对比。在此基础上,我们将详细介绍基于康德绝对命令的伦理强化学习方法,包括基于规则、奖励塑造、模仿学习和对抗学习的方法。最后,我们将讨论康德绝对命令在复杂环境中的应用局限性、伦理约束的计算复杂性、伦理强化学习的透明性和可解释性,并展望未来的研究方向,为该领域的发展提供参考。通过对这些关键问题的深入探讨,本综述旨在为基于康德绝对命令的伦理强化学习研究提供一个全面的视角,并促进该领域的进一步发展。

伦理强化学习的背景与挑战

强化学习(RL)在各领域的应用日益广泛,但随之而来的价值对齐问题也日益凸显。价值对齐是指确保智能体的目标与人类的价值观和意图相一致,其重要性在于避免智能体产生意外甚至有害的行为。例如,为了最大化点击率,推荐系统可能传播虚假信息或操纵用户情绪,损害用户福祉。因此,在医疗、金融、自动驾驶等领域应用RL系统时,必须确保其安全、可靠且符合伦理规范。

现有的价值对齐方法包括奖励塑造和伦理约束。奖励塑造旨在设计奖励函数,引导智能体遵循期望行为,但设计过程复杂且易产生意外后果。过于简单的奖励函数可能导致智能体利用漏洞而非学习期望行为。伦理约束则明确限制智能体的行为,防止其违反伦理原则,但同样面临设计难题,且可能限制智能体的灵活性和适应性。Rodríguez-Soto等人提出两步法,强调在RL系统设计的早期阶段融入伦理考量,首先形式化道德价值观,然后设计环境使智能体在追求自身目标的同时学习符合伦理的行为。Arnold 和 Scheutz 认为,仅依靠数据驱动的价值对齐技术可能无法捕捉规范的“精神”,需要结合常识推理和数据驱动的方法

伦理约束在强化学习中的应用日益受到重视,但现有伦理框架仍存在诸多局限性。许多方法依赖于设计奖励函数来引导智能体的行为,然而,这些奖励函数往往难以捕捉伦理的复杂性和细微之处,容易导致智能体为了最大化奖励而采取不符合伦理的行为。例如,在自动驾驶领域,如果奖励函数只关注行驶速度和安全性,而忽略了对弱势群体的保护,那么智能体可能会为了避免事故而选择牺牲行人或骑自行车者的安全。此外,现有框架在处理伦理困境时也显得力不从心。面对多个伦理原则冲突的情况,如何进行权衡和决策是一个巨大的挑战。Sidra Nasir等人指出,现有的AI系统在处理复杂环境和潜在偏见时存在固有的局限性,这使得伦理约束的实施更加困难。更进一步,Sahana Udupa等人强调了内容审核中机器学习方法的局限性,揭示了算法在处理带有偏见的内容时存在的根本缺陷。因此,我们需要更加精细和灵活的伦理框架,以应对强化学习中日益复杂的伦理挑战。

伦理强化学习的评价指标是确保智能体行为符合伦理规范的关键。现有的强化学习评价指标主要关注任务完成的效率和效果,而忽略了伦理维度,因此无法有效评估伦理强化学习算法的性能。例如,一个自动驾驶系统可能为了追求更高的行驶效率而违反交通规则,导致安全风险,但传统的奖励函数可能无法捕捉到这种伦理违规行为。Waters等人提出了“Decisional Value Scores (DVSs)”,旨在量化系统决策是否符合特定的伦理标准。DVS通过评估系统在每个决策点上的行为,并根据预设的伦理规则进行评分,从而更细致地衡量伦理性能。例如,在刑事风险评估工具的评估中,DVS可以用于衡量工具在效用、权利侵犯、公平性和透明度等方面的表现。然而,即使是DVS这样的指标,也可能存在局限性。例如,伦理规范往往是复杂且具有情境性的,很难将其完全形式化为可量化的指标。此外,不同伦理原则之间可能存在冲突,如何权衡这些冲突也是一个挑战。Neufeld等人提出了一种模块化和透明的方法,通过规范监督器模块将可辩驳的道义逻辑定理证明器集成到强化学习代理的控制回路中,以确保代理的行为符合伦理规范。未来的研究方向应该包括:开发更全面的伦理评价指标,能够捕捉更细微的伦理违规行为;探索结合定性和定量评价方法,更深入地理解智能体的伦理决策过程;以及研究如何处理伦理冲突和价值冲突,提高伦理强化学习算法的鲁棒性和适应性。

伦理强化学习在医疗、金融和自动驾驶等领域展现出巨大的应用潜力,同时也面临着独特的伦理挑战。在医疗领域,伦理强化学习可以用于优化个性化治疗方案。例如,通过学习患者的病史和治疗反应,智能体可以推荐最佳的药物剂量或治疗策略。然而,如果算法存在偏见,可能会导致某些群体接受次优治疗。Belle指出,机器学习算法在医疗等领域的应用需要仔细考虑公平性问题,避免对特定群体产生偏见。在金融领域,伦理强化学习可以用于风险管理和投资组合优化。例如,智能体可以学习在市场波动期间如何调整投资组合,以最大程度地降低风险。然而,如果算法过于激进或不透明,可能会导致市场不稳定或不公平交易。自动驾驶是伦理强化学习另一个重要的应用领域。自动驾驶汽车需要在复杂的交通环境中做出实时的决策,例如,在紧急情况下如何避免碰撞。一个经典的伦理困境是“电车难题”,即当车辆面临不可避免的事故时,是选择牺牲车内乘客还是车外行人。Helbing认为,自动驾驶等技术的快速发展正在将我们推向一个十字路口,我们需要决定是构建一个由上而下控制的社会,还是一个自由和参与式的社会。伦理强化学习的目标是确保自动驾驶汽车在做出决策时,能够考虑到所有相关方的利益,并遵循普遍接受的伦理原则。例如,研究人员正在探索如何将康德的绝对命令融入到自动驾驶汽车的决策过程中,以确保车辆的行为符合道德规范。

康德绝对命令的理论基础及其在伦理强化学习中的适用性

康德的绝对命令构成了其伦理学说的基石,它并非具体行为的清单,而是一套旨在引导行动符合理性的普遍道德原则。绝对命令主要通过三种公式表达:普遍法则公式、目的公式和自律公式。普遍法则公式要求行动者只遵循那些能够同时意愿其成为普遍法则的准则,强调行为准则的普遍适用性,避免特权化自身。例如,康德反对说谎,因为普遍的说谎行为会瓦解信任和社会秩序。目的公式则强调始终将人(包括自身和他人)视为目的本身,而非仅仅是实现目标的手段,这意味着尊重他人的自主性和尊严,避免工具化他人。Vignini和Rusconi 指出,企业社会责任报告中常见的伦理声明与实际行为之间的脱节,如通用电气和雷曼兄弟的案例,正是将他人视为手段的体现。自律公式则将道德法则视为理性自身的产物,强调依据自身设定的道德法则行动,而非受制于外部权威或欲望。Lin 探讨了康德的绝对命令如何成为政治法律合法性的来源,强调了自主性在道德和政治领域的重要性。这三种公式虽然侧重点不同,但都指向道德行为的根本原则:理性、普遍性和对人的尊重。

将康德绝对命令转化为强化学习中的形式化约束,既面临挑战,也存在可行性。康德伦理的抽象性和普遍性与强化学习对具体、可量化目标的依赖性之间存在差异。如何将“普遍法则公式”、“目的公式”和“自律公式”这些高度抽象的原则转化为机器可以理解和执行的数学公式或算法规则,是一个关键问题。普遍法则公式要求评估行为的潜在普遍化后果,这需要智能体具备某种形式的推理能力,而当前的强化学习算法主要依赖于试错学习,缺乏这种复杂推理能力。此外,康德伦理强调人的尊严和自主性,而强化学习中的智能体通常被视为追求特定目标的工具。如何在奖励函数的设计中体现对人的尊严的尊重,避免将人仅仅当作实现目标的手段,是一个重要的伦理考量。

基于康德绝对命令的奖励函数设计旨在激励智能体遵循伦理原则,这通常涉及到将抽象的道德原则转化为可量化的奖励信号。一种常见的方法是设计奖励函数,使智能体因采取符合普遍法则、尊重他人为目的本身、以及促进自主性的行为而获得奖励,而违反这些原则的行为则受到惩罚。例如,在自动驾驶的场景中,可以设计奖励函数,使智能体避免任何可能导致人员伤亡的行为,即使这意味着牺牲自身的效率或速度。Herlau等人提出了一种在线强化学习方法,该方法学习一种策略,约束智能体不成为造成伤害的原因,通过使用实际因果关系理论来定义原因,并在智能体的行为是造成不良结果的实际原因时,将责任归咎于智能体。然而,单纯依赖外部奖励可能导致智能体陷入“永无止境的欲望”循环,为了追求更高的奖励而忽视了内在的道德价值。因此,奖励函数的设计需要更加精细,需要平衡外部奖励与内在道德动机,鼓励智能体不仅追求结果,更要关注行为本身是否符合伦理原则。Krajna等强调了在强化学习系统中提高信任和透明度的重要性,这对于确保伦理原则的有效实施至关重要

将康德伦理应用于强化学习,需要与其他伦理理论进行对比,以明确其优缺点。与功利主义相比,康德伦理强调普遍性和义务,避免了功利主义可能导致的为了多数人的利益而牺牲少数人利益的情况。例如,在自动驾驶汽车的伦理困境中,功利主义可能会选择牺牲车内乘客以避免更多行人伤亡,而康德伦理则更倾向于遵守普遍的道德法则,例如“不应将人作为纯粹的手段”,从而避免将任何个体作为实现目标的工具。然而,康德伦理的绝对命令在复杂环境中可能难以应用,例如在多个绝对命令发生冲突时,难以确定哪个命令具有更高的优先级。与美德伦理相比,康德伦理提供了一套明确的规则和原则,更容易转化为强化学习中的形式化约束。美德伦理关注培养智能体的道德品格,但难以量化和评估,这给强化学习的实现带来了挑战。此外,基于人类行为的伦理约束方法,例如模仿学习,可以作为康德伦理的补充。Wu和Lin提出了一种将人类策略与强化学习策略相结合的方法,以减少违反伦理规范的可能性。这种方法假设人类行为在大多数情况下是符合伦理的,因此可以通过模仿人类行为来引导智能体的行为,从而弥补康德伦理在处理复杂伦理困境时的不足。

基于康德绝对命令的伦理强化学习方法

基于康德绝对命令的伦理强化学习方法旨在将抽象的伦理原则融入智能体的决策过程,确保其行为符合道德规范。目前的研究主要集中在四个方面:基于规则的约束、基于奖励塑造、基于模仿学习以及基于对抗学习。

基于规则的方法直接将康德的绝对命令转化为可执行的规则,以此指导智能体的行为。这种方法将抽象的伦理原则具象化为一系列明确的“如果-那么”规则,智能体在决策时遵循这些规则,以确保其行为符合康德伦理的要求。例如,可以将康德的“普遍法则公式”转化为“如果某个行为会导致普遍的混乱或不公正,那么就不要执行该行为”这样的规则。然而,将康德伦理直接转化为规则也面临挑战,尤其是在处理复杂的伦理困境时。例如,在自动驾驶的“电车难题”中,简单地将“不应将人视为手段”转化为固定规则,可能会忽略具体情境下的道德权重和优先级,导致不公正的结果。因此,基于规则的方法需要更精细的设计,考虑到不同情境下的道德权重和优先级,并允许在特定情况下对规则进行调整,同时确保调整过程本身也符合伦理原则。正如Boychenko指出的,principlism存在局限性,包括缺乏特异性和实践应用的不确定性,这同样适用于基于规则的康德伦理约束方法。

另一种方法是基于奖励塑造,通过精心设计的奖励函数,引导智能体学习并遵循康德绝对命令所倡导的伦理行为。这种方法的核心在于将抽象的伦理原则转化为可量化的奖励信号,从而激励智能体在探索环境的过程中,自发地选择符合伦理规范的行为。例如,在自动驾驶领域,可以设计奖励函数,对遵守交通规则、尊重行人路权的行为给予正向奖励,而对违反规则、危及他人安全的行为给予负向奖励。通过这种方式,智能体能够逐渐学习到安全驾驶的伦理规范。Matthias Rolf等人强调了社会奖励机制的重要性,指出应将社会可接受的行为纳入奖励函数的设计中,从而使智能体的行为更符合社会规范。此外,Cohen等人提出了一种“unambitious”的AIXI变体,通过信息论探索策略,使智能体学习到干预外部世界不会影响其奖励获取,从而避免了智能体追求任意“权力”的倾向

第三种方法是基于模仿学习,旨在通过模仿伦理专家的行为来学习伦理策略。核心思想是,如果智能体能够观察并学习伦理专家的决策过程,那么它就有可能在没有显式规则或奖励函数的情况下,获得符合康德伦理原则的行为模式。例如,在自动驾驶领域,可以通过收集伦理专家在各种交通场景下的驾驶数据,训练智能体模仿其行为,从而使其在面临伦理困境时,能够做出符合伦理规范的决策。Ferraris认为,模仿和重复是人类学习和文化传承的重要方式,通过模仿伦理专家的行为,智能体可以逐渐内化伦理原则,并将其应用于新的情境中。然而,这种方法也面临着一些挑战。首先,如何定义和识别“伦理专家”是一个难题。其次,伦理专家的行为可能受到个人偏见和情境因素的影响,智能体在模仿学习的过程中可能会学习到这些不理想的行为。此外,Neborak强调,教师作为道德行为的模仿对象,其自身的道德修养至关重要。因此,在应用基于模仿学习的康德伦理约束方法时,需要仔细选择伦理专家,并对收集到的数据进行筛选和处理,以确保智能体学习到的是真正符合康德伦理原则的行为。

最后,基于对抗学习的方法利用对抗网络来识别和惩罚违反康德绝对命令的行为。这类方法通常包含两个主要组成部分:生成器,负责生成智能体的行为轨迹;以及判别器,负责判断该行为轨迹是否符合康德绝对命令。判别器本质上充当了一个“伦理审查者”的角色,它通过学习区分符合伦理规范和违反伦理规范的行为模式,从而为生成器提供反馈信号。生成器则根据判别器的反馈不断调整自身的策略,力求生成符合伦理约束的行为。例如,在自动驾驶领域,可以训练一个判别器来识别违反“普遍法则公式”的行为,例如,随意变道加塞,因为如果每个人都这样做,交通秩序将崩溃。判别器会给这些行为较低的评分,从而促使生成器学习更安全、更符合交通规则的驾驶策略。尽管对抗学习在伦理约束方面展现出潜力,但也存在一些挑战。如何设计有效的判别器,使其能够准确捕捉到康德绝对命令的精髓,并将其转化为可量化的指标,是一个关键问题。此外,对抗训练过程的稳定性和收敛性也需要进一步研究,以确保智能体能够真正学习到符合伦理规范的行为模式。

挑战、局限性与未来研究方向

康德绝对命令在复杂环境中的应用面临诸多挑战,尤其是在处理伦理困境和价值冲突时。其核心在于要求行为具备普遍适用性,然而现实世界中多元的价值观使得普遍适用的伦理规则难以建立。例如,医疗伦理领域中,个体自主选择权与医疗从业者的良知自由可能产生冲突,如南非女性拥有安全合法堕胎的权利,但部分医护人员可能因宗教或道德原因无法执行。康德伦理强调义务论,即某些行为本质上就是错误的,无论其结果如何,这在特定情境下可能导致不近人情的决策。Kozyra认为康德伦理是“规则中心”的,甚至带有反人道色彩。他以康德本人坚持的“即使为了拯救无辜生命也不应撒谎”为例,指出康德伦理对规则的绝对遵守,有时会造成更大的伤害。因此,如何平衡康德绝对命令的普遍性与现实世界的复杂性,是伦理强化学习研究中亟待解决的关键问题。

康德伦理约束的计算复杂性是其应用于伦理强化学习的另一大挑战。将康德的绝对命令转化为算法可执行的形式化约束,通常会显著增加计算负担,限制算法的效率和可扩展性。普遍法则公式要求智能体在行动前评估该行动是否能成为普遍法则,这在复杂环境中需要对所有可能的行动及其潜在后果进行模拟和评估,计算成本高昂。Stenseke指出,大多数规范性框架都会导致可处理性问题,强调了伦理决策中优化与效率之间权衡的必要性。为了提高算法效率和可扩展性,研究者可以探索近似算法或启发式搜索方法,以牺牲部分最优性来换取计算效率。此外,利用并行计算或分布式计算等技术,将复杂的伦理评估任务分解为多个子任务并行处理也是一种可行方案。借鉴其他伦理理论,如后果主义,简化伦理评估过程,同样有助于降低计算复杂性。

伦理强化学习的透明性和可解释性对于确保伦理决策过程的可理解性至关重要。智能体的行为不仅要符合伦理规范,其决策过程也应清晰透明,从而赢得人类的理解和信任。然而,许多现有的强化学习算法,尤其是深度强化学习算法,往往是“黑盒”,难以理解其内部的决策逻辑。例如,自动驾驶系统在紧急情况下做出的避让决策可能符合伦理原则,但若缺乏清晰的解释,人类难以理解其选择特定避让方式的原因,进而难以信任该系统。Okolo认为,弥合技术概念与社会文化之间的差距,需要采用跨文化伦理方法来提高AI的可解释性,从而促进用户理解和有效使用。为了提高伦理强化学习的透明性和可解释性,研究者们正在探索多种方法,包括使用基于规则的伦理约束,将伦理原则直接转化为可执行的规则,从而使智能体的行为具有可预测性和可解释性。另一种方法是使用注意力机制,使智能体能够关注输入数据中与伦理决策相关的关键部分,从而揭示其决策的依据。此外,模型压缩和知识蒸馏等技术可以将复杂的深度强化学习模型转化为更简洁、更易于理解的模型。

未来的研究方向应侧重于克服当前基于康德绝对命令的伦理强化学习的局限性,并拓展其应用范围。首先,可以将康德伦理与其他伦理理论相结合,如美德伦理或后果主义,以应对复杂环境中的伦理困境和价值冲突。例如,在医疗资源分配问题上,单纯依赖康德绝对命令可能难以找到合理方案,此时结合后果主义的考量,寻求最大化患者整体福祉的方案可能更为有效。其次,需要发展更高效的算法以应对康德伦理约束带来的计算复杂性。当前的算法在处理大规模状态空间和动作空间时效率较低,限制了其在实际应用中的可行性。最后,探索新的应用场景至关重要。虽然目前伦理强化学习在自动驾驶等领域已有初步应用,但其潜力远未被充分挖掘。例如,M. Mccradden等人在医疗领域强调了算法公平性的重要性,并提出了Justice, Equity, Fairness, and Anti-Bias (JustEFAB) 指南,旨在支持临床机器学习模型的公平性设计、测试和验证。这表明,将基于康德绝对命令的伦理强化学习应用于医疗决策支持系统,可以有效避免算法偏见,确保患者得到公平对待。

结论

综上所述,本综述深入探讨了基于康德绝对命令的伦理强化学习方法,分析了其在价值对齐方面的潜力与挑战。我们回顾了伦理强化学习的背景,剖析了价值对齐的难题,并考察了现有伦理框架的局限性。康德绝对命令作为一种经典的伦理理论,为构建伦理约束提供了理论基础,其普遍性、尊重人和自律性的核心思想为强化学习中的伦理价值对齐提供了新的思路。通过对基于规则、奖励塑造、模仿学习和对抗学习等方法的分析,我们发现将康德伦理融入智能体决策过程具有可行性,但同时也面临着复杂环境下的应用局限性、伦理约束的计算复杂性和透明性等问题。

未来的伦理强化学习研究,需要超越单一伦理理论的局限,探索融合多种伦理视角的混合框架,以应对现实世界中复杂的伦理困境。同时,算法效率的提升和可解释性的增强将是推动该领域走向实际应用的关键。更重要的是,我们需要将伦理考量融入到人工智能系统设计的早期阶段,从根本上确保技术发展与人类价值观的和谐统一。伦理强化学习的最终目标不仅是构建符合伦理规范的智能体,更是为了促进人工智能技术朝着更加负责任、可持续的方向发展,服务于全人类的共同福祉。

参考文献

[1] Gabrielle Kaili-May Liu, Perspectives on the Social Impacts of Reinforcement Learning with Human Feedback, ArXiv, 2023, abs/2303.02891.

[2] Thomas Arnold, M. Scheutz, Understanding the spirit of a norm: Challenges for norm-learning agents, AI Mag., 2023, 44, 524-536.

[3] Manel Rodríguez-Soto, M. López-Sánchez, J. Rodríguez-Aguilar, Multi-Objective Reinforcement Learning for Designing Ethical Environments, null, 2021, 545-551.

[4] Sidra Nasir, Rizwan Ahmed Khan, Samita Bai, Ethical Framework for Harnessing the Power of AI in Healthcare and Beyond, IEEE Access, 2023, 12, 31014-31035.

[5] Sahana Udupa, Antonis Maronikolakis, Axel Wisiorek, Ethical scaling for content moderation: Extreme speech and the (in)significance of artificial intelligence, Big Data & Society, 2023, 10.

[6] R. Chaput, O. Boissier, Mathieu Guillermin, Adaptive reinforcement learning of multi-agent ethically-aligned behaviours: the QSOM and QDSOM algorithms, ArXiv, 2023, abs/2307.00552.

[7] Gabriella Waters, William Mapp, Phillip Honenberger, Decisional value scores: A new family of metrics for ethical AI-ML, AI Ethics, 2024, 5, 1803-1825.

[8] Emery A. Neufeld, E. Bartocci, A. Ciabattoni, Guido Governatori, Enforcing ethical goals over reinforcement-learning policies, Ethics and Information Technology, 2022, 24.

[9] Vaishak Belle, Knowledge representation and acquisition for ethical AI: challenges and opportunities, Ethics and Information Technology, 2023, 25, 1-12.

[10] D. Helbing, Societal, Economic, Ethical and Legal Challenges of the Digital Revolution: From Big Data to Deep Learning, Artificial Intelligence, and Manipulative Technologies, Legal Perspectives in Information Systems eJournal, 2015.

[11] Zachary Biondi, The Matter and Form of Kant’s Moral Law, Kantian Review, 2024.

[12] S. Vignini, G. Rusconi, Business Ethics: Moral or Amoral? An analysis from the perspective of Kantian ethics, Australasian Business, Accounting and Finance Journal, 2023.

[13] Shuyang Lin, A synthesis of Kantian ethics and Rousseauvian General Will in justifying the moral ground of political laws, Humanities and Social Sciences Communications, 2024, 11, 1-12.

[14] Tue Herlau, Moral Reinforcement Learning Using Actual Causation, 2022 2nd International Conference on Computer, Control and Robotics (ICCCR), 2022, 179-185.

[15] Rachit Dubey, T. Griffiths, P. Dayan, The pursuit of happiness: A reinforcement learning perspective on habituation and comparisons, PLoS Computational Biology, 2022, 18.

[16] Agneza Krajna, Mario Brčič, T. Lipić, Juraj Dončević, Explainability in reinforcement learning: perspective and position, ArXiv, 2022, abs/2203.11547.

[17] Dwi Wahyu Puji Lestari, Tri Zahra Ningsih, Nunuk Suryani, Transformation of Hamka’s Thought About Ethitical Values Through History Learning as a Reinforcement of Character Education, Indonesian Journal of Social Science Education (IJSSE), 2020.

[18] Yueh-Hua Wu, Shou-De Lin, A Low-Cost Ethics Shaping Approach for Designing Reinforcement Learning Agents, null, 2017, 1687-1694.

[19] Nataliia Boychenko, Principlism in bioethics: features and possible limitations, Filosofiya osvity. Philosophy of Education, 2023.

[20] Matthias Rolf, Nigel Crook, Jochen J. Steil, From social interaction to ethical AI: a developmental roadmap, 2018 Joint IEEE 8th International Conference on Development and Learning and Epigenetic Robotics (ICDL-EpiRob), 2018, 204-211.

[21] Michael K. Cohen, Badri N. Vellambi, Marcus Hutter, Intelligence and Unambitiousness Using Algorithmic Information Theory, IEEE Journal on Selected Areas in Information Theory, 2021, 2, 678-690.

[22] A. Glushkova, A. Katmakov, Феррарис М. Человеческое, даже очень человеческое, но никогда не слишком человеческое, Studia Culturae, 2023.

[23] K. Neborak, DEVELOPMENT OF MORAL AND ETHICAL CULTURE OF FUTURE HISTORY TEACHERS IN THE EDUCATIONAL ENVIRONMENT OF HIGHER EDUCATION INSTITUTION, Academic Notes Series Pedagogical Science, 2023.

[24] E. Lekunze Fritz, What has Kant got to say about conscientious objection to reproductive health in South Africa?, Developing world bioethics, 2023.

[25] Wojciech Kozyra, Kant’s anti-humanism: An outline, SHS Web of Conferences, 2023.

[26] Jakob Stenseke, On the computational complexity of ethics: moral tractability for minds and machines, Artif. Intell. Rev., 2024, 57, 105.

[27] Chinasa T. Okolo, Towards a Praxis for Intercultural Ethics in Explainable AI, ArXiv, 2023, abs/2304.11861.

[28] M. Mccradden, Oluwadara Odusi, Shalmali Joshi, Ismail Akrout, Kagiso Ndlovu, B. Glocker, Gabriel Maicas, Xiaoxuan Liu, M. Mazwi, Tee Garnett, Lauren Oakden-Rayner, Myrtede C. Alfred, Irvine Sihlahla, Oswa Shafei, A. Goldenberg, What's fair is… fair? Presenting JustEFAB, an ethical framework for operationalizing medical ethics and social justice in the integration of clinical machine learning: JustEFAB, Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, 2023.