数字化的上帝形象与败坏的人性

从神学观点看AI的祝福与威胁

A human hand and a robotic hand reach toward each other, nearly touching, illuminated by a glowing light between them against a dark, digital background—symbolizing the theological tension between creation, imitation, and divine image.
AI-generated illustration by OpenAI.

AI的兴起与分歧的人类反应

人工智能(AI)如今已成为一个概括性术语,通常泛指所有能利用心理技能来执行行动的机器,而这些行动传统上被认为必须依赖人类心智才能完成。这些 “类人” 功能使许多使用者开始想像,未来AI在各个领域取代人类的可能性。随着大型语言模型(LLMs)的出现及广泛应用,例如ChatGPT、Microsoft Copilot和Google Gemini,这种对AI技术的乐观看法更是不断升温。LLMs渗透人类社会,使人产生一种印象:AI已经并将持续为人类生命的繁荣带来福祉。

然而,并非所有人类使用者都认同这股AI热潮。越来越多人开始关注与人工智能应用相关的道德与社会问题;在过去几年中,AI治理(AI governance)也引发了广泛的辩论。¹

从伦理反思到本体论基础:为何AI并非价值中立(Value-Neutral)

近年来,关于基督教神学与AI的研究,在肯定AI对人类生活带来正面影响的同时,也开始探讨其广泛应用所引发的风险。例如,Eric Stoddart提醒我们,在认可AI系统价值的同时,受AI辅助的照护实践不应削弱人类在教牧关怀中的责任。²

另一个例子是Andrea Vicini对AI与社会控制的研究。延续罗马天主教在AI伦理上的讨论,他指出AI透过社会控制技术(例如人脸识别系统)为人类公共利益做出的贡献,但同时也在就业、市场、司法体系以及其他社会领域中引发伦理上的挑战。³

这些研究一致认为,AI并非价值中立,而是透过数据、演算法、模型架构以及AI 系统开发的其他面向,有特定的价值导向。由此引发两个关键问题:基督教神学将如何进一步阐明这种 “有特定价值导向的AI” 所蕴含的意义?我们可以借鉴哪些神学遗产以回应与AI相关的伦理与社会议题?

在我近期的一本专著中,我使用 “原型神学—副本神学”(archetype–ectype)以及 “上帝的形象” 这两个神学概念,建构一套关于AI的神学本体论。⁴ 以下将概述与本文相关的要点。

“原型” (ἀρχέτυπος) 的字面意思是终极的典范或模范;“副本”(ἔκτυπος)则指对该终极模范的复制、摹仿或反射。上帝是原型,人类是 “副本”。这种上帝与人类之间的 “原型—副本” 关系,符合 “人类是上帝按其形象所造”的神学观念,并揭示上帝作为创造者及人类作为受造物之间在本体论上的区别。由此逻辑推导,神圣行动与人类行动在所有层面上都存在不可磨灭的差异。即便如此,“原型与副本” 的概念同时也蕴含上帝与人类之间的连结。作为神圣原型的副本,人类 “映照” 了神圣的创造性行动,创造属于人类自己的副本,例如AI。⁵ 此外,AI作为人类(即上帝形象承载者)的副本,在其被创造的过程中,承载了多层次的价值;因为 “上帝的形象” 本身就涉及 “人之所以为人” 的宗教性及道德性意义。简言之,AI会复制并反映其设计者、提供者、使用者以及其他利害关系人所持有的价值观。

人工智能映照人性——德性与恶性并存

我在专著中所建构的概念工具,阐述了 “承载着价值的AI”(value-loaded AI)的意涵及其与人类之间的关联。作为人类的副本(ectype),AI所承载的价值映照了人类自身拥有的价值,无论这些价值是德性还是恶性。从神学角度来看,承载着价值的AI,在某种程度上反映了人类同时作为 “受造” 且 “堕落” 之存在的本质。在人类与AI系统中,人类在创造之时被赋予的道德之美,与人类堕落后的道德恶性乃是并存的。

那么,德性与恶性如何能在人性中并存,并进而传递至AI之中?在此,奥古斯丁对 “败坏” 的双重诠释提供了重要帮助。他指出:“凡被败坏之物,皆丧失其完整性与纯净性。” 接着他又说:“凡被败坏之物,皆是被扭曲的;而凡被扭曲之物,皆失去了秩序。但秩序本是良善的。因此,被败坏之物并非全然失去良善;也正因如此,它在败坏的过程中才会失去良善。”⁶ 奥古斯丁清楚地指出,堕落并未推翻人类本质中受造的良善,而是扭曲了人性之善的秩序。因此,“人类的败坏” 意思是人类良善本质的秩序被扭曲。

由此可推论,堕落后的人类仍是按上帝形象所造,尽管这一形象已受损与扭曲。这一点有助于理解人类生活中德性与恶性共存的现实,而这种现实也反映在作为人类人造 “副本” 的AI之中。从这个视角来看,我们应当在理解人性既良善却又败坏的前提下来看待、评估并处理AI所带来的祝福与威胁。

Facebook与社会分裂的自动化

因此,AI对人类社会所带来的挑战,必须参照人类本质中被歪曲的秩序、完整性与纯净性来进行评估。带着这层认知,我们进而探讨这种 “被扭曲的秩序” 如何体现在AI系统的应用中。为了说明这点,让我们反思Facebook的动态消息演算法,以及用于长者照护的AI机器人ElliQ。

Meta(原 Facebook)被指控在2020年美国总统大选期间,透过其动态消息演算法加剧意识形态的分化并削弱社会和谐。⁷ Facebook的AI演算法透过强化学习模型与对使用者政治观点及行为的统计分析,来排序用户动态消息中的新闻内容。其用户会持续接收到符合自身偏好的政治贴文与具有情绪吸引力的内容,进而导致美国社会内部分裂加剧,社会凝聚力减弱。Facebook的演算法本身存在问题,这ㄧ点毋庸置疑。然而,我们也必须承认,用户的偏好与网路行为共同加剧了社会的碎片化。如果说AI演算法使社会分裂 “自动化”,那么持续认同并强化这种分裂的,正是Facebook的使用者本身。

ElliQ与人工照护的伦理问题

ElliQ是一款由Intuition Robotics开发、专为长者照护设计的AI陪伴机器人。传统的人工陪伴系统大多属于被动式互动,通常只有在使用者发出指令时才会回应。相比之下,ElliQ则会主动开启对话并积极与长者互动。Grace Andruszkiewicz在2023年的报导指出:“在过去几年中,ElliQ已进入全美各地长者的家庭,并与使用者完成超过一千万次互动。我们有幸见证一些极其显著的成果。事实上,95%的使用者认为ElliQ有助于减轻他们的孤独感并提升福祉,而90%的使用者表示ElliQ改善了他们的生活品质。” ⁸ 尽管如此,近期的研究显示,部分使用者对于ElliQ过于主动的运作感到困扰,因为它每天频繁地邀请用户与它对话。阿曼达·夏基(Amanda Sharkey)与诺埃尔·夏基(Noel Sharkey)对AI长者照护机器人提出更具批判性的观察:长者被鼓励与人造陪伴者互动,仿佛它们是人类同伴一样,这本质上是一种欺骗,甚至可能使长者被幼体化(infantilize)。¹⁰ 这种 “幼体化” 的现象可能让照顾者逃避其应负的照护责任,将工作完全转交给ElliQ。

当AI映照出扭曲的人性

这两个例子说明了AI如何在不同程度上,映照出人性中被扭曲的秩序。Facebook 动态消息演算法的背后,潜藏着一种以自我为中心的政治意识形态。这种 “政治唯我论”(Political solipsism)像一道围篱,将Facebook使用者与不同甚至对立的政治观点隔绝开来。当这种唯我论式的政治行动被AI系统自动化并放大时,社会分裂便随之产生并迅速恶化。随着以自我为中心的政治意识形态持续产生唯我论式的数据,社会碎片化进一步加剧,导致人与人之间破裂且难以修复的关系。简言之,Facebook的动态消息AI演算法,在社会与政治层面上,具体呈现了人性中被扭曲的秩序。

与Facebook AI演算法所造成的社会与政治影响相比,ElliQ所涉及的问题在性质上有所不同。它揭示了人性被扭曲秩序的另一面向——即照护关系的脆弱性。ElliQ与人类的互动中被忽略的是:照护关系本身正是 “人之所以为人” 的意义之ㄧ。所谓的 “人”,乃是一种在与他人的关系中构成的存在。诚然,ElliQ在与人互动时更有效率、反应快速,而且庞大的数据量使其能开启富有资讯及洞见的对话。然而,从 “人之所以为人” 的意义来看,这种关怀关系并不具备真实性。此外,ElliQ也对那些本应承担长者照护责任的人造成损害。AI伦理领域的重要学者Shannon Vallor以深刻的洞见引导我们关注此议题。

回归上帝的形象

当照护机器人的行销人员或养老院管理者劝诱我们 “让机器人做好它的工作”,将照护任务移交给一个绝对不会忘记喂药、不会失去耐心、不会让亲人跌倒的存在时,我们可能会误以为这样的 “交出责任” 对我们和受照护者都是最好的。然而……当我做出这个选择时,我反而将自己束缚于一项特别不幸的奴役状态;当我砍断那条将我与所爱之人连在一起的锁链,宣称我获得了自由时,我实际上走入了一片充满陌生人与孤独的荒野,抛下所有曾关爱我的人,甚至可能连自己也一并抛弃。¹¹

Vallor清楚指出,当人逃避照护责任时,便失去了 “人之所以为人” 的真实意义。这种逃避照护责任的倾向,可以从神学上理解为:由于 “上帝的形象” 被扭曲及人性败坏,导致人类之间相互照护的关系变得脆弱;因为人性的败坏会使 “上帝与人” 以及 “人与人” 之间的关系被误导及扭曲。

近年AI技术的迅速发展,使人们对AI倾向乐观立场,甚至过度信任其所能带来的益处。尽管AI已深刻重塑我们生活的诸多层面,并带来大量可观的效益,但Facebook的动态消息演算法与ElliQ的案例表明:AI本身承载着某种价值导向,映照出人类在社会与伦理议题中的利益、欲望、理想和倾向。“上帝的形象” 与 “败坏的人性” 这两个神学概念,从神学层面减缓人类对科技进步的过度自信。更重要的是,这组概念不断提醒我们,在深入人工智能研究时,必须回到 “人性” 本身;基于此,我们被迫进一步追问,人工智能所映照出的 “被扭曲的人性秩序”,应当如何被修正与恢复?正是在这一点上,我们被引导去探索:上帝的恩典如何使我们在我们的副本——亦即人工智能——中,活出上帝的形象。

Dr. Ximian Simeon Xu, originally from Wenzhou, China, is a Senior Research Associate in the Faculty of Divinity at the University of Cambridge, where he also serves as the Director of the Cambridge Centre for Chinese…