近年来,人工智能(AI)在社会所扮演的角色备受关注。身为基督徒,我们关心AI对基督信仰与教会带来的影响。然而,有意义的讨论应当建立在对AI有扎实理解的基础之上。本文旨在揭开AI技术的神秘面纱,并辨析和规范其应用方式。
人工智能vs.人类智能
AI在现代社会中的重要角色已不言而喻,尤其是在ChatGPT开始被人们广泛应用后。1 然而,对多数人而言,AI仍带有某种神秘色彩。许多人并不清楚AI能做什么、不能做什么,也不知道该如何有效地使用这项工具。媒体往往也夸大描述AI的能力。因此,让我们首先揭开AI的神秘面纱。
图灵测试 (The Turing Test) 2 为评估一台机器在特定情境下,能否展现出与人类同等智能行为的能力。其方法是由一名人类评估者判断另一名人类与一部机器之间的对话。如果评估者无法区分两者,该机器便被视为通过了图灵测试。依照此一定义,今日的大型语言模型(LLMs)已能通过图灵测试(除了有幻觉问题)。然而,图灵测试是否真是定义AI的好标准?
约翰·瑟尔 (John R. Searle) 3 以 “中文房间论证”(Chinese Room Argument)对此定义提出质疑。试想一个完全不会中文的人待在密闭房间里,但手边有一些辅助工具,例如语言翻译器及庞大的知识资料库。他透过门缝与外界沟通:外面的人将中文问题写在纸上塞进来,他则把这些中文问题转换成自己熟悉的语言,查找答案,再将答案翻译回中文后传出去。对外面的人而言,这个房间里的人似乎 “懂中文”。但事实并非如此。
弱AI vs. 强AI
尽管今日的聊天机器人可以通过图灵测试,上述例子仍突显了机器智能与人类智能(HI)之间的差异。我们通常用 “弱AI”(Weak AI)与 “强AI”(Strong AI)的概念来解释两者的不同。弱AI仅仅模拟人类的心智,本身并不真正理解语意;而人类拥有能理解语义并进行逻辑推理的心智。强AI则被期待能尽可能地接近人类智能。
一般而言,人们将弱AI与 “高监督式学习”(Heavily Supervised Learning)相联,并将强AI与 “弱监督式学习”(Weakly Supervised Learning)相连。人类只需透过少量的训练样本便能快速学习;相比之下,机器则需要大量的训练样本。例如:2013年Kaggle的猫狗数据集4 包含了1万2500张狗和1万2500张猫的图像,才足以训练出一个猫狗分类器。然而,人类小孩只需极少的范例就能辨认猫和狗。使用较少(或较多)的范例就能学会,意味着具备更强(或更弱)的泛化能力(Generalizability)。
AI研究在最初的55年间(1956–2012)进展相对缓慢,但在过去13年内飞跃性发展。这个突破部分可以归因于大数据的可取得性、强大的硬体(如GPU)以及深度学习技术的成熟。这些说法都部分正确,但最关键的原因在于学习范式的转变——即从追求弱监督式学习(强AI)转向高监督式学习(弱AI)。
ChatGPT便是弱AI的一个例子。它虽然能回答各式各样的问题,但并不具备人类智能。以人类智能为代表的强AI则能思考、理解,并进行合乎逻辑的分析。强AI与弱AI之间仍存在巨大鸿沟。弱AI是 “以复杂应对复杂”,强AI则是 “以简驭繁”。例如,ChatGPT拥有数以兆计的参数,透过极为复杂的模型来理解这个复杂的世界,也就是用复杂度来处理复杂度,因此其泛化能力有限。
在高监督式学习的基础上,当今的AI需要大量的标注资料,而这是一项相当耗时的工作。另一种监督式学习的方式则运用 “自我监督”(self-supervision)。例如,我们任意遮蔽许多句子中的某个词来作为输入,并以原始句子作为输出,来训练模型去填补缺失的词语。这种被称为 “生成式预训练”的模型(Generative Pre-Trained, GPT),正是今日ChatGPT的核心架构。
弱AI的发展
弱AI大致可分为三个类别:1)传统机器学习(classical machine learning),2)深度学习(deep learning),3)绿色学习(green learning)。5 第一类是传统机器学习,其流程包含两个部分:特征撷取(feature extraction)与决策(decision-making)。其中,特征撷取高度依赖人类的专项设计(ad hoc design),但实务上往往难以找出某一任务所需的所有关键特征。第二类是深度学习,它透过大量网路模型参数来拟合输入与输出之间的关系,是当今AI应用的主流。第三类则是近十年兴起的技术。
深度学习 vs. 绿色学习
我们可以从几个面向来比较深度学习与绿色学习。深度学习具备两个特定的设计特征:建立在被称为 “人工神经元”的基本单元之上的网路架构,以及 “损失函数”(loss function)。一旦确立这两个特征,模型参数就可以透过一种称为 “反向传播”(backpropagation)的端到端优化演算法自动决定。当训练样本数量少于模型参数数量时,通常会采用预训练网路来构建更大的网路,以达成卓越的表现。近期的趋势是采用 “Transformer架构”6,这是一种以更高的模型复杂度来换取进一步提升性能的做法。然而,日益庞大的神经网路所产生的高碳足迹,已引发永续发展的隐忧。此外,深度学习的决策机制在某种程度上是模糊不清的。为了回应这些问题,“绿色学习”(GL)被提出作为一种替代性范式。绿色学习的特点在于:低碳排放、轻量化模型、低运算复杂度以及逻辑透明度。它不仅能在云端资料中心提供更节能的解决方案,也适用于行动/边缘设备。同时,绿色学习提供了更透明、更具逻辑性的决策过程,对于赢得大众的信任至关重要。
AI作为一种赋能工具
聊天机器人可以搜集资讯、回答问题、起草信件,以及生成图像与影片。许多例行性工作可以由AI取代,例如许多线上客服如今已由AI执行。然而,在需要创造力、泛化能力及抽象思考的任务上,AI仍无法取代人类。在多数情境下,AI将作为一种 “赋能工具”(enabling tool)协助人类进行决策。
然而,聊天机器人的行为完全受其训练资料的控制。若资料中存在不公平或偏见,将会反映在AI的回应之中。此外,“幻觉”(hallucination)是另一项重要隐忧:聊天机器人可能在缺乏证据、甚至引用虚假证据的情况下给出答案,或给人们误导性的建议并造成严重后果。在我们的社会中,会计师、律师、医师等专业人士提供关键服务前,必须通过考试取得资格,并在出错时承担法律责任;但目前AI服务尚未有类似的规范机制。因此,在可预见的未来,AI仍将主要扮演人类助手的角色。AI可以提高人类的生产力,但最终决策仍必须由人类做出。AI也将在现代社会的基础设施(如电力系统、交通、经济及武器)中发挥关键作用;但即便是一个微小的错误也可能导致灾难性的后果。因此,我们仍需要更多研究与制度规范,以确保AI的妥善运用。
AI在基督教事工及当代教会中的应用
在21世纪的处境中,我们应当善用AI于基督教事工中。以下是几个值得思考的方向:
1. 建立以基督信仰为基础的聊天机器人
基督徒群体可以开发并利用根基于圣经、基督教价值观及实践的聊天机器人。使信徒在寻求答案时,能寻得与教义一致的解答。此外,基督徒也能和聊天机器人一起祷告,因为它能提供鼓励、安慰的话语及相关经文。
2. AI辅助讲坛服事
牧者在预备讲道时,可以透过输入关键字、核心概念或初步大纲来善用聊天机器人。这不仅能节省时间,也能让讲道内容更丰富,例如加入支持性的经文、故事、数据图表,甚至适当的幽默。然而,这并不代表牧者不需要付出努力。牧者仍需关注地方教会的具体处境,并根据会众的需要来预备信息。
3. AI与神学教育
AI并不具备人类所拥有的心智、灵魂、情感、价值观,或和人类一样的逻辑推理能力7,尽管有些科技公司试图说服大众如此相信。因此,清楚认识AI能做什么、不能做什么,并将AI置于社会中正确的位置,是至关重要的。现代神学教育需要帮助学生建立这样的分辨能力。另一方面,AI也可以成为促进神学教育(以及其他领域)的实用工具。
结论AI无法挑战人类独特的角色。现今媒体过度夸大AI的潜力,导致不少混乱及错误预测。尽管AI是一项强大的工具,人类仍需为其使用负起完全责任。我们需要发展新的法律、伦理规范与教育,以在获取其最大效益的同时,减少误用所带来的伤害。在这方面,基督徒学者和领袖应当扮演关键的角色