绿色学习与基督徒对AI的回应

根基、伦理与管家职分

Digital tree of life conceptual tech artwork for science growth and innovation visuals. AI will not replace humans in tasks that demand creativity, generalizability, and abstraction. In most scenarios, AI will serve as an enabling tool to assist humans in decision-making.
Image Credit: By Diyal via Adobe Stock. Licensed for use by ChinaSource.

近年来,人工智能(AI)在社会所扮演的角色备受关注。身为基督徒,我们关心AI对基督信仰与教会带来的影响。然而,有意义的讨论应当建立在对AI有扎实理解的基础之上。本文旨在揭开AI技术的神秘面纱,并辨析和规范其应用方式。

人工智能vs.人类智能

AI在现代社会中的重要角色已不言而喻,尤其是在ChatGPT开始被人们广泛应用后。1  然而,对多数人而言,AI仍带有某种神秘色彩。许多人并不清楚AI能做什么、不能做什么,也不知道该如何有效地使用这项工具。媒体往往也夸大描述AI的能力。因此,让我们首先揭开AI的神秘面纱。

图灵测试 (The Turing Test) 2 为评估一台机器在特定情境下,能否展现出与人类同等智能行为的能力。其方法是由一名人类评估者判断另一名人类与一部机器之间的对话。如果评估者无法区分两者,该机器便被视为通过了图灵测试。依照此一定义,今日的大型语言模型(LLMs)已能通过图灵测试(除了有幻觉问题)。然而,图灵测试是否真是定义AI的好标准?

约翰·瑟尔 (John R. Searle) 3 以 “中文房间论证”(Chinese Room Argument)对此定义提出质疑。试想一个完全不会中文的人待在密闭房间里,但手边有一些辅助工具,例如语言翻译器及庞大的知识资料库。他透过门缝与外界沟通:外面的人将中文问题写在纸上塞进来,他则把这些中文问题转换成自己熟悉的语言,查找答案,再将答案翻译回中文后传出去。对外面的人而言,这个房间里的人似乎 “懂中文”。但事实并非如此。

弱AI vs. 强AI

尽管今日的聊天机器人可以通过图灵测试,上述例子仍突显了机器智能与人类智能(HI)之间的差异。我们通常用 “弱AI”(Weak AI)与 “强AI”(Strong AI)的概念来解释两者的不同。弱AI仅仅模拟人类的心智,本身并不真正理解语意;而人类拥有能理解语义并进行逻辑推理的心智。强AI则被期待能尽可能地接近人类智能。

一般而言,人们将弱AI与 “高监督式学习”(Heavily Supervised Learning)相联,并将强AI与 “弱监督式学习”(Weakly Supervised Learning)相连。人类只需透过少量的训练样本便能快速学习;相比之下,机器则需要大量的训练样本。例如:2013年Kaggle的猫狗数据集4 包含了1万2500张狗和1万2500张猫的图像,才足以训练出一个猫狗分类器。然而,人类小孩只需极少的范例就能辨认猫和狗。使用较少(或较多)的范例就能学会,意味着具备更强(或更弱)的泛化能力(Generalizability)。

AI研究在最初的55年间(1956–2012)进展相对缓慢,但在过去13年内飞跃性发展。这个突破部分可以归因于大数据的可取得性、强大的硬体(如GPU)以及深度学习技术的成熟。这些说法都部分正确,但最关键的原因在于学习范式的转变——即从追求弱监督式学习(强AI)转向高监督式学习(弱AI)。

ChatGPT便是弱AI的一个例子。它虽然能回答各式各样的问题,但并不具备人类智能。以人类智能为代表的强AI则能思考、理解,并进行合乎逻辑的分析。强AI与弱AI之间仍存在巨大鸿沟。弱AI是 “以复杂应对复杂”,强AI则是 “以简驭繁”。例如,ChatGPT拥有数以兆计的参数,透过极为复杂的模型来理解这个复杂的世界,也就是用复杂度来处理复杂度,因此其泛化能力有限。

在高监督式学习的基础上,当今的AI需要大量的标注资料,而这是一项相当耗时的工作。另一种监督式学习的方式则运用 “自我监督”(self-supervision)。例如,我们任意遮蔽许多句子中的某个词来作为输入,并以原始句子作为输出,来训练模型去填补缺失的词语。这种被称为 “生成式预训练”的模型(Generative Pre-Trained, GPT),正是今日ChatGPT的核心架构。

弱AI的发展

弱AI大致可分为三个类别:1)传统机器学习(classical machine learning),2)深度学习(deep learning),3)绿色学习(green learning)。5 第一类是传统机器学习,其流程包含两个部分:特征撷取(feature extraction)与决策(decision-making)。其中,特征撷取高度依赖人类的专项设计(ad hoc design),但实务上往往难以找出某一任务所需的所有关键特征。第二类是深度学习,它透过大量网路模型参数来拟合输入与输出之间的关系,是当今AI应用的主流。第三类则是近十年兴起的技术。

深度学习 vs. 绿色学习

我们可以从几个面向来比较深度学习与绿色学习。深度学习具备两个特定的设计特征:建立在被称为 “人工神经元”的基本单元之上的网路架构,以及 “损失函数”(loss function)。一旦确立这两个特征,模型参数就可以透过一种称为 “反向传播”(backpropagation)的端到端优化演算法自动决定。当训练样本数量少于模型参数数量时,通常会采用预训练网路来构建更大的网路,以达成卓越的表现。近期的趋势是采用 “Transformer架构”6,这是一种以更高的模型复杂度来换取进一步提升性能的做法。然而,日益庞大的神经网路所产生的高碳足迹,已引发永续发展的隐忧。此外,深度学习的决策机制在某种程度上是模糊不清的。为了回应这些问题,“绿色学习”(GL)被提出作为一种替代性范式。绿色学习的特点在于:低碳排放、轻量化模型、低运算复杂度以及逻辑透明度。它不仅能在云端资料中心提供更节能的解决方案,也适用于行动/边缘设备。同时,绿色学习提供了更透明、更具逻辑性的决策过程,对于赢得大众的信任至关重要。

AI作为一种赋能工具

聊天机器人可以搜集资讯、回答问题、起草信件,以及生成图像与影片。许多例行性工作可以由AI取代,例如许多线上客服如今已由AI执行。然而,在需要创造力、泛化能力及抽象思考的任务上,AI仍无法取代人类。在多数情境下,AI将作为一种 “赋能工具”(enabling tool)协助人类进行决策。

然而,聊天机器人的行为完全受其训练资料的控制。若资料中存在不公平或偏见,将会反映在AI的回应之中。此外,“幻觉”(hallucination)是另一项重要隐忧:聊天机器人可能在缺乏证据、甚至引用虚假证据的情况下给出答案,或给人们误导性的建议并造成严重后果。在我们的社会中,会计师、律师、医师等专业人士提供关键服务前,必须通过考试取得资格,并在出错时承担法律责任;但目前AI服务尚未有类似的规范机制。因此,在可预见的未来,AI仍将主要扮演人类助手的角色。AI可以提高人类的生产力,但最终决策仍必须由人类做出。AI也将在现代社会的基础设施(如电力系统、交通、经济及武器)中发挥关键作用;但即便是一个微小的错误也可能导致灾难性的后果。因此,我们仍需要更多研究与制度规范,以确保AI的妥善运用。

AI在基督教事工及当代教会中的应用

在21世纪的处境中,我们应当善用AI于基督教事工中。以下是几个值得思考的方向:

1. 建立以基督信仰为基础的聊天机器人

基督徒群体可以开发并利用根基于圣经、基督教价值观及实践的聊天机器人。使信徒在寻求答案时,能寻得与教义一致的解答。此外,基督徒也能和聊天机器人一起祷告,因为它能提供鼓励、安慰的话语及相关经文。

2. AI辅助讲坛服事

牧者在预备讲道时,可以透过输入关键字、核心概念或初步大纲来善用聊天机器人。这不仅能节省时间,也能让讲道内容更丰富,例如加入支持性的经文、故事、数据图表,甚至适当的幽默。然而,这并不代表牧者不需要付出努力。牧者仍需关注地方教会的具体处境,并根据会众的需要来预备信息。

3. AI与神学教育

AI并不具备人类所拥有的心智、灵魂、情感、价值观,或和人类一样的逻辑推理能力7,尽管有些科技公司试图说服大众如此相信。因此,清楚认识AI能做什么、不能做什么,并将AI置于社会中正确的位置,是至关重要的。现代神学教育需要帮助学生建立这样的分辨能力。另一方面,AI也可以成为促进神学教育(以及其他领域)的实用工具。

结论AI无法挑战人类独特的角色。现今媒体过度夸大AI的潜力,导致不少混乱及错误预测。尽管AI是一项强大的工具,人类仍需为其使用负起完全责任。我们需要发展新的法律、伦理规范与教育,以在获取其最大效益的同时,减少误用所带来的伤害。在这方面,基督徒学者和领袖应当扮演关键的角色

Dr. C.-C. Jay Kuo is the Ming Hsieh Chair Professor in Electrical and Computer Engineering-Systems at the University of Southern California (USC). He received the B.S. degree from the National Taiwan University, Taipei in 1980 and…