綠色學習與基督徒對AI的回應

根基、倫理與管家職分

Digital tree of life conceptual tech artwork for science growth and innovation visuals. AI will not replace humans in tasks that demand creativity, generalizability, and abstraction. In most scenarios, AI will serve as an enabling tool to assist humans in decision-making.
Image Credit: By Diyal via Adobe Stock. Licensed for use by ChinaSource.

近年來,人工智慧(AI)在社會所扮演的角色備受關注。身為基督徒,我們關心AI對基督信仰與教會帶來的影響。然而,有意義的討論應當建立在對AI有紮實理解的基礎之上。本文旨在揭開AI技術的神祕面紗,並辨析和規範其應用方式。

人工智慧vs.人類智慧

AI在現代社會中的重要角色已不言而喻,尤其是在ChatGPT開始被人們廣泛應用後。1 然而,對多數人而言,AI仍帶有某種神祕色彩。許多人並不清楚AI能做什麼、不能做什麼,也不知道該如何有效地使用這項工具。媒體往往也誇大描述AI的能力。因此,讓我們首先揭開AI的神祕面紗。

圖靈測試 (The Turing Test) 2 為評估一台機器在特定情境下,能否展現出與人類同等智慧行為的能力。其方法是由一名人類評估者判斷另一名人類與一部機器之間的對話。如果評估者無法區分兩者,該機器便被視為通過了圖靈測試。依照此一定義,今日的大型語言模型(LLMs)已能通過圖靈測試(除了有幻覺問題)。然而,圖靈測試是否真是定義AI的好標準?

約翰·瑟爾 (John R. Searle) 3 以「中文房間論證」(Chinese Room Argument)對此定義提出質疑。試想一個完全不會中文的人待在密閉房間裡,但手邊有一些輔助工具,例如語言翻譯器及龐大的知識資料庫。他透過門縫與外界溝通:外面的人將中文問題寫在紙上塞進來,他則把這些中文問題轉換成自己熟悉的語言,查找答案,再將答案翻譯回中文後傳出去。對外面的人而言,這個房間裡的人似乎「懂中文」。但事實並非如此。

弱AI vs.強AI

儘管今日的聊天機器人可以通過圖靈測試,上述例子仍突顯了機器智慧與人類智慧(HI)之間的差異。我們通常用「弱AI」(Weak AI)與「強AI」(Strong AI)的概念來解釋兩者的不同。弱AI僅僅模擬人類的心智,本身並不真正理解語意;而人類擁有能理解語義並進行邏輯推理的心智。強AI則被期待能盡可能地接近人類智慧。

一般而言,人們將弱AI與「高監督式學習」(Heavily Supervised Learning)相聯,並將強AI與「弱監督式學習」(Weakly Supervised Learning)相連。人類只需透過少量的訓練樣本便能快速學習;相比之下,機器則需要大量的訓練樣本。例如:2013年Kaggle的貓狗數據集4 包含了1萬2500張狗和1萬2500張貓的圖像,才足以訓練出一個貓狗分類器。然而,人類小孩只需極少的範例就能辨認貓和狗。使用較少(或較多)的範例就能學會,意味著具備更強(或更弱)的泛化能力(Generalizability)。

AI研究在最初的55年間(1956–2012)進展相對緩慢,但在過去13年內飛躍性發展。這個突破部分可以歸因於大數據的可取得性、強大的硬體(如GPU)以及深度學習技術的成熟。這些說法都部分正確,但最關鍵的原因在於學習範式的轉變——即從追求弱監督式學習(強AI)轉向高監督式學習(弱AI)。

ChatGPT便是弱AI的一個例子。它雖然能回答各式各樣的問題,但並不具備人類智慧。以人類智慧為代表的強AI則能思考、理解,並進行合乎邏輯的分析。強AI與弱AI之間仍存在巨大鴻溝。弱AI是「以複雜應對複雜」,強AI則是「以簡馭繁」。例如,ChatGPT擁有數以兆計的參數,透過極為複雜的模型來理解這個複雜的世界,也就是用複雜度來處理複雜度,因此其泛化能力有限。

在高監督式學習的基礎上,當今的AI需要大量的標註資料,而這是一項相當耗時的工作。另一種監督式學習的方式則運用「自我監督」(self-supervision)。例如,我們任意遮蔽許多句子中的某個詞來作為輸入,並以原始句子作為輸出,來訓練模型去填補缺失的詞語。這種被稱為「生成式預訓練」的模型(Generative Pre-Trained, GPT),正是今日ChatGPT的核心架構。

弱AI的發展

弱AI大致可分為三個類別:1)傳統機器學習(classical machine learning),2)深度學習(deep learning),3)綠色學習(green learning)。5 第一類是傳統機器學習,其流程包含兩個部分:特徵擷取(feature extraction)與決策(decision-making)。其中,特徵擷取高度依賴人類的專項設計(ad hoc design),但實務上往往難以找出某一任務所需的所有關鍵特徵。第二類是深度學習,它透過大量網路模型參數來擬合輸入與輸出之間的關係,是當今AI應用的主流。第三類則是近十年興起的技術。

深度學習 vs. 綠色學習

我們可以從幾個面向來比較深度學習與綠色學習。深度學習具備兩個特定的設計特徵:建立在被稱為「人工神經元」的基本單元之上的網路架構,以及「損失函數」(loss function)。一旦確立這兩個特徵,模型參數就可以透過一種稱為「反向傳播」(backpropagation)的端到端優化演算法自動決定。當訓練樣本數量少於模型參數數量時,通常會採用預訓練網路來構建更大的網路,以達成卓越的表現。近期的趨勢是採用「Transformer架構」6,這是一種以更高的模型複雜度來換取進一步提升性能的做法。然而,日益龐大的神經網路所產生的高碳足跡,已引發永續發展的隱憂。此外,深度學習的決策機制在某種程度上是模糊不清的。為了回應這些問題,「綠色學習」(GL)被提出作為一種替代性範式。綠色學習的特點在於:低碳排放輕量化模型、低運算複雜度以及邏輯透明度。它不僅能在雲端資料中心提供更節能的解決方案,也適用於行動/邊緣裝置。同時,綠色學習提供了更透明、更具邏輯性的決策過程,對於贏得大眾的信任至關重要。

AI作為一種賦能工具

聊天機器人可以蒐集資訊、回答問題、起草信件,以及生成圖像與影片。許多例行性工作可以由AI取代,例如許多線上客服如今已由AI執行。然而,在需要創造力、泛化能力及抽象思考的任務上,AI仍無法取代人類。在多數情境下,AI將作為一種「賦能工具」(enabling tool)協助人類進行決策。

然而,聊天機器人的行為完全受其訓練資料的控制。若資料中存在不公平或偏見,將會反映在AI的回應之中。此外,「幻覺」(hallucination)是另一項重要隱憂:聊天機器人可能在缺乏證據、甚至引用虛假證據的情況下給出答案,或給人們誤導性的建議並造成嚴重後果。在我們的社會中,會計師、律師、醫師等專業人士提供關鍵服務前,必須通過考試取得資格,並在出錯時承擔法律責任;但目前AI服務尚未有類似的規範機制。因此,在可預見的未來,AI仍將主要扮演人類助手的角色。AI 可以提高人類的生產力,但最終決策仍必須由人類做出。AI也將在現代社會的基礎設施(如電力系統、交通、經濟及武器)中發揮關鍵作用;但即便是一個微小的錯誤也可能導致災難性的後果。因此,我們仍需要更多研究與制度規範,以確保AI的妥善運用。

AI在基督教事工及當代教會中的應用

在21世紀的處境中,我們應當善用AI於基督教事工中。以下是幾個值得思考的方向:

1. 建立以基督信仰為基礎的聊天機器人

基督徒群體可以開發並利用根基於聖經、基督教價值觀及實踐的聊天機器人。使信徒在尋求答案時,能尋得與教義一致的解答。此外,基督徒也能和聊天機器人一起禱告,因為它能提供鼓勵、安慰的話語及相關經文。

2. AI輔助講壇服事

牧者在預備講道時,可以透過輸入關鍵字、核心概念或初步大綱來善用聊天機器人。這不僅能節省時間,也能讓講道內容更豐富,例如加入支持性的經文、故事、數據圖表,甚至適當的幽默。然而,這並不代表牧者不需要付出努力。牧者仍需關注地方教會的具體處境,並根據會眾的需要來預備信息。

3. AI與神學教育

AI並不具備人類所擁有的心智、靈魂、情感、價值觀,或和人類一樣的邏輯推理能力7,儘管有些科技公司試圖說服大眾如此相信。因此,清楚認識AI能做什麼、不能做什麼,並將AI置於社會中正確的位置,是至關重要的。現代神學教育需要幫助學生建立這樣的分辨能力。另一方面,AI也可以成為促進神學教育(以及其他領域)的實用工具。

結論

AI無法挑戰人類獨特的角色。現今媒體過度誇大AI的潛力,導致不少混亂及錯誤預測。儘管AI是一項強大的工具,人類仍需為其使用負起完全責任。我們需要發展新的法律、倫理規範與教育,以在獲取其最大效益的同時,減少誤用所帶來的傷害。在這方面,基督徒學者和領袖應當扮演關鍵的角色。

Dr. C.-C. Jay Kuo is the Ming Hsieh Chair Professor in Electrical and Computer Engineering-Systems at the University of Southern California (USC). He received the B.S. degree from the National Taiwan University, Taipei in 1980 and…