近年來,人工智慧(AI)在社會所扮演的角色備受關注。身為基督徒,我們關心AI對基督信仰與教會帶來的影響。然而,有意義的討論應當建立在對AI有紮實理解的基礎之上。本文旨在揭開AI技術的神祕面紗,並辨析和規範其應用方式。
人工智慧vs.人類智慧
AI在現代社會中的重要角色已不言而喻,尤其是在ChatGPT開始被人們廣泛應用後。1 然而,對多數人而言,AI仍帶有某種神祕色彩。許多人並不清楚AI能做什麼、不能做什麼,也不知道該如何有效地使用這項工具。媒體往往也誇大描述AI的能力。因此,讓我們首先揭開AI的神祕面紗。
圖靈測試 (The Turing Test) 2 為評估一台機器在特定情境下,能否展現出與人類同等智慧行為的能力。其方法是由一名人類評估者判斷另一名人類與一部機器之間的對話。如果評估者無法區分兩者,該機器便被視為通過了圖靈測試。依照此一定義,今日的大型語言模型(LLMs)已能通過圖靈測試(除了有幻覺問題)。然而,圖靈測試是否真是定義AI的好標準?
約翰·瑟爾 (John R. Searle) 3 以「中文房間論證」(Chinese Room Argument)對此定義提出質疑。試想一個完全不會中文的人待在密閉房間裡,但手邊有一些輔助工具,例如語言翻譯器及龐大的知識資料庫。他透過門縫與外界溝通:外面的人將中文問題寫在紙上塞進來,他則把這些中文問題轉換成自己熟悉的語言,查找答案,再將答案翻譯回中文後傳出去。對外面的人而言,這個房間裡的人似乎「懂中文」。但事實並非如此。
弱AI vs.強AI
儘管今日的聊天機器人可以通過圖靈測試,上述例子仍突顯了機器智慧與人類智慧(HI)之間的差異。我們通常用「弱AI」(Weak AI)與「強AI」(Strong AI)的概念來解釋兩者的不同。弱AI僅僅模擬人類的心智,本身並不真正理解語意;而人類擁有能理解語義並進行邏輯推理的心智。強AI則被期待能盡可能地接近人類智慧。
一般而言,人們將弱AI與「高監督式學習」(Heavily Supervised Learning)相聯,並將強AI與「弱監督式學習」(Weakly Supervised Learning)相連。人類只需透過少量的訓練樣本便能快速學習;相比之下,機器則需要大量的訓練樣本。例如:2013年Kaggle的貓狗數據集4 包含了1萬2500張狗和1萬2500張貓的圖像,才足以訓練出一個貓狗分類器。然而,人類小孩只需極少的範例就能辨認貓和狗。使用較少(或較多)的範例就能學會,意味著具備更強(或更弱)的泛化能力(Generalizability)。
AI研究在最初的55年間(1956–2012)進展相對緩慢,但在過去13年內飛躍性發展。這個突破部分可以歸因於大數據的可取得性、強大的硬體(如GPU)以及深度學習技術的成熟。這些說法都部分正確,但最關鍵的原因在於學習範式的轉變——即從追求弱監督式學習(強AI)轉向高監督式學習(弱AI)。
ChatGPT便是弱AI的一個例子。它雖然能回答各式各樣的問題,但並不具備人類智慧。以人類智慧為代表的強AI則能思考、理解,並進行合乎邏輯的分析。強AI與弱AI之間仍存在巨大鴻溝。弱AI是「以複雜應對複雜」,強AI則是「以簡馭繁」。例如,ChatGPT擁有數以兆計的參數,透過極為複雜的模型來理解這個複雜的世界,也就是用複雜度來處理複雜度,因此其泛化能力有限。
在高監督式學習的基礎上,當今的AI需要大量的標註資料,而這是一項相當耗時的工作。另一種監督式學習的方式則運用「自我監督」(self-supervision)。例如,我們任意遮蔽許多句子中的某個詞來作為輸入,並以原始句子作為輸出,來訓練模型去填補缺失的詞語。這種被稱為「生成式預訓練」的模型(Generative Pre-Trained, GPT),正是今日ChatGPT的核心架構。
弱AI的發展
弱AI大致可分為三個類別:1)傳統機器學習(classical machine learning),2)深度學習(deep learning),3)綠色學習(green learning)。5 第一類是傳統機器學習,其流程包含兩個部分:特徵擷取(feature extraction)與決策(decision-making)。其中,特徵擷取高度依賴人類的專項設計(ad hoc design),但實務上往往難以找出某一任務所需的所有關鍵特徵。第二類是深度學習,它透過大量網路模型參數來擬合輸入與輸出之間的關係,是當今AI應用的主流。第三類則是近十年興起的技術。
深度學習 vs. 綠色學習
我們可以從幾個面向來比較深度學習與綠色學習。深度學習具備兩個特定的設計特徵:建立在被稱為「人工神經元」的基本單元之上的網路架構,以及「損失函數」(loss function)。一旦確立這兩個特徵,模型參數就可以透過一種稱為「反向傳播」(backpropagation)的端到端優化演算法自動決定。當訓練樣本數量少於模型參數數量時,通常會採用預訓練網路來構建更大的網路,以達成卓越的表現。近期的趨勢是採用「Transformer架構」6,這是一種以更高的模型複雜度來換取進一步提升性能的做法。然而,日益龐大的神經網路所產生的高碳足跡,已引發永續發展的隱憂。此外,深度學習的決策機制在某種程度上是模糊不清的。為了回應這些問題,「綠色學習」(GL)被提出作為一種替代性範式。綠色學習的特點在於:低碳排放、輕量化模型、低運算複雜度以及邏輯透明度。它不僅能在雲端資料中心提供更節能的解決方案,也適用於行動/邊緣裝置。同時,綠色學習提供了更透明、更具邏輯性的決策過程,對於贏得大眾的信任至關重要。
AI作為一種賦能工具
聊天機器人可以蒐集資訊、回答問題、起草信件,以及生成圖像與影片。許多例行性工作可以由AI取代,例如許多線上客服如今已由AI執行。然而,在需要創造力、泛化能力及抽象思考的任務上,AI仍無法取代人類。在多數情境下,AI將作為一種「賦能工具」(enabling tool)協助人類進行決策。
然而,聊天機器人的行為完全受其訓練資料的控制。若資料中存在不公平或偏見,將會反映在AI的回應之中。此外,「幻覺」(hallucination)是另一項重要隱憂:聊天機器人可能在缺乏證據、甚至引用虛假證據的情況下給出答案,或給人們誤導性的建議並造成嚴重後果。在我們的社會中,會計師、律師、醫師等專業人士提供關鍵服務前,必須通過考試取得資格,並在出錯時承擔法律責任;但目前AI服務尚未有類似的規範機制。因此,在可預見的未來,AI仍將主要扮演人類助手的角色。AI 可以提高人類的生產力,但最終決策仍必須由人類做出。AI也將在現代社會的基礎設施(如電力系統、交通、經濟及武器)中發揮關鍵作用;但即便是一個微小的錯誤也可能導致災難性的後果。因此,我們仍需要更多研究與制度規範,以確保AI的妥善運用。
AI在基督教事工及當代教會中的應用
在21世紀的處境中,我們應當善用AI於基督教事工中。以下是幾個值得思考的方向:
1. 建立以基督信仰為基礎的聊天機器人
基督徒群體可以開發並利用根基於聖經、基督教價值觀及實踐的聊天機器人。使信徒在尋求答案時,能尋得與教義一致的解答。此外,基督徒也能和聊天機器人一起禱告,因為它能提供鼓勵、安慰的話語及相關經文。
2. AI輔助講壇服事
牧者在預備講道時,可以透過輸入關鍵字、核心概念或初步大綱來善用聊天機器人。這不僅能節省時間,也能讓講道內容更豐富,例如加入支持性的經文、故事、數據圖表,甚至適當的幽默。然而,這並不代表牧者不需要付出努力。牧者仍需關注地方教會的具體處境,並根據會眾的需要來預備信息。
3. AI與神學教育
AI並不具備人類所擁有的心智、靈魂、情感、價值觀,或和人類一樣的邏輯推理能力7,儘管有些科技公司試圖說服大眾如此相信。因此,清楚認識AI能做什麼、不能做什麼,並將AI置於社會中正確的位置,是至關重要的。現代神學教育需要幫助學生建立這樣的分辨能力。另一方面,AI也可以成為促進神學教育(以及其他領域)的實用工具。
結論
AI無法挑戰人類獨特的角色。現今媒體過度誇大AI的潛力,導致不少混亂及錯誤預測。儘管AI是一項強大的工具,人類仍需為其使用負起完全責任。我們需要發展新的法律、倫理規範與教育,以在獲取其最大效益的同時,減少誤用所帶來的傷害。在這方面,基督徒學者和領袖應當扮演關鍵的角色。