AI的興起與分歧的人類反應
人工智慧(AI)如今已成為一個概括性術語,通常泛指所有能利用心理技能來執行行動的機器,而這些行動傳統上被認為必須依賴人類心智才能完成。這些「類人」功能使許多使用者開始想像,未來AI在各個領域取代人類的可能性。隨著大型語言模型(LLMs)的出現及廣泛應用,例如ChatGPT、Microsoft Copilot和Google Gemini,這種對AI技術的樂觀看法更是不斷升溫。LLMs滲透人類社會,使人產生一種印象:AI已經並將持續為人類生命的繁榮帶來福祉。
然而,並非所有人類使用者都認同這股AI熱潮。越來越多人開始關注與人工智慧應用相關的道德與社會問題;在過去幾年中,AI治理(AI governance)也引發了廣泛的辯論。¹
從倫理反思到本體論基礎:為何AI並非價值中立(Value-Neutral)
近年來,關於基督教神學與AI的研究,在肯定AI對人類生活帶來正面影響的同時,也開始探討其廣泛應用所引發的風險。例如,Eric Stoddart提醒我們,在認可AI系統價值的同時,受AI輔助的照護實踐不應削弱人類在教牧關懷中的責任。²
另一個例子是Andrea Vicini對AI與社會控制的研究。延續羅馬天主教在AI倫理上的討論,他指出AI透過社會控制技術(例如臉部辨識系統)為人類公共利益做出的貢獻,但同時也在就業、市場、司法體系以及其他社會領域中引發倫理上的挑戰。³
這些研究一致認為,AI並非價值中立,而是透過數據、演算法、模型架構以及AI 系統開發的其他面向,有特定的價值導向。由此引發兩個關鍵問題:基督教神學將如何進一步闡明這種「有特定價值導向的AI」所蘊含的意義?我們可以借鑑哪些神學遺產以回應與AI相關的倫理與社會議題?
在我近期的一本專著中,我使用「原型神學—副本神學」(archetype–ectype)以及「上帝的形象」這兩個神學概念,建構一套關於AI的神學本體論。⁴ 以下將概述與本文相關的要點。
「原型」(ἀρχέτυπος) 的字面意思是終極的典範或模範;「副本」(ἔκτυπος)則指對該終極模範的複製、摹仿或反射。上帝是原型,人類是「副本」。這種上帝與人類之間的「原型—副本」關係,符合「人類是上帝按其形象所造」的神學觀念,並揭示上帝作為創造者及人類作為受造物之間在本體論上的區別。由此邏輯推導,神聖行動與人類行動在所有層面上都存在不可磨滅的差異。即便如此,「原型與副本」的概念同時也蘊含上帝與人類之間的連結。作為神聖原型的副本,人類「映照」了神聖的創造性行動,創造屬於人類自己的副本,例如AI。⁵ 此外,AI作為人類(即上帝形象承載者)的副本,在其被創造的過程中,承載了多層次的價值;因為「上帝的形象」本身就涉及「人之所以為人」的宗教性及道德性意義。簡言之,AI會複製並反映其設計者、提供者、使用者以及其他利害關係人所持有的價值觀。
人工智慧映照人性——德性與惡性並存
我在專著中所建構的概念工具,闡述了「承載著價值的AI」(value-loaded AI)的意涵及其與人類之間的關聯。作為人類的副本(ectype),AI所承載的價值映照了人類自身擁有的價值,無論這些價值是德性還是惡性。從神學角度來看,承載著價值的AI,在某種程度上反映了人類同時作為「受造」且「墮落」之存在的本質。在人類與AI系統中,人類在創造之時被賦予的道德之美,與人類墮落後的道德惡性乃是並存的。
那麼,德性與惡性如何能在人性中並存,並進而傳遞至AI之中?在此,奧古斯丁對「敗壞」的雙重詮釋提供了重要幫助。他指出:「凡被敗壞之物,皆喪失其完整性與純淨性。」接著他又說:「凡被敗壞之物,皆是被扭曲的;而凡被扭曲之物,皆失去了秩序。但秩序本是良善的。因此,被敗壞之物並非全然失去良善;也正因如此,它在敗壞的過程中才會失去良善。」⁶ 奧古斯丁清楚地指出,墮落並未推翻人類本質中受造的良善,而是扭曲了人性之善的秩序。因此,「人類的敗壞」意思是人類良善本質的秩序被扭曲。
由此可推論,墮落後的人類仍是按上帝形象所造,儘管這一形象已受損與扭曲。這一點有助於理解人類生活中德性與惡性共存的現實,而這種現實也反映在作為人類人造「副本」的AI之中。從這個視角來看,我們應當在理解人性既良善卻又敗壞的前提下來看待、評估並處理AI所帶來的祝福與威脅。
Facebook與社會分裂的自動化
因此,AI對人類社會所帶來的挑戰,必須參照人類本質中被歪曲的秩序、完整性與純淨性來進行評估。帶著這層認知,我們進而探討這種「被扭曲的秩序」如何體現在AI系統的應用中。為了說明這點,讓我們反思Facebook的動態消息演算法,以及用於長者照護的AI機器人ElliQ。
Meta(原 Facebook)被指控在2020年美國總統大選期間,透過其動態消息演算法加劇意識形態的分化並削弱社會和諧。⁷ Facebook的AI演算法透過強化學習模型與對使用者政治觀點及行為的統計分析,來排序用戶動態消息中的新聞內容。其用戶會持續接收到符合自身偏好的政治貼文與具有情緒吸引力的內容,進而導致美國社會內部分裂加劇,社會凝聚力減弱。Facebook的演算法本身存在問題,這ㄧ點毋庸置疑。然而,我們也必須承認,用戶的偏好與網路行為共同加劇了社會的碎片化。如果說AI演算法使社會分裂「自動化」,那麼持續認同並強化這種分裂的,正是Facebook的使用者本身。
ElliQ與人工照護的倫理問題
ElliQ是一款由Intuition Robotics開發、專為長者照護設計的AI陪伴機器人。傳統的人工陪伴系統大多屬於被動式互動,通常只有在使用者發出指令時才會回應。相比之下,ElliQ則會主動開啟對話並積極與長者互動。Grace Andruszkiewicz在2023年的報導指出:「在過去幾年中,ElliQ已進入全美各地長者的家庭,並與使用者完成超過一千萬次互動。我們有幸見證一些極其顯著的成果。事實上,95%的使用者認為ElliQ有助於減輕他們的孤獨感並提升福祉,而90%的使用者表示ElliQ改善了他們的生活品質。」⁸ 儘管如此,近期的研究顯示,部分使用者對於ElliQ過於主動的運作感到困擾,因為它每天頻繁地邀請用戶與它對話。阿曼達·夏基(Amanda Sharkey)與諾埃爾·夏基(Noel Sharkey)對AI長者照護機器人提出更具批判性的觀察:長者被鼓勵與人造陪伴者互動,彷彿它們是人類同伴一樣,這本質上是一種欺騙,甚至可能使長者被幼體化(infantilize)。¹⁰ 這種「幼體化」的現象可能讓照顧者逃避其應負的照護責任,將工作完全轉交給ElliQ。
當AI映照出扭曲的人性
這兩個例子說明了AI如何在不同程度上,映照出人性中被扭曲的秩序。Facebook 動態消息演算法的背後,潛藏著一種以自我為中心的政治意識形態。這種「政治唯我論」(Political solipsism)像一道圍籬,將Facebook使用者與不同甚至對立的政治觀點隔絕開來。當這種唯我論式的政治行動被AI系統自動化並放大時,社會分裂便隨之產生並迅速惡化。隨著以自我為中心的政治意識形態持續產生唯我論式的數據,社會碎片化進一步加劇,導致人與人之間破裂且難以修復的關係。簡言之,Facebook的動態消息AI演算法,在社會與政治層面上,具體呈現了人性中被扭曲的秩序。
與Facebook AI演算法所造成的社會與政治影響相比,ElliQ所涉及的問題在性質上有所不同。它揭示了人性被扭曲秩序的另一面向——即照護關係的脆弱性。在ElliQ與人類的互動中被忽略的是:照護關係本身正是「人之所以為人」的意義之ㄧ。所謂的「人」,乃是一種在與他人的關係中構成的存在。誠然,ElliQ在與人互動時更有效率、反應快速,而且龐大的數據量使其能開啟富有資訊及洞見的對話。然而,從「人之所以為人」的意義來看,這種關懷關係並不具備真實性。此外,ElliQ也對那些本應承擔長者照護責任的人造成損害。AI倫理領域的重要學者Shannon Vallor以深刻的洞見引導我們關注此議題。
回歸上帝的形象
當照護機器人的行銷人員或養老院管理者勸誘我們「讓機器人做好它的工作」,將照護任務移交給一個絕對不會忘記餵藥、不會失去耐心、不會讓親人跌倒的存在時,我們可能會誤以為這樣的「交出責任」對我們和受照護者都是最好的。然而……當我做出這個選擇時,我反而將自己束縛於一項特別不幸的奴役狀態;當我砍斷那條將我與所愛之人連在一起的鎖鏈,宣稱我獲得了自由時,我實際上走入了一片充滿陌生人與孤獨的荒野,拋下所有曾關愛我的人,甚至可能連自己也一併拋棄。¹¹
Vallor清楚指出,當人逃避照護責任時,便失去了「人之所以為人」的真實意義。這種逃避照護責任的傾向,可以從神學上理解為:由於「上帝的形象」被扭曲及人性敗壞,導致人類之間相互照護的關係變得脆弱;因為人性的敗壞會使「上帝與人」以及「人與人」之間的關係被誤導及扭曲。
近年AI技術的迅速發展,使人們對AI傾向樂觀立場,甚至過度信任其所能帶來的益處。儘管AI已深刻重塑我們生活的諸多層面,並帶來大量可觀的效益,但Facebook的動態消息演算法與ElliQ的案例表明:AI本身承載著某種價值導向,映照出人類在社會與倫理議題中的利益、慾望、理想和傾向。「上帝的形象」與「敗壞的人性」這兩個神學概念,從神學層面減緩人類對科技進步的過度自信。更重要的是,這組概念不斷提醒我們,在深入人工智慧研究時,必須回到「人性」本身;基於此,我們被迫進一步追問,人工智慧所映照出的「被扭曲的人性秩序」,應當如何被修正與恢復?正是在這一點上,我們被引導去探索:上帝的恩典如何使我們在我們的副本——亦即人工智慧——中,活出上帝的形象。