人工智慧時代之心智能力立法:打開潘朵拉的魔法盒(全球瞭望)
文章發表:2025/03/03
壹、介紹
希臘神話中,潘朵拉打開了丈夫保管的盒子,無意間向人間釋放了無數的麻煩和詛咒。如今,各項新技術的出現也引發了類似的恐懼,而最近興起的人工智慧(artificial intelligence)也完全依循這樣的模式,大眾的反應從默默好奇到徹底恐慌都有。
本文將著重於人工智慧在心智能力(mental capacity)立法領域中潛在的好處與風險,因為我們認為這是需要特別被考慮的。有決策能力障礙的人與具有完全決策能力的人應享有相同的技術近用權,而本文將會討論於如何在實現這一權利的同時,最大限度地減少總是伴隨著人工智慧這類強大技術而來的風險。
目前許多地方都正在修訂與心理健康和心智能力有關的法律,因此這項討論來的正是時候。舉例來說,在愛爾蘭,2015年版的「輔助決策(能力)法案」(Assisted Decision-Making (Capacity) Act)於2023年4月開始實施,並在其能力溝通標準中提到了「輔助科技」(assistive technology)(第3(2)(d)條)。我們將會探討人工智慧在該法案下協助溝通的潛在好處和風險,並試圖找出可以應用到其他地區的原則或教訓。
本文特別著重在愛爾蘭關於預立醫療照護指示(advance healthcare directives)的相關規定,因為過去的研究表明,預立醫療照護計畫常見的阻礙包括:一、缺乏知識和技能,二、對於開始討論預立醫療照護計畫的恐懼,以及三、缺乏時間。我們假設這些障礙有可能透過生成式人工智慧來克服,或至少克服一部分。這些生成式人工智慧,比如ChatGPT,已經可以在世界各地免費使用,並提供了許多正面的可能性。
ChatGPT是一種大型人工智慧語言模型,經訓練後可以用類似於人類對話的方式互動。它屬於OpenAI所有,不但創下了網路程式用戶成長最快的記錄,更在2023年1月,即推出後僅兩個月,每月活躍用戶就達到1億。此語言模式未來有望在醫療衛生領域中進行各種運用。
在討論有決策能力障礙的人時,會遇到的倫理問題就像潘朵拉的魔盒中的麻煩一樣多。但本文的目的主要會限縮在探討人工智慧逾越溝通,並開始影響決策內容的問題,尤其是在面對有決策能力障礙的人時。
本文提出了在能力立法(尤其是預立醫療指示)方面有效、安全且循序漸進地使用人工智慧的分析、指導和關鍵原則。筆者也強調了在充分發揮人工智慧的潛力的同時最大限度地降低在這群人中的風險這件事需要被公開的討論。本文將先概述愛爾蘭新法案中的關鍵條款,再運用它來說明可以適用於其他司法管轄區的、與人工智慧相關的普遍性議題。
貳、愛爾蘭的2015年版「輔助決策(能力)法案」
愛爾蘭2015年版的「輔助決策(能力)法案」雖然於2015年簽署,卻直到2023年才實施。在此之前,愛爾蘭的心智能力相關法規是受1871年版的「精神錯亂法案」(Lunacy Regulation (Ireland) Act)所管轄。在該法案下,被認定意思表示能力有所欠缺的人會受制於監護法院(Ward of Court)的系統。該系統不但年代久遠,亦不符合如今的人權標準。
相反地,2015年版法案的核心則是心智能力不足的人的「意願與喜好」。該法案旨在保護那些受其管轄的人們的權力和自主性。該法案為需要的人劃定了三個決策輔助層次。另外,法案中也有應對未來失去決策能力時的規劃,像是預立醫療指示和持久授權書。
愛爾蘭立法的「指導原則」是將人推定為有決策能力的(第8(2)條)。同時,在需要輔助的情況下,「輔助人,在輔助關係人時,應……盡可能地允許、鼓勵,並敦促關係人盡量全面地參與或是提升他/她的參與能力」(第8(7)(a)條)。
2015年法案也引入了修訂後的預立醫療指示系統。預立醫療指示的定義是「當事人根據第84條預先表達對於在未來喪失能力時可能會需要做出的、與他/她有關的治療決定的意願和偏好」(第82條)。該法案明確指出,在這類指示中對於特定治療的請求「不具有法律約束力,但應予以考慮」(第84(3)(a)條)。另一方面,拒絕治療在滿足特定條件的情況下,通常具有法律約束力(第84(22)條),但也有一些例外。
2015年版法案以功能性來定義能力,如果要認定一個人缺乏在特定時間做出特定決定的能力,則必須滿足以下標準:「當一個人無法一、理解與決策相關的資訊、二、將資訊記至可以自主做選擇的時候、三、在決策過程中使用或權衡該項資訊,或是四、傳達他/她的決定(第3(2)條),即為缺乏決策能力。」
在傳達的標準中則進一步規定,缺乏決策能力的人必須達到無法「表達他/她的決策(無論是透過談話、寫作、使用手語、輔助技術或任何其他方式),或者,在決策的實施需要第三方作為時,以任何方式與該第三方溝通」的情形(第3(2)(d)條)。
2015年版法案中並沒有關於「輔助科技」的定義或範例。我們假設立法者的本意是指可以強化溝通的科技(例如有表達困難的人使用的鍵盤和觸控螢幕)或是應用於加強預立照護自主計畫的相關溝通教育的科技。然而,我們也可以合理的認定「輔助技術」一詞如今也包含了人工智慧。
人工智慧是使電腦系統具有執行通常需要人類智慧的任務的能力的一門學科。歐盟委員會(European Commission)的高階專家小組對人工智慧提出的定義是:「人工智慧是指透過分析環境並採取一定程度的自主行動來實現特定目標而表現出智慧行為的系統。人工智慧系統可以是軟體,在虛擬世界中運作(如語音助理、影像分析軟體、搜尋引擎、語音和臉部辨識系統)。人工智慧也可以被植入硬體設備中(如:進階機器人、自動駕駛汽車、無人機,或是物聯網的相關應用)。」
在這一背景下,本文探討了人工智慧在能力相關立法和預立醫療指示中可能扮演的角色與潛在的風險。
參、利用人工智慧產出預立醫療指示
關於預立醫療指示的研究表明,與醫療人員相關的因素是預立醫療照護計畫的障礙,其中包含時間、知識和技能的不足。愛爾蘭的醫生與其他地區的醫生一樣,普遍支持預立醫療指示,卻對2015年「輔助決策(能力)法案」整體了解有限,尤其是對預立醫療指示這方面。其他司法管轄區也有大量支持預立醫療指示的證據,但實務上採用的比例卻低至0%。
在這樣的背景下,筆者認為人工智慧有助於提升決策能力,並根據心智能力相關立法協助準備預立醫療指示等文件的潛力。在提升決策能力方面,以ChatGPT為例,人工智慧可以透過向大眾提供易於理解的醫療資訊來提高健康識能。這類人工智慧不受時間限制(醫療專業人員則通常會受限),因此使用者可以取得大量的解釋和例子,以增強他們對複雜概念的理解。他們還可以生成各種可能選項的利弊的書面清單,以利他們按照自己的節奏、在自己的時間,與家人和朋友一起思考議題。
對於有表達障礙的人來說,人工智慧可以幫助他們傳達自己的意願和偏好,以及關於未來的醫療決定。當然,很重要的一點是,這應該作為整體決策過程的一部分,並與其他建議和輔助相結合。這些建議和輔助可能來自參與照護的專業人員,以及家人和朋友。
從臨床醫生的角度來看,人工智慧的主要好處之一是它可以將重複性任務自動化並簡化工作流程,從而為臨床醫生騰出時間來執行人工智慧無法執行的、更有專業性的任務。筆者認為將有人工智慧的聊天模型納入有關預立醫療照護計畫的對話中,可以讓患者能夠向臨床醫生提出新想法和需要討論的問題,並增強患者對其醫療決策的主動控制感(sense of agency)。在這種情況下,人工智慧最有價值的角色是作為支持,而非取代,醫患互動的工具......
全文刊登於月旦醫事法報告,第99期:迢迢復歸路 訂閱優惠