讓AI代勞有什麼倫理問題? (信報「生命倫理線」專欄 06.03.2023)

我們中心近年研討的主題包括人工智能(AI)在未來的醫療應用,以及它所衍生之倫理問題。AI技術已經相當成熟,在特定專科範圍可以協助、支援甚至局部取代醫生和其他醫療人員的工作,適當地應用可以提高效率和減少失誤。它還在快速發展、進化和突破。在倫理學範圍,經常討論的焦點包括如何善用、防範風險、清晰問責、保護個人隱私、防止濫用監控,以至維護人性化服務等等。這些議題常假設人始終保持主導,然而,AI可能不會完全受制於人,它能顛覆既有常規邏輯,衝擊體制秩序。近期OpenAI研發的ChatGPT爆紅,其威力和顛覆性就令人措手不及。

 

我們早已知道,不少AI程式或機器人有能力通過醫學執業考試甚至專科資格試。那是專攻一瓣、經過特殊訓練的智能,難度其實不高。圍棋人工智能AlphaGo展示深度學習自我完善的威力,不過仍是單項智能。ChatGPT跟Google AI的發展方向同樣在開拓趨近普遍智能(Artifical General Intelligence)的程式。不少評論指出,ChatGPT並不是特別創新,也沒有革命性的技術,但它成功地以新一代語言模型與使用者互動,在多個範圍都能依指示交出似模似樣的功課,包括寫文章、圖象設計、程式coding、綜合分析,甚至傾談輔導,像是初步的普遍智能。它有些反應令人出乎意料,例如肯承認錯誤,也會質疑不正確的提問,這仿如有意識在活動。

 

OpenAI於 2015 年創立時是非營利組織,2019年就宣佈成立以營利為目的之子公司,今次市場推廣的策略有狠勁,沒有包袱,不怕錯謬,短短兩個月就吸引一億人試用。它的極速流行預示著對一些行業的威脅,在教育範疇迴響最大。完全未經特訓的ChatGPT在美國頂尖學府賓夕法尼亞大學沃頓商學院(Wharton)的工商管理碩士期末考試拿到B等評分,成為免費宣傳。美國紐約的公立學校迅即禁止學生使用,以防代做功課和考試「出貓」,香港的大學相繼宣佈禁止學生使用,但未說明如何可以切實禁止。香港政府考慮成立委員會研究如何規管,新加坡政府卻滿有信心,鼓勵公務員用ChatGPT草擬文書提高工作效率,積極迎接AI新紀元。

 

美國羅徹斯特理工學院計算與資訊科學系副院長P. C. Shi說,任何人都無法阻止AI取代白領工作。「這不是狼來了的故事,狼已來到門外。」她認為ChatGPT已有能力在初中或高中階段輕鬆地授課,在大學授課暫時仍未可以,然而可應用於輔助學士與碩士學生的學習。她相信,很快各級教育工作者就會發現他們的傳統角色會在一夜之間起變化。要跟上日益精進的ChatGPT,就必須面對挑戰,努力調整教學和考核學生的方法。

 

不像人腦思維

筆者感興趣的是倫理方面。首先要弄清楚的,可能就是本文題目:讓AI代勞有什麼倫理問題?試以寫文章為例。本欄是從2017年開始的,早年主要由自己供稿,近年改由中心成員輪流撰寫。以現今AI之能力,由人出題,AI代勞寫稿,稍加修訂而定稿,應該可以提供不錯的倫理討論文章。這衍生的問題並不簡單:文章可以仍舊由我署名嗎?這是否在欺騙讀者和編輯?如果聲明有AI參與創作,是否推卸作者的責任?在人與AI合作之下,「文責自負」原則是什麼意思?如果文章冒犯甚至傷害了第三者,我被投訴或控告,可否追究開發AI的公司?抑或是,在應用AI寫稿之前,我自己有責任評估程式質素、盲點和可能引致的風險?

 

類似問題也在AI的醫療應用範圍被提出。今年本地有一宗震動醫學界的新聞,兩名醫生在6年前「開漏藥」,在使用壓抑免疫系統的藥物醫治腎病的時候,未有顧及保護病人原有的慢性肝病而釀成風險,病人最終急性肝衰竭死亡,醫生被控以重大疏忽誤殺罪。

 

像這一類失誤,完全可以透過AI協助醫生診治而防止,無論是開藥的邏輯、提示病史資料以至核對處方,都可以由AI出力,一察覺到疏漏即示警。

 

問題是,引入AI系統協助醫生診治和作臨床判斷,並非限於單一情景中的單一醫療決定。臨床有上千種情景上萬種醫學決定,假設AI有99%建議是良好的,問題是那1%的誤導或錯判不容易事先知道,甚至發生了也不會即時被發現。AI的深度學習並不像人腦思維,它的邏輯並非直線的,也欠透明的推理,風險不易處理,更難日常審查糾正。

 

牽涉複雜問題

進一步問,將來醫生如果使用威力強大的AI支援臨床系統,在診治甚或做手術上面變得依賴,去到什麼程度醫生才須告知病人,你的診治有AI在參與(甚至主導)?出事故時責任如何分擔?AI 對話機械人(chatbot) 甚至可能應用於臨床心理輔導,這會有違人性化醫療原則嗎?醫院引進AI系統有什麼管治責任?開發和供應AI的一方要負什麼責任?

 

一些倫理問題可以用「務實」的方式解決,例如事先申明風險、建立嚴謹的引進科技的程序,設立事故匯報機制等。然而,並非所有問題也可以「務實」地解決的。

 

在教學範圍,Wharton學院管理學副教授 Ethan Mollick示範如何正視倫理問題。他主動給學生提供規範指示。「在本課程中,我期望您使用人工智慧(至少包括ChatGPT和圖像生成工具)。事實上,有些作業將要求使用它。(但要注意) 你必須聲明使用了它。請在使用AI的任何作業中包含一段解釋您使用AI之目的和用了哪些提示字串的段落。未能這樣做將違反學術誠信政策。」

 

這是可取的方向,不過AI應用於醫療上牽涉的問題遠比學術誠信複雜。AI不是門外的餓狼,但它也不只是一匹等待馴服的野馬而已。應用AI所為何事?它會助長什麼價值?侵蝕和顛覆什麼價值?這些不是抽象的關注。人醫治人,人教育人,離不開良好的價值觀。

 

免責聲明
訪談和文章中所有觀點或意見均屬個人性質,一概不代表香港中文大學生命倫理學中心的立場或意見。