Skip to main content

讓AI代勞有什麼倫理問題? (信報「生命倫理線」專欄 06.03.2023)

我們中心近年研討的主題包括人工智能(AI)在未來的醫療應用,以及它所衍生之倫理問題。AI技術已經相當成熟,在特定專科範圍可以協助、支援甚至局部取代醫生和其他醫療人員的工作,適當地應用可以提高效率和減少失誤。它還在快速發展、進化和突破。在倫理學範圍,經常討論的焦點包括如何善用、防範風險、清晰問責、保護個人隱私、防止濫用監控,以至維護人性化服務等等。這些議題常假設人始終保持主導,然而,AI可能不會完全受制於人,它能顛覆既有常規邏輯,衝擊體制秩序。近期OpenAI研發的ChatGPT爆紅,其威力和顛覆性就令人措手不及。

我們早已知道,不少AI程式或機器人有能力通過醫學執業考試甚至專科資格試。那是專攻一瓣、經過特殊訓練的智能,難度其實不高。圍棋人工智能AlphaGo展示深度學習自我完善的威力,不過仍是單項智能。ChatGPT跟Google AI的發展方向同樣在開拓趨近普遍智能(Artifical General Intelligence)的程式。不少評論指出,ChatGPT並不是特別創新,也沒有革命性的技術,但它成功地以新一代語言模型與使用者互動,在多個範圍都能依指示交出似模似樣的功課,包括寫文章、圖象設計、程式coding、綜合分析,甚至傾談輔導,像是初步的普遍智能。它有些反應令人出乎意料,例如肯承認錯誤,也會質疑不正確的提問,這仿如有意識在活動。

OpenAI於 2015 年創立時是非營利組織,2019年就宣佈成立以營利為目的之子公司,今次市場推廣的策略有狠勁,沒有包袱,不怕錯謬,短短兩個月就吸引一億人試用。它的極速流行預示著對一些行業的威脅,在教育範疇迴響最大。完全未經特訓的ChatGPT在美國頂尖學府賓夕法尼亞大學沃頓商學院(Wharton)的工商管理碩士期末考試拿到B等評分,成為免費宣傳。美國紐約的公立學校迅即禁止學生使用,以防代做功課和考試「出貓」,香港的大學相繼宣佈禁止學生使用,但未說明如何可以切實禁止。香港政府考慮成立委員會研究如何規管,新加坡政府卻滿有信心,鼓勵公務員用ChatGPT草擬文書提高工作效率,積極迎接AI新紀元。

美國羅徹斯特理工學院計算與資訊科學系副院長P. C. Shi說,任何人都無法阻止AI取代白領工作。「這不是狼來了的故事,狼已來到門外。」她認為ChatGPT已有能力在初中或高中階段輕鬆地授課,在大學授課暫時仍未可以,然而可應用於輔助學士與碩士學生的學習。她相信,很快各級教育工作者就會發現他們的傳統角色會在一夜之間起變化。要跟上日益精進的ChatGPT,就必須面對挑戰,努力調整教學和考核學生的方法。

不像人腦思維

筆者感興趣的是倫理方面。首先要弄清楚的,可能就是本文題目:讓AI代勞有什麼倫理問題?試以寫文章為例。本欄是從2017年開始的,早年主要由自己供稿,近年改由中心成員輪流撰寫。以現今AI之能力,由人出題,AI代勞寫稿,稍加修訂而定稿,應該可以提供不錯的倫理討論文章。這衍生的問題並不簡單:文章可以仍舊由我署名嗎?這是否在欺騙讀者和編輯?如果聲明有AI參與創作,是否推卸作者的責任?在人與AI合作之下,「文責自負」原則是什麼意思?如果文章冒犯甚至傷害了第三者,我被投訴或控告,可否追究開發AI的公司?抑或是,在應用AI寫稿之前,我自己有責任評估程式質素、盲點和可能引致的風險?

類似問題也在AI的醫療應用範圍被提出。今年本地有一宗震動醫學界的新聞,兩名醫生在6年前「開漏藥」,在使用壓抑免疫系統的藥物醫治腎病的時候,未有顧及保護病人原有的慢性肝病而釀成風險,病人最終急性肝衰竭死亡,醫生被控以重大疏忽誤殺罪。

像這一類失誤,完全可以透過AI協助醫生診治而防止,無論是開藥的邏輯、提示病史資料以至核對處方,都可以由AI出力,一察覺到疏漏即示警。

問題是,引入AI系統協助醫生診治和作臨床判斷,並非限於單一情景中的單一醫療決定。臨床有上千種情景上萬種醫學決定,假設AI有99%建議是良好的,問題是那1%的誤導或錯判不容易事先知道,甚至發生了也不會即時被發現。AI的深度學習並不像人腦思維,它的邏輯並非直線的,也欠透明的推理,風險不易處理,更難日常審查糾正。

牽涉複雜問題

進一步問,將來醫生如果使用威力強大的AI支援臨床系統,在診治甚或做手術上面變得依賴,去到什麼程度醫生才須告知病人,你的診治有AI在參與(甚至主導)?出事故時責任如何分擔?AI 對話機械人(chatbot) 甚至可能應用於臨床心理輔導,這會有違人性化醫療原則嗎?醫院引進AI系統有什麼管治責任?開發和供應AI的一方要負什麼責任?

一些倫理問題可以用「務實」的方式解決,例如事先申明風險、建立嚴謹的引進科技的程序,設立事故匯報機制等。然而,並非所有問題也可以「務實」地解決的。

在教學範圍,Wharton學院管理學副教授 Ethan Mollick示範如何正視倫理問題。他主動給學生提供規範指示。「在本課程中,我期望您使用人工智慧(至少包括ChatGPT和圖像生成工具)。事實上,有些作業將要求使用它。(但要注意) 你必須聲明使用了它。請在使用AI的任何作業中包含一段解釋您使用AI之目的和用了哪些提示字串的段落。未能這樣做將違反學術誠信政策。」

這是可取的方向,不過AI應用於醫療上牽涉的問題遠比學術誠信複雜。AI不是門外的餓狼,但它也不只是一匹等待馴服的野馬而已。應用AI所為何事?它會助長什麼價值?侵蝕和顛覆什麼價值?這些不是抽象的關注。人醫治人,人教育人,離不開良好的價值觀。

Click here to download pdf

Click here to download image


Disclaimer

All views or opinions expressed in various interviews and articles belong to the individuals only, and do not represent the views or opinions of the CUHK Centre for Bioethics.

讓AI代勞有什麼倫理問題? (信報「生命倫理線」專欄 06.03.2023)