長期堅持 Zero-Covid 的疑問 (信報「生命倫理線」專欄 19.7.2021)

本月初有一段關於調整抗疫策略的國際新聞,沒有泛起多大的漣漪,但背後有一個重要的問題,現在就來討論也不會太早。消息是,新加坡政府擬計劃放棄 Zero-Covid (「清零」)目標,改為「與病毒共存」。具體方向是全力推動接種疫苗,希望群體免疫力成為主要保護屏障,到時或不再要求入境者隔離檢疫,亦不會再大規模追蹤接觸者。香港的專家一致反對,認為這十分危險,如果社區大爆發導致大量病人入院,醫療系統將不勝負荷。【註】 新加坡政府是實幹型,不會不經大腦就轉向冒失的抗疫策略。她的想法反映了抗疫一年半之後各地政府面對的共同難題:社會和經濟始終需要復 常,經年累月地全民以最大力度堅持追求 Zero-Covid,各方面付出的代價是否太大? 這並不是一般所說的「抗疫疲勞」,而是把目光拉闊,評估社會和經濟各方面的整體影響。可以試看新西蘭:她抗疫嚴謹有效,但也開始評估Zero-Covid 的方針是否要再檢視。總理的首席科學顧問 Juliet Gerrad 在 6 月中接受合眾社專訪時,一方面平實地回顧了去年至今的抗疫歷程,同時也特别提到新西蘭的下一項挑戰是重新開放邊境,而這意味著可能需要重新調整對病毒的零容忍方針。「如果我們讓它進來,將會有更多的個案。會有重症病人。因此,這是一個平衡,對其他國家開放邊界有什麼好處,會否開放後不久馬上又要封鎖?」 抗疫策略含價值取捨 我們中心的訪問教授兼榮譽顧問 Prof. Nancy Jecker 在 6 月中應邀為South China Morning Post 寫了一篇評論談 Zero-Covid 策略的價值取捨(Is the Zero-Covid approach of China and Japan about saving face?) ,也是思考這個問題。以下撮譯其中數段。 「在 1918 年的流感大流行導致 5 000 萬人喪生。今天,每年出現的流感季節,全世界約有 65 萬人死亡。如果 Covid 病毒能夠像許多科學家預測的那樣,成為我們恆常的背景事物,那麼社會就要被迫接受相當程度的較高的背景死亡個案。 「我們應該接受什麼樣的風險?我們應該放棄哪些自由來降低死亡率? 單靠科學是無法回答這些問題的,因為它們本質上是含有價值取捨的問題。答案不僅取決於不同策略的影響,還取決於我們如何權衡諸如拯救生命和保護健康等價值觀與避免經濟困難和關顧精神心理健康等相互競爭的價值觀…。」 Jecker 往下解說,在 Covid 大流行期間,一直有兩種相互競爭的戰略。澳洲、新西蘭、台灣、韓國、越南和中國大陸的主導政策以 Zero-Covid […]
Differential Impacts of Multimorbidity on COVID-19 Severity across the Socioeconomic Ladder in Hong Kong: A Syndemic Perspective.
The Vulnerability of Migrant Workers in Global COVID-19 Pandemic: Highlights from Malaysia and Hong Kong.
[CUHK Centre for Bioethics Webinar Series] Seminar on “AI and Robots for Health – Promises and Concerns”

Date: 9 July 2021 (Friday) Time: 10:00 a.m. – 11:45 a.m. (Hong Kong Time) / 7:00 p.m. – 8:45 p.m. on 8 July 2021 (US / Canada Pacific Time) Venue: The seminar will be conducted via Zoom. The meeting ID will be sent to registrants by email. Speakers: 1. Prof. Nancy Jecker, Professor of Bioethics and Humanities, School of Medicine, University of […]
‘Pandemia’: a reckoning of UK universities’ corporate response to COVID-19 and its academic fallout.
A Simulation Design of Immersive Virtual Reality for Animal Handling Training to Junior Biomedical Sciences Undergraduates.
First- and second-hand alcohol-related harms among urban Chinese: A population-based study from Hong Kong.
Centre Director Interviewed by Headline Daily

以生命倫理透視打針 區結成盼為香港補課 Retrieved from STHEADLINE.COM (28 June 2021)
Centre Advisor Prof. Nancy Jecker Interviewed by South China Morning Post (The caption and photo in the editorial were added by SCMP)

Centre Advisor Prof. Nancy Jecker Interviewed by South China Morning Post (The caption and photo in the editorial were added by SCMP) Retrieved from SCMP.COM (23 June 2021)
人工智能怎樣融入醫療 (信報「生命倫理線」專欄 21.06.2021)

今年我們中心籌辦一系列有關嶄新科技的倫理學研討,環繞兩個主題:基因組醫學及人工智能的醫療應用。前者的技術和應用已經頗成熟,相關的倫理課題和挑戰是清晰的;相比之下,人工智能在醫療保健方面的發展,很多方面還在突破階 段,技術在起飛中。它會怎樣被應用於臨床診治,並不完全清晰。更大的特點更在於人工智能是具顛覆性的,可能催生全新的醫療模式。一般醫療科技從研究開發到引入常規醫療,有既定的科技評估程序,規範較為容易;人工智能或者不一樣:它不單是被動地融入既有的醫療保健服務,更會從根本上改變範式,包括臨床診治的醫學邏輯。 以人工智能為主題的第一場網上研討於 4 月中順利舉行。兩位學者主講的焦點都精確。澳洲 Monash University 的 Robert Sparrow 教授詰問:人工智能經深度學習大數據,可以根據演算法進行診治。在特定範圍,它的表現可以媲美專科醫生,在更小的範圍可能勝過醫生的平均水準。問題是,和真人醫生一樣,它也會出錯,病人受損,能追究誰?一般的想法是,應用人工智能診治,出了事,生產商、程式設計員、引入和使用人工智能的醫療機構,以及依賴人工智能的醫生,都有共同責 任,問題只是如何分擔責任。Sparrow 問的是一個哲學上更根本的問題:當人工智能被賦與相當於診治醫生的角色或職能,而且它能自行深度學習和改進自己的演算法,它可以在某程度被視為一個「道德主體」嗎?意思是,好壞對錯它要「自己」負責,不要深責其他人。Sparrow 的基本立論是不能,也不應該。開發者和使用者不可諉過於沒有人能完全理解掌握的「黑箱演算」(black box algorithm) 。這立論不是全無爭議的,引發兩位學者評論員 Daniel Tigard (慕尼黑) 和蔡甫昌教授 (台灣) 的深層次提問。 另一位主講嘉賓 Sarah Chan (愛丁堡)探討的是一個具前瞻性的新問題:人工智能機械人日趨擬人化,它不但擁有高智能,更形成感性特質(affective quality),例如它不只是靠語音識別進行簡單對話,而是進化至學習口音、語調語氣表達感性。深度學習人類語言,可以開放式地聊天,讓病人與它「傾談心事」。講者細心提出的問題是,要讓人工智能(可以是機械人也可以是流動程式)成為病者的感性對象 嗎?答案並非自明的。 出錯責任 變得複雜 現代醫療中的醫患關係已經很少有空間讓病人細談心事,問病情的時間很稀 有,人工智能若能安病者的心,能撫慰、作諮詢輔導和開解,病者投以信任,那不是自然不過的發展嗎?這個應用方向,與一般人設想未來人工智能會替醫生做厭惡性的重複工作,給醫生騰出時間好好與病人傾談的那種景況恰恰相反! 對這方向的發展,講者未有作出定論,但提出一個思考例子:在一個先導計劃,醫療中心應用了人工智能向病人透露診斷結果:「你患的是晚期癌病。」在臨床醫學,透露壞消息(breaking bad news)是高難度動作,醫生未必做得很好,讓有智能、可以詳談的機械人「代勞」,質素是否更有保證?還是非人性化? 在構思這篇文章時我讀到一篇有份量的理論性文章,覺得可以借來界定一下人工智能在醫學範疇的倫理課題。三位作者之中,兩位是港人熟悉的:前私隱專員黃繼兒大律師和香港中文大學前校長、轉往新加坡發展的沈祖堯教授。第一作者是Cameron Stewart 法律學教授(Sydney University)。文章發表在腸胃醫學期刊,題目也放在腸胃醫學的人工智能,但它的宏闊法律和倫理框架展示了更大的企圖心:這是全面地討論人工智能在數碼醫療紀元的倫理和法律問題,包括尊重個人主體、隱私和保密、操守、處理利益衝突、裨益、毋傷害和公平公正。作者認為,醫學實踐中人工智能引發的複雜具體問題當然有待努力的具體解決,但在當前,起步最好採用基於原則的方法去梳理。這與筆者在本文開首的看法不謀而合:在現階段,人工智能的相關倫理課題和挑戰還未好好地清晰界定。三位作者這篇學術文章應會成為此後開展討論的奠基性文獻。 文章中有一點觀察可以呼應上述 Sparrow 在我們研討會提出的「出錯了責任誰屬」的問題。人工智能納入醫療關係是會改變既有的責任關係。從好的方面想,人工智能可以從根本上減少人為錯誤造成的傷害,如果這成為趨勢,臨床的標準將把人工智能的服務標準吸納。在普通法地區,臨床標準一向是由專業團體自主制定 的,法律上,應用人工智能的標準依然可以遵循醫學專業。 賠償了事 忽略檢討 然而也不能否定,人工智能令各相關方的責任關係變得錯綜複雜。在這種情況下,考慮責任放在哪裡是費思量的。有人構想,人工智能機器,病人,和多重交疊的醫療服務提供者可能會迫使監管機構推行更乾脆的賠償保險計劃,例如可以通過對人工智能的使用徵稅,設立資金,把稅收用於賠償受傷害的病者,而不需深究其中的過錯是如何發生。 筆者昔日曾在醫管局主理醫療風險管理和檢討醫療事故,對於不深研過錯因 由,單邊提供方便賠償的機制,不免有些保留,因為檢討醫療事故的目的不單是追究責任,更是要設法學習改進,防患再生。如果一律不問箇中因由,無異是完全接 受了「黑箱演算」是無可奈何的事,任之由之,可能滋長輕忽了事的科技應用。這在保險概念上也是道德風險(moral hazard) 。 參閱:Cameron Stewart, Stephen […]