今年我们中心筹办一系列有关崭新科技的伦理学研讨,环绕两个主题:基因组医学及人工智能的医疗应用。前者的技术和应用已经颇成熟,相关的伦理课题和挑战是清晰的;相比之下,人工智能在医疗保健方面的发展,很多方面还在突破阶 段,技术在起飞中。它会怎样被应用于临床诊治,并不完全清晰。更大的特点更在于人工智能是具颠覆性的,可能催生全新的医疗模式。一般医疗科技从研究开发到引入常规医疗,有既定的科技评估程序,规范较为容易;人工智能或者不一样:它不单是被动地融入既有的医疗保健服务,更会从根本上改变范式,包括临床诊治的医学逻辑。
以人工智能为主题的第一场网上研讨于 4 月中顺利举行。两位学者主讲的焦点都精确。澳洲 Monash University 的 Robert Sparrow 教授诘问:人工智能经深度学习大数据,可以根据算法进行诊治。在特定范围,它的表现可以媲美专科医生,在更小的范围可能胜过医生的平均水平。问题是,和真人医生一样,它也会出错,病人受损,能追究谁?一般的想法是,应用人工智能诊治,出了事,生产商、程序设计员、引入和使用人工智能的医疗机构,以及依赖人工智能的医生,都有共同责 任,问题只是如何分担责任。Sparrow 问的是一个哲学上更根本的问题:当人工智能被赋与相当于诊治医生的角色或职能,而且它能自行深度学习和改进自己的算法,它可以在某程度被视为一个「道德主体」吗?意思是,好坏对错它要「自己」负责,不要深责其他人。Sparrow 的基本立论是不能,也不应该。开发者和使用者不可诿过于没有人能完全理解掌握的「黑箱演算」(black box algorithm) 。这立论不是全无争议的,引发两位学者评论员 Daniel Tigard (慕尼黑) 和蔡甫昌教授 (台湾) 的深层次提问。
另一位主讲嘉宾 Sarah Chan (爱丁堡)探讨的是一个具前瞻性的新问题:人工智能机械人日趋拟人化,它不但拥有高智能,更形成感性特质(affective quality),例如它不只是靠语音识别进行简单对话,而是进化至学习口音、语调语气表达感性。深度学习人类语言,可以开放式地聊天,让病人与它「倾谈心事」。讲者细心提出的问题是,要让人工智能(可以是机械人也可以是流动程序)成为病者的感性对象 吗?答案并非自明的。
出错责任 变得复杂
现代医疗中的医患关系已经很少有空间让病人细谈心事,问病情的时间很稀 有,人工智能若能安病者的心,能抚慰、作咨询辅导和开解,病者投以信任,那不是自然不过的发展吗?这个应用方向,与一般人设想未来人工智能会替医生做厌恶性的重复工作,给医生腾出时间好好与病人倾谈的那种景况恰恰相反!
对这方向的发展,讲者未有作出定论,但提出一个思考例子:在一个先导计划,医疗中心应用了人工智能向病人透露诊断结果:「你患的是晚期癌病。」在临床医学,透露坏消息(breaking bad news)是高难度动作,医生未必做得很好,让有智能、可以详谈的机械人「代劳」,质素是否更有保证?还是非人性化?
在构思这篇文章时我读到一篇有份量的理论性文章,觉得可以借来界定一下人工智能在医学范畴的伦理课题。三位作者之中,两位是港人熟悉的:前私隐专员黄继儿大律师和香港中文大学前校长、转往新加坡发展的沈祖尧教授。第一作者是Cameron Stewart 法律学教授(Sydney University)。文章发表在肠胃医学期刊,题目也放在肠胃医学的人工智能,但它的宏阔法律和伦理框架展示了更大的企图心:这是全面地讨论人工智能在数码医疗纪元的伦理和法律问题,包括尊重个人主体、隐私和保密、操守、处理利益冲突、裨益、毋伤害和公平公正。作者认为,医学实践中人工智能引发的复杂具体问题当然有待努力的具体解决,但在当前,起步最好采用基于原则的方法去梳理。这与笔者在本文开首的看法不谋而合:在现阶段,人工智能的相关伦理课题和挑战还未好好地清晰界定。三位作者这篇学术文章应会成为此后开展讨论的奠基性文献。
文章中有一点观察可以呼应上述 Sparrow 在我们研讨会提出的「出错了责任谁属」的问题。人工智能纳入医疗关系是会改变既有的责任关系。从好的方面想,人工智能可以从根本上减少人为错误造成的伤害,如果这成为趋势,临床的标准将把人工智能的服务标准吸纳。在普通法地区,临床标准一向是由专业团体自主制定 的,法律上,应用人工智能的标准依然可以遵循医学专业。
赔偿了事 忽略检讨
然而也不能否定,人工智能令各相关方的责任关系变得错综复杂。在这种情况下,考虑责任放在哪里是费思量的。有人构想,人工智能机器,病人,和多重交迭的医疗服务提供商可能会迫使监管机构推行更干脆的赔偿保险计划,例如可以通过对人工智能的使用征税,设立资金,把税收用于赔偿受伤害的病者,而不需深究其中的过错是如何发生。
笔者昔日曾在医管局主理医疗风险管理和检讨医疗事故,对于不深研过错因 由,单边提供方便赔偿的机制,不免有些保留,因为检讨医疗事故的目的不单是追究责任,更是要设法学习改进,防患再生。如果一律不问个中因由,无异是完全接
受了「黑箱演算」是无可奈何的事,任之由之,可能滋长轻忽了事的科技应用。这在保险概念上也是道德风险(moral hazard) 。
参阅:Cameron Stewart, Stephen K Y Wong, Joseph J Y Sung. Mapping ethico-legal principles for the use of artificial intelligence in gastroenterology, 21 March 2021.