让AI代劳有什么伦理问题? (信报「生命伦理线」专栏 06.03.2023)

我们中心近年研讨的主题包括人工智能(AI)在未来的医疗应用,以及它所衍生之伦理问题。AI技术已经相当成熟,在特定专科范围可以协助、支持甚至局部取代医生和其他医疗人员的工作,适当地应用可以提高效率和减少失误。它还在快速发展、进化和突破。在伦理学范围,经常讨论的焦点包括如何善用、防范风险、清晰问责、保护个人隐私、防止滥用监控,以至维护人性化服务等等。这些议题常假设人始终保持主导,然而,AI可能不会完全受制于人,它能颠覆既有常规逻辑,冲击体制秩序。近期OpenAI研发的ChatGPT爆红,其威力和颠覆性就令人措手不及。

 

我们早已知道,不少AI程序或机器人有能力通过医学执业考试甚至专科资格试。那是专攻一瓣、经过特殊训练的智能,难度其实不高。围棋人工智能AlphaGo展示深度学习自我完善的威力,不过仍是单项智能。ChatGPT跟Google AI的发展方向同样在开拓趋近普遍智能(Artifical General Intelligence)的程序。不少评论指出,ChatGPT并不是特别创新,也没有革命性的技术,但它成功地以新一代语言模型与用户互动,在多个范围都能依指示交出似模似样的功课,包括写文章、图象设计、程序coding、综合分析,甚至倾谈辅导,像是初步的普遍智能。它有些反应令人出乎意料,例如肯承认错误,也会质疑不正确的提问,这仿如有意识在活动。

 

OpenAI于 2015 年创立时是非营利组织,2019年就宣布成立以营利为目的之子公司,今次市场推广的策略有狠劲,没有包袱,不怕错谬,短短两个月就吸引一亿人试用。它的极速流行预示着对一些行业的威胁,在教育范畴回响最大。完全未经特训的ChatGPT在美国顶尖学府宾夕法尼亚大学沃顿商学院(Wharton)的工商管理硕士期末考试拿到B等评分,成为免费宣传。美国纽约的公立学校迅即禁止学生使用,以防代做功课和考试「出猫」,香港的大学相继宣布禁止学生使用,但未说明如何可以切实禁止。香港政府考虑成立委员会研究如何规管,新加坡政府却满有信心,鼓励公务员用ChatGPT草拟文书提高工作效率,积极迎接AI新纪元。

 

美国罗彻斯特理工学院计算与信息科学系副院长P. C. Shi说,任何人都无法阻止AI取代白领工作。「这不是狼来了的故事,狼已来到门外。」她认为ChatGPT已有能力在初中或高中阶段轻松地授课,在大学授课暂时仍未可以,然而可应用于辅助学士与硕士学生的学习。她相信,很快各级教育工作者就会发现他们的传统角色会在一夜之间起变化。要跟上日益精进的ChatGPT,就必须面对挑战,努力调整教学和考核学生的方法。

 

不像人脑思维

笔者感兴趣的是伦理方面。首先要弄清楚的,可能就是本文题目:让AI代劳有什么伦理问题?试以写文章为例。本栏是从2017年开始的,早年主要由自己供稿,近年改由中心成员轮流撰写。以现今AI之能力,由人出题,AI代劳写稿,稍加修订而定稿,应该可以提供不错的伦理讨论文章。这衍生的问题并不简单:文章可以仍旧由我署名吗?这是否在欺骗读者和编辑?如果声明有AI参与创作,是否推卸作者的责任?在人与AI合作之下,「文责自负」原则是什么意思?如果文章冒犯甚至伤害了第三者,我被投诉或控告,可否追究开发AI的公司?抑或是,在应用AI写稿之前,我自己有责任评估程序质素、盲点和可能引致的风险?

 

类似问题也在AI的医疗应用范围被提出。今年本地有一宗震动医学界的新闻,两名医生在6年前「开漏药」,在使用压抑免疫系统的药物医治肾病的时候,未有顾及保护病人原有的慢性肝病而酿成风险,病人最终急性肝衰竭死亡,医生被控以重大疏忽误杀罪。

 

像这一类失误,完全可以透过AI协助医生诊治而防止,无论是开药的逻辑、提示病史数据以至核对处方,都可以由AI出力,一察觉到疏漏即示警。

 

问题是,引入AI系统协助医生诊治和作临床判断,并非限于单一情景中的单一医疗决定。临床有上千种情景上万种医学决定,假设AI有99%建议是良好的,问题是那1%的误导或错判不容易事先知道,甚至发生了也不会实时被发现。AI的深度学习并不像人脑思维,它的逻辑并非直线的,也欠透明的推理,风险不易处理,更难日常审查纠正。

 

牵涉复杂问题

进一步问,将来医生如果使用威力强大的AI支持临床系统,在诊治甚或做手术上面变得依赖,去到什么程度医生才须告知病人,你的诊治有AI在参与(甚至主导)?出事故时责任如何分担?AI 对话机械人(chatbot) 甚至可能应用于临床心理辅导,这会有违人性化医疗原则吗?医院引进AI系统有什么管治责任?开发和供应AI的一方要负什么责任?

 

一些伦理问题可以用「务实」的方式解决,例如事先申明风险、建立严谨的引进科技的程序,设立事故汇报机制等。然而,并非所有问题也可以「务实」地解决的。

 

在教学范围,Wharton学院管理学副教授 Ethan Mollick示范如何正视伦理问题。他主动给学生提供规范指示。「在本课程中,我期望您使用人工智能(至少包括ChatGPT和图像生成工具)。事实上,有些作业将要求使用它。(但要注意) 你必须声明使用了它。请在使用AI的任何作业中包含一段解释您使用AI之目的和用了哪些提示字符串的段落。未能这样做将违反学术诚信政策。」

 

这是可取的方向,不过AI应用于医疗上牵涉的问题远比学术诚信复杂。AI不是门外的饿狼,但它也不只是一匹等待驯服的野马而已。应用AI所为何事?它会助长什么价值?侵蚀和颠覆什么价值?这些不是抽象的关注。人医治人,人教育人,离不开良好的价值观。

 

免责声明
访谈中所有观点或意见均属个人性质,一概不代表香港中文大学生命伦理学中心的立场。