再谈人工智能应用于大学教育之考量 刘善雅博士  (信报「生命伦理线」专栏 11.11.2024)

刘善雅博士

中文大学生命伦理学中心联席总监

 

早前(5 月 27 日)笔者在本栏分享大学同工对生成 AI 应用在大学教育的看法。近期大学再举办多样化的论坛及工作坊都以 AI 为主题,这种密集式讨论可说少见,其中既感受到 AI 对大众的吸引力(或「魔力」),也见到潜在压力。

 

在医学院带领一个推动 AI 应用于医学教育的计划,有两点感受较深:一,教师是否实践「人工智能作为教育」(AI as Education),把 AI 纳入课程或用于课程评估,很视乎自己教授的范畴对 AI 应用有没有迫切性,以及本身对 AI的理解。二、在「以人工智能辅助教育」 (AI for Education)的范畴,教师对于会否使用 AI 工具辅助教学、发展相关的教研计划等,很视乎教师对市场上 AI工具的认知。

 

AI 快速普及,不少教师面对学生忽然可以实现「个人 AI 自主」是有担心的,怕学生依赖 AI「做」功课,更怕学生会不正当使用。对此,各院校都推出了严正指引,不正当使用 AI 的学生可能被纪律处分。

 

规范行为之外

除了以指引规范行为,这其实是一个时机,让大家深入认识这个新工具,开始思考我们一向惯用以写作为基础的书面作业评估学生,是否应该与时并进,尝试作一些调整。就笔者所见,这两年来,指引已经成为学生做功课的「紧箍咒」,但整体上教学面貌并没有见到期待的大改变。

 

院校对教师应用 AI 普遍是开放及鼓励的,但笔者留意到教师的矛盾和无助。一些教师对工作中使用生成式 AI 是有一定抵触。现在各院校都有组织工作坊及分享会,颇见积极,希望会有助疏导抵触与矛盾。

 

院校制定有关 AI 的指引,在伦理方面侧重学术诚信,多从技术性层面出发,如学生要申报、负责任使用、查明数据源等。对于教师,主要重申需要顾及平等可及性、数据私隐、避免不当和未经授权使用等。政策上推动及保障AI 能适当地融入教学则比较欠缺细节,例如使用 AI 批改功课及生成评语,当中如何保证质素?生成的考试题目或课程大纲,原创性及恰当性能否确保?指引对教师似乎是没有很大的规范作用。

 

前瞻地看,未来 AI 必然会改变高等院校的教与学。除了培训和投放资源,有没有好的方法或策略可以推进发展?或者也可以参考其他地方的动向。

 

就笔者所见,本地及外地院校投放资源,发展 AI 的教育应用,大略可分为「上而下」和「下而上」两类。「上而下」可由院校统筹及负责发展平台,例如澳洲悉尼大学的 Cogniti.ai,是一个多用途平台,教师可按需要自行制作代理机械人 (Agent),指导学生进行任务,或训练学生沟通技巧。笔者 5 月拜访时,该校教授健康科学的团队已用 Cogniti.ai 建立了多个方案,可以应用于职业治疗、心理学等课程,据知全校有过百位教师使用该平台制作代理机械人。

 

取得两者并行

院校自设平台比较容易达到师生公平使用 AI,及克服 AI 操作背后的私隐、保护智识产权等问题。在美国,密歇根大学、哈佛大学、华盛顿大学、加州大学等都都发展院校自己的 ChatGPT;中文大学亦于去年发展了自己的ChatGPT。「上而下」政策也易于凝聚有共同兴趣和需要的同事,面对技术及资料私隐问题都可集中处理。虽然对院校而言,成本和高技术需求相当大,但效益也可能相对提高。

 

「下而上」则由院校拨款让有兴趣的同事申请,开发工具可以目标为本,投放资源相对弹性,而且鼓励百花齐放,好处是自主性高,但单一造价亦可能相对昂贵,而且同事在繁忙教学工作上难以视此为优先,可能更添无助感。

 

本地院校及教资会均有「下而上」的拨款推行教育创新,不少计划亦要与市场的公司合作以客制化 AI 工具及平台,需要投入大量数据及案例等学术数据。如何保障信息科技安全及数据私隐,对教师很有挑战,院校应提供支持及加强保障教育开发品的产权,以鼓励教育创新。

 

从尊重学术自主的角度考虑,「下而上」发展策略也未必要所有人参与使用 AI 作为教学或辅助教学工具。然而,如果 AI 是某专业的未来趋势,以积极政策推动是重要的,可能应该优先考虑把 AI 的专业应用纳入课程,否则会削弱毕业生的能力和就业能力。

 

考虑 AI 的伦理课题,有普遍性的焦点,例如透明度和监督、隐私等;具体用于各专业时也会有特殊的问题,值得逐一讨论。

 

免责声明
访谈和文章中所有观点或意见均属个人性质,一概不代表香港中文大学生命伦理学中心的立场或意见。