劉善雅博士
中文大學生命倫理學中心聯席總監
早前(5 月 27 日)筆者在本欄分享大學同工對生成 AI 應用在大學教育的看法。近期大學再舉辦多樣化的論壇及工作坊都以 AI 為主題,這種密集式討論可說少見,其中既感受到 AI 對大眾的吸引力(或「魔力」),也見到潛在壓力。
在醫學院帶領一個推動 AI 應用於醫學教育的計劃,有兩點感受較深:一,教師是否實踐「人工智能作為教育」(AI as Education),把 AI 納入課程或用於課程評估,很視乎自己教授的範疇對 AI 應用有沒有迫切性,以及本身對 AI的理解。二、在「以人工智能輔助教育」 (AI for Education)的範疇,教師對於會否使用 AI 工具輔助教學、發展相關的教研計劃等,很視乎教師對市場上 AI工具的認知。
AI 快速普及,不少教師面對學生忽然可以實現「個人 AI 自主」是有擔心的,怕學生依賴 AI「做」功課,更怕學生會不正當使用。對此,各院校都推出了嚴正指引,不正當使用 AI 的學生可能被紀律處分。
規範行為之外
除了以指引規範行為,這其實是一個時機,讓大家深入認識這個新工具,開始思考我們一向慣用以寫作為基礎的書面作業評估學生,是否應該與時並進,嘗試作一些調整。就筆者所見,這兩年來,指引已經成為學生做功課的「緊箍咒」,但整體上教學面貌並沒有見到期待的大改變。
院校對教師應用 AI 普遍是開放及鼓勵的,但筆者留意到教師的矛盾和無助。一些教師對工作中使用生成式 AI 是有一定牴觸。現在各院校都有組織工作坊及分享會,頗見積極,希望會有助疏導抵觸與矛盾。
院校制定有關 AI 的指引,在倫理方面側重學術誠信,多從技術性層面出發,如學生要申報、負責任使用、查明資料來源等。對於教師,主要重申需要顧及平等可及性、資料私隱、避免不當和未經授權使用等。政策上推動及保障 AI 能適當地融入教學則比較欠缺細節,例如使用 AI 批改功課及生成評語,當中如何保證質素?生成的考試題目或課程大綱,原創性及恰當性能否確保?指引對教師似乎是沒有很大的規範作用。
前瞻地看,未來 AI 必然會改變高等院校的教與學。除了培訓和投放資源,有沒有好的方法或策略可以推進發展?或者也可以參考其他地方的動向。
就筆者所見,本地及外地院校投放資源,發展 AI 的教育應用,大略可分為「上而下」和「下而上」兩類。「上而下」可由院校統籌及負責發展平台,例如澳洲悉尼大學的 Cogniti.ai,是一個多用途平台,教師可按需要自行製作代理機械人 (Agent),指導學生進行任務,或訓練學生溝通技巧。筆者 5 月拜訪時,該校教授健康科學的團隊已用Cogniti.ai 建立了多個方案,可以應用於職業治療、心理學等課程,據知全校有過百位教師使用該平台製作代理機械人。
取得兩者並行
院校自設平台比較容易達到師生公平使用 AI,及克服 AI 操作背後的私隱、保護智識產權等問題。在美國,密西根大學、哈佛大學、華盛頓大學、加州大學等都都發展院校自己的 ChatGPT;中文大學亦於去年發展了自己的ChatGPT。「上而下」政策也易於凝聚有共同興趣和需要的同事,面對技術及資料私隱問題都可集中處理。雖然對院校而言,成本和高技術需求相當大,但效益也可能相對提高。
「下而上」則由院校撥款讓有興趣的同事申請,開發工具可以目標為本,投放資源相對彈性,而且鼓勵百花齊放,好處是自主性高,但單一造價亦可能相對昂貴,而且同事在繁忙教學工作上難以視此為優先,可能更添無助感。
本地院校及教資會均有「下而上」的撥款推行教育創新,不少計劃亦要與市場的公司合作以客製化 AI 工具及平台,需要投入大量數據及案例等學術資料。如何保障資訊科技安全及資料私隱,對教師很有挑戰,院校應提供支援及加強保障教育開發品的產權,以鼓勵教育創新。
從尊重學術自主的角度考慮,「下而上」發展策略也未必要所有人參與使用 AI 作為教學或輔助教學工具。然而,如果 AI 是某專業的未來趨勢,以積極政策推動是重要的,可能應該優先考慮把 AI 的專業應用納入課程,否則會削弱畢業生的能力和就業能力。
考量 AI 的倫理課題,有普遍性的焦點,例如透明度和監督、隱私等;具體用於各專業時也會有特殊的問題,值得逐一討論。