
“醫療AI人機對齊問題不僅是一項技術挑戰,更是一項關于‘AI如何服務人類’的價值思考。”4月19日,第十四屆全國政協委員、工業和信息化部原副部長王江平在中國醫學發展大會開幕式上表示,醫療健康AI應用必須通過全面體系化的滲透策略——讓對齊法則深入技術架構、數據集建設、醫院管理、患者知情、行業監管等環節,才能確保AI始終服務人類,實現從“高效工具”到“可信伙伴”的跨越。
人機對齊正在成為治理AI倫理問題的基本法則
近年來,AI技術如潮水般涌進各個領域,在帶來效率革命的同時,也暴露出隱私泄露、歧視偏見、算法濫用等倫理挑戰。我國高度重視該問題,提出《全球人工智能治理倡議》,出臺《科技倫理審查辦法(試行)》等一系列政策法規,進入體系化治理推進階段。
王江平表示,從技術層面看,人機對齊正在成為治理AI倫理問題的基本法則。在醫療領域,人機對齊可從三個維度發揮作用,促進AI倫理治理。一是可解釋性。清晰展現AI的決策邏輯,讓醫患理解“黑箱”背后的依據。歐盟《人工智能法案》明確要求高風險AI系統(醫療AI屬此類別)必須提供“技術文件”和“透明度信息”,將可解釋性從技術選項升級為合規標準。二是信任性。只有當AI的建議符合醫學倫理,人類才能對其建立深度信任,才敢對其托付生命健康。醫療行業的特殊性對模型魯棒性提出了極高要求。三是人類和諧性。AI在應用過程中可能偏離人類的真實需求,如醫療AI為“最大化患者生存率”可能忽視治療痛苦,情感陪伴機器人可能導致用戶過度依賴、人際疏離等。人機對齊要求在算法設計中加入人性考量、目標校準,確保技術真正服務于人類福祉,而非單一指標的“冰冷計算”。
王江平指出,有人擔心人機對齊會束縛技術創新,其實恰恰相反——它是創新的催化劑。當前,人機對齊技術日益廣泛地應用于模型訓練,如基于人工反饋的強化學習(RLHF)、檢索增強生成(RAG)技術等已經被大多數主流模型采用。基于AI反饋的強化學習方法(RLAIF)可有效解決人類專家標注耗時長、難以規模化等問題,OpenAI提出的弱到強泛化方法、阿里通義實驗室提出的基于辯論驅動的弱監督對齊方法等,為解決未來的“超級對齊”問題提供了一種可能性。王江平表示:“人機對齊的前沿研究正從單一技術向多維度技術融合快速發展,既推動了AI倫理與安全治理,也極大促進了AI模型能力提升。”
醫療領域是AI應用的“高壓地帶”
在王江平看來,醫療領域是AI應用的“高壓地帶”,這源于其三大特殊性。一是數據敏感性。醫療數據包含生理指標、病史、診療記錄等敏感信息,直接關聯個人生命權和隱私權。二是結果不可逆性。生成式AI的“幻覺”問題在醫療場景中可能導致嚴重問題。王江平坦言:“我們必須清醒認識到,一次錯誤診斷可能直接危及生命,醫療AI應用必須追求‘零失誤’。”三是責任主體復雜性。對于AI參與醫療決策導致損害問題,需以“權責清單”等形式清晰界定責任,避免出現“技術出錯、操作失誤、患者買單”的困局。
醫療健康AI應用必須實行全面體系化的滲透策略
如何讓人機對齊貫穿醫療AI的“研發—應用—監管”全周期全鏈條?王江平提出一條路徑——從技術架構、數據集建設、醫院管理、患者知情、行業監管五大環節協同發力。
在技術架構環節,要從源頭上注入倫理基因、實現價值觀驅動。模型預訓練階段引入“醫學倫理知識圖譜”,讓模型優先學習循證醫學指南、臨床診療規范等,確保模型“學的是正確的知識”。模型微調階段通過人工反饋強化學習讓模型適應具體場景倫理偏好,在給出方案時綜合評估患者年齡、病情、經濟狀況等因素,避免“一刀切”決策。
在數據集建設環節,要充分考量醫療數據格式不統一、多模態混雜、小樣本高維度數據并存、隱私問題突出等難題。運用隱私計算技術實現數據“可用不可見”,通過術語標準化打破數據孤島,利用小樣本增強技術解決標注數據不足問題。設立“數據過濾器”,自動屏蔽包含歧視、錯誤倫理導向的數據源。建設醫療可信數據空間,推動統一數據規則和技術標準,促進合規共享。
在醫院管理環節,在診斷、手術等高風險場景應實施“雙保險機制”,AI手術建議需醫生實時復核并留存記錄。在健康咨詢、用藥提醒等中低風險場景可允許AI自主決策,嵌入動態監控日志,記錄交互細節供事后審計。開發可視化工具包,讓醫生快速理解模型邏輯。設立“人機協作績效指標”,將AI使用規范納入醫生考核體系,避免“盲目信任”或“過度抵觸”。
在患者知情環節,要向患者提供“可理解的AI決策報告”,用通俗語言解釋推薦藥物、治療方案的理由。保障患者的否決權,建立“患者一票否決通道”,當患者對AI建議提出質疑時強制切換至人工服務。
在模型測評與行業監管環節,建立國家統一的醫療AI對齊認證標準體系,由第三方機構開展測評,通過者頒發“倫理合規標簽”,作為市場準入前提。常態化開展“紅藍對抗演練”等對抗性測試,模擬罕見病誤診、數據投毒等極端場景,測試模型魯棒性。設立多學科倫理委員會,由臨床醫生、AI工程師、倫理學家、患者代表共同參與,定期評估模型對齊度,避免“技術單邊主義”。編制《醫療AI對齊白皮書》,為開發者、醫療機構提供操作指南。
王江平表示:“要通過這五大環節的協同發力、綜合施策,確保醫療AI筑牢倫理合規防線。”
數據飛輪是醫療健康模型技術迭代的必要手段和對齊策略
“數據飛輪”是用戶對AI輸出進行標注、反饋,從而實現模型持續優化的閉環機制。在AI領域數據飛輪不僅是技術迭代的引擎,更是人機對齊的重要實現路徑。王江平表示:“醫療AI有必要引入數據飛輪機制,通過‘模型輸出評估—數據收集—應用反饋—模型優化’的閉環,使醫療AI模型得以持續貼近真實醫療需求。”
醫療AI的“數據飛輪”應建立準入和激勵機制。準入機制目的是確保數據“干凈合規”,醫療數據貢獻者(醫院、醫生)需通過倫理審查和資質認證,避免噪聲數據污染模型價值觀。激勵機制目的是讓數據共享“雙向受益”。醫院通過數據共享可以獲得AI模型優先使用權或定制化服務,醫生標注高質量數據可積累學術積分、助力職稱晉升,從而激發醫院和醫生參與人機對齊的積極性。
王江平表示,應在真實的醫療場景中持續收集高質量數據反饋,不斷修正模型偏差,讓對齊能力在迭代中持續進化,使對齊效果在實踐中不斷提升。當醫療AI解決對齊問題,真正成為人類可以信賴的醫療助手,必將成為千行百業AI應用的典范。
來源:中國電子報 盧夢琪