美國發布人工智能/機器學習獨立軟件行動計劃
發布日期:2021-06-25 11:47瀏覽次數:1991次
基于2019年4月所發布的《人工智能(AI)/機器學習(ML)獨立軟件更新監管框架草案》(以下簡稱監管框架草案)的公眾反饋意見,美國食品藥品監督管理局(FDA)于2021年1月發布了《AI/ML獨立軟件行動計劃》,旨在明確AL/ML獨立軟件監管的五項工作和目標。
美國發布人工智能/機器學習獨立軟件行動計劃
基于2019年4月所發布的《人工智能(AI)/機器學習(ML)獨立軟件更新監管框架草案》(以下簡稱監管框架草案)的公眾反饋意見,美國食品藥品監督管理局(FDA)于2021年1月發布了《AI/ML獨立軟件行動計劃》,旨在明確AL/ML獨立軟件監管的五項工作和目標。
一、量身定制AI/ML獨立軟件監管框架
FDA計劃更新AI/ML獨立軟件更新監管框架,發布AI/ML獨立軟件“預定變更控制計劃”指南。
FDA在監管框架草案中提出通過“預定變更控制計劃”控制AI/ML獨立軟件更新,并將其細化為軟件更新預期規范(SPS)和算法變更方案(ACP),前者是指制造商所計劃的軟件更新規格說明,后者是指制造商所采取的SPS軟件更新風險控制方法。
結合公眾反饋意見和近期產品審評經驗,FDA計劃細化SPS和ACP所含具體內容,并于2021年發布“預定變更控制計劃”指南草案,征求公眾意見。
二、推動建立良好機器學習實踐
FDA認為良好機器學習實踐(GMLP)的概念對于保證AI/ML獨立軟件的安全有效性至關重要,因此計劃在相關協會、標準化組織中推進建立GMLP。
FDA目前參與了國際電氣和電子工程師協會(IEEE)、國際標準化組織(ISO)/國際電工委員(IEC)、美國先進醫療器械協會(AAMI)、英國標準協會(BSI)、國際醫療器械監管者論壇(IMDRF)等多個組織和機構的人工智能工作組相關活動,FDA將在這些工作組中推動建立GMLP,促進達成共識。
此外,FDA還將GMLP與醫療器械網絡安全監管計劃密切協作,以符合FDA對醫療器械網絡安全的監管要求。
三、以患者為中心和信息透明相結合
考慮到AI/ML獨立軟件會隨時間而持續更新,所用算法可能為黑盒算法,FDA認為必須采取以患者為中心的方法來保證產品的安全有效性,促進產品對于用戶乃至患者的信息透明度是以患者為中心的關鍵。
FDA于2020年10月召開了一次患者參與咨詢委員會(PEAC)會議,專門討論AI/ML獨立軟件的信息透明問題。在此基礎上,計劃再召開一次公開研討會,進一步討論軟件說明書和標簽所含的信息類型和內容要求,以確保用戶了解軟件的受益、風險和局限性,形成相應監管方法。
四、開展算法監管科學研究
算法偏倚控制和健壯性雖然不是AI/ML獨立軟件所獨有的問題,但是由于AI/ML算法訓練主要使用歷史數據,很容易引入偏差,同時AI/ML算法應用深受種族、族裔和社會經濟地位等因素影響,因此AI/ML獨立軟件的算法偏倚控制和健壯性尤為重要。
FDA計劃深入開展算法監管科學研究,與加州大學舊金山分校、斯坦福大學、約翰·霍普金斯大學等機構研究人員合作,開發AI/ML算法的評估方法,包括識別和消除算法偏差,評估和提高算法健壯性。
五、監測產品真實世界性能
FDA在監管框架草案中提出采用全生命周期方法來監管AI/ML獨立軟件,通過收集和監測真實世界性能數據來支持軟件更新,但如何使用真實世界性能數據來評估AI/ML獨立軟件更新仍需明確,亦是業界所關注的熱點之一。
FDA計劃與利益相關方合作成立真實世界性能監測哨點,結合FDA真實世界數據項目進展情況,進一步研究闡明AI/ML獨立軟件真實世界性能數據的生成過程、評估參數與指標等要求。
總之,FDA將針對AI/ML獨立軟件特點,積極與利益相關方合作,多管齊下,盡快形成AI/ML獨立軟件監管框架,并擴展至AI/ML軟件組件。
標簽:醫療器械網絡安全要求、人工智能醫療器械注冊