TCG
Advantechline
 

醫療人工智慧穩健發展 輕巧資訊量能發揮最大功效

中央研究院歐美研究所助研究員何之行認為,GDPR不恐怖,越能合規,企業能越穩健發展。蔡騰輝攝

由於發展醫療人工智慧(AI)需要很多資料作為研究基底,過往大家可能都認為資料收集越多越好,但隨著創新科技發展,資訊安全與人類生活變得越來越緊密,無論是駭客浪潮興起或是個人權益意識抬頭,都讓產業界開始反思大數據的收集和管理成本,以及實際使用上的優劣和順手度。

針對歐盟GDPR規範與AI醫藥研發的領域,中央研究院歐美研究所助研究員何之行表示,GDPR的緣起,從1995年個人資料保護指令,到2016年通過GDPR決定取代1995年指令,接著在2018年5月25日施行GDPR,這一系列進程,在在顯示歐盟對於資料的掌控與保護,其中以過去從政府由上而下嚴格監控全國的德國最為代表。

合規GDPR 生醫新創的路能走得更順

GDPR有4個大原則,包括資料最小化原則、目的特定原則、透明性原則、課責性原則,這些原則與醫療AI發展很有相關,因為收集資料可能會牽涉到目的特定原則當中的資料二次利用、兼容性判斷標準。

可能會有產業人士思考,如果GDPR的規定太過複雜,是否就不要做歐洲生意與技術研發就好了,然而,GDPR有很強大的域外效力,也就是說,只要是提供歐盟公民服務的產品服務,即便服務企業註冊在歐盟以外的地方,資訊保護方面依舊會受到GDPR規範。

資料可以被收集 給予者也有權要求刪除

GDPR包含被遺忘權和刪除權,代表著資訊給予者可以在任何時候要求資訊收集者將資料刪除,然而,在醫學人工智慧或是各式演算法訓練的情境之下,這些用來「訓練」電腦的資料,已經將類神經網路訓練完成,該如何「確切」且「完整」刪除也是現在法務與資訊人員正在研討的切入點。

這些原本就已經在數據庫當中的資料,未來可能也需要依照當事人要求而刪除。何之行補充說道,「拒絕機器學習分析的權利」也將是未來AI發展時大家會碰到的問題,也就是當事人有權在特定情況下,拒絕資料控制端處理當事人的資料。

GDPR強調預先式隱私保護(Privacy by Design),脈絡化評估隱私風險的衝擊,對於二次利用的侵害都有全面的評估。此外,若是資料已經匿名化以及去連結(Anonymous),那麼就已經不屬於個人資料;然而若是僅是假名化,資料仍可識別,那麼資料原本擁有者還是可以主張,在特定情況下可以要求刪除與退出特定演算計畫。

蔡騰輝

DIGITIMES電子時報智慧醫療主編蔡騰輝Mark Tsai
專注研究智慧醫療產品技術服務導入場域時,所遇到的困難癥結與如何克服要點。
精通中英德語,熱愛挑戰與Swing Dance。
Facebook:DIGITIMES智慧醫療

作者更多專欄

  •     按讚加入DIGITIMES智慧醫療粉絲團
更多關鍵字報導: 大數據分析 人工智慧