自從1956年美國計算機科學家約翰·麥卡錫在達特茅斯會議提出人工智能這一概念以來,人工智能(AI)已經(jīng)發(fā)展了60多年,在此過程中歷經(jīng)“三起兩落”。2016年AlphaGo戰(zhàn)勝李世石事件,將人們對人工智能的關注推向高潮。2017年,人工智能首次被寫入政府工作報告,同年7月,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出“人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?、改變世界”“人工智能成為國際競爭的新焦點”。隨著我國互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等領域的快速發(fā)展,人工智能的發(fā)展時機已經(jīng)成熟。預計在不久的將來,人工智能將通過交通出行、看病就醫(yī)、金融服務、教育培訓等方面,融入每個人的生活。
人工智能在發(fā)展進程中主要面臨兩個問題,即技術問題和相關的倫理與法律問題。從某種程度上來說,人工智能倫理與法律問題的重要性要超過其技術問題,就醫(yī)療領域而言更是如此。發(fā)展人工智能應該以人類社會的穩(wěn)定與福祉為前提,發(fā)展醫(yī)學人工智能的目的脫離不開醫(yī)學本身,即協(xié)助醫(yī)生為人類解除病痛、恢復健康。近年來,隨著人工智能技術的突飛猛進,其在醫(yī)療領域的應用也取得了重大突破。目前,人工智能已廣泛應用于疾病的預防、診斷、治療,風險監(jiān)測,健康管理,新藥開發(fā)等領域,人工智能已經(jīng)在英國、美國等發(fā)達國家的各類醫(yī)療機構中全面展開應用。人工智能技術在醫(yī)療領域的應用和發(fā)展,也帶來了一系列法律問題,其中最為主要的當屬患者醫(yī)療健康數(shù)據(jù)管理問題和醫(yī)療損害責任分擔問題。
醫(yī)學AI的數(shù)據(jù)規(guī)范與隱私保護
智能移動終端和可穿戴設備收集了大量與患者相關的醫(yī)療健康數(shù)據(jù),這些寶貴的數(shù)據(jù)資源在科研領域和商業(yè)領域都有巨大價值。但大量數(shù)據(jù)的匯聚也存在很大風險,一旦數(shù)據(jù)泄露,被不法分子利用,將會給人們的生命財產(chǎn)安全造成巨大損失。如何在保護患者個人隱私的同時安全合理地利用這些資源,就成為我們需要重點考慮的問題。
1996年,美國國會頒布了《健康保險攜帶和責任法案》(Health Insurance Portability And Accountability Act, HIPAA),旨在保護患者隱私信息的安全,并維護員工、客戶和利益相關方數(shù)據(jù)的完整性,明確了患者對自己的健康狀況有隱私權,建立起保護病人隱私的法律框架和法律標準,提升了整個衛(wèi)生行業(yè)的標準化水平。但該法案的受用范圍有限,僅對醫(yī)療機構提出了要求,制藥企業(yè)、公共衛(wèi)生機構等不受HIPAA的規(guī)制。后來根據(jù)HIPAA的授權,美國健康與人類服務部(Human And Health Service, HHS)制定了《HIPAA隱私規(guī)則》(以下簡稱《規(guī)則》),主要保護“可識別為個人身份的健康信息”(Individually Identifiable Health Information),規(guī)定了個人健康信息如何“去身份化”,以便更好地保護患者隱私。
2016年4月,歐洲議會投票通過《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR),該條例保障了個人信息數(shù)據(jù)隱私,也為新技術研發(fā)過程中的數(shù)據(jù)信息處理提供了一定的標準和規(guī)范。有研究表明,GDPR對人工智能應用及發(fā)展的影響很大,它一定程度上阻礙了人工智能、數(shù)字經(jīng)濟等新技術、新事物在歐盟的發(fā)展,給企業(yè)經(jīng)營增加了負擔和不確定性。
英國政府在《英國政府回應上議院人工智能特別委員會關于人工智能的報告:準備,意愿和能夠?》(Government Response To House Of Lords Artificial Intelligence Select Committee’s Report On ?AI In The UK: Ready, Willing And Able?)中提出,建立和維持公眾對其數(shù)據(jù)安全使用的信任對人工智能的廣泛應用至關重要。在歐盟GDPR的影響下,英國通過了《數(shù)據(jù)保護法案2018》(Data Protection Act 2018),該法案大力支持數(shù)據(jù)在人工智能和機器學習中的安全使用,同時也包含一些必要的保障措施,確保有嚴格的規(guī)定來規(guī)范數(shù)據(jù)的自動化處理過程。
我國也高度重視數(shù)據(jù)規(guī)范使用及個人隱私保護。2015年8月,國務院印發(fā)《促進大數(shù)據(jù)發(fā)展行動綱要》,高度重視數(shù)據(jù)共享、數(shù)據(jù)安全和隱私保護。綱要明確了數(shù)據(jù)共享的范圍邊界和使用方式,厘清了數(shù)據(jù)共享的義務和權利,加強了數(shù)據(jù)安全保障和隱私保護。2016年6月,國務院辦公廳印發(fā)《關于促進和規(guī)范健康醫(yī)療大數(shù)據(jù)應用發(fā)展的指導意見》,旨在營造一個互聯(lián)融通、開放共享的良好數(shù)據(jù)環(huán)境,為數(shù)據(jù)規(guī)范化管理奠定了基礎。2018年7月,國家衛(wèi)健委發(fā)布了《國家健康醫(yī)療大數(shù)據(jù)標準、安全和服務管理辦法(試行)》,該辦法規(guī)范了大數(shù)據(jù)的標準管理及安全管理。2019年11月,工業(yè)和信息化部曾開展為期兩個月的APP侵犯用戶權益專項整治行動,重點整治APP違規(guī)收集用戶個人信息、違規(guī)使用用戶個人信息等突出問題,結合企業(yè)、社會、政府多方力量規(guī)范行業(yè)管理。
人工智能醫(yī)療機器人能夠收集使用者的基因、病歷、健康狀況等重要信息,這些信息一旦泄露可能會給患者帶來巨大不便。在人工智能時代,建立行業(yè)規(guī)范以保護患者健康數(shù)據(jù)至關重要,這不僅是對個人隱私權的尊重,更是對社會整體利益的保護。然而,過于嚴苛的數(shù)據(jù)保護可能會阻礙人工智能的發(fā)展,歐盟GDPR就是一個很好的例子,那么,如何兼顧數(shù)據(jù)保護和科技發(fā)展呢?
2014年,加拿大提出了共享匿名數(shù)據(jù)不需要征得同意的聲明,其在政策聲明修正案中提到,完全依賴于二次使用不可識別信息的研究不需要征得同意。在歐盟GDPR中也提到,當一項任務“符合公眾利益”時,可以在未經(jīng)本人知情同意的情況下處理個人數(shù)據(jù)。這些規(guī)定給予我們一定啟示,即在樣本量大到回顧性獲得患者同意不現(xiàn)實時,可以從特定數(shù)據(jù)使用的“知情同意”過渡到“廣泛同意”“選擇退出同意”或“推定同意”。
在法律上,當受到法律保護的兩種權利發(fā)生沖突時,會比較兩種權利背后要保護的法益,優(yōu)先考慮法益較重的權利。當醫(yī)學人工智能的發(fā)展與應用旨在促進人類的健康與幸福時,在保證數(shù)據(jù)安全且不會對他人造成傷害的前提下,個人隱私權應當做出一定讓步,從而達到兩者之間的平衡,在不損害個人權益的前提下推動技術進步。
另外,作為互聯(lián)網(wǎng)法律基礎制度之一的“避風港規(guī)則”也能給我們一定啟示。建立數(shù)據(jù)集的過程中,當逐個獲取數(shù)據(jù)主體的同意成本過高或不現(xiàn)實時,我們可以先收集處理,在數(shù)據(jù)主體發(fā)出選擇退出同意的請求時,再將數(shù)據(jù)從數(shù)據(jù)集中清除,在尊重數(shù)據(jù)主體意愿的前提下對數(shù)據(jù)進行收集處理、研究分析,既保證患者充分行使自己的權利,又保證醫(yī)學人工智能技術的發(fā)展不受阻。
醫(yī)學AI的損害責任賠償
醫(yī)學人工智能最主要的應用體現(xiàn)在醫(yī)療機器人和智能醫(yī)療診斷方面。如果醫(yī)療機器人和智能醫(yī)療診斷系統(tǒng)在使用過程中,由于系統(tǒng)故障或者電力供應方面出現(xiàn)問題等原因做出錯誤診斷或行為從而導致醫(yī)療事故的發(fā)生,且對患者造成醫(yī)療損害時,如何判定醫(yī)療損害責任?人工智能本身是否可以承擔損害責任呢?醫(yī)學人工智能的法律主體地位是人工智能發(fā)展的終極思考問題,相關方面的討論從未停止,然而,目前人工智能的發(fā)展還處在弱人工智能階段,現(xiàn)在以及未來很長一段時間內(nèi),人工智能都將是從屬于人類的工具。因此,應將其當作產(chǎn)品來看待,損害責任的承擔者將在該產(chǎn)品的生產(chǎn)者、設計者、所有者、使用者中產(chǎn)生,但由于人工智能算法的不透明性和監(jiān)管制度的不完善,對利益相關者進行公平公正的責任劃分存在很大困難。
如何讓人工智能在確保安全的前提下進入我們的生活呢?對于如何監(jiān)管人工智能在醫(yī)學領域中的應用,有學者強調(diào)人工智能算法的透明化更利于監(jiān)管,但也有反對意見指出,首先,算法程序本身具有很高的專業(yè)壁壘,大多數(shù)非專業(yè)人士讀不懂,只能依靠算法程序行業(yè)自我監(jiān)督;其次,在如今人工智能深度學習的情況下,代碼編寫者可能也無法完全準確預測其結果;最后,代碼是編寫者智慧的結晶,甚至有可能是科技公司的安身立命之本,如果隨意公開,可能會引發(fā)知識產(chǎn)權、商業(yè)機密等一系列法律問題。另有學者建議,可以將監(jiān)管前置化,把對于醫(yī)學人工智能產(chǎn)品的監(jiān)管轉為對其生產(chǎn)企業(yè)的監(jiān)管,為此類企業(yè)設置壁壘,讓有良好信譽的企業(yè)對其產(chǎn)品負責,但如此一來,很可能造成大企業(yè)壟斷的局面,小型科技公司將缺乏競爭力,不利于良好人工智能產(chǎn)業(yè)環(huán)境的營造。確定醫(yī)療損害賠償責任實質(zhì)上是醫(yī)學人工智能的監(jiān)管問題,如何科學合理地監(jiān)管醫(yī)學人工智能仍然有待研究。
人工智能以人為本的倫理原則
倫理原則決定著技術的發(fā)展方向,目前人工智能相關的法律尚未出臺,需要倫理準則來規(guī)范其應用發(fā)展。在這方面,歐盟走在了世界前列,2018年4月,歐盟委員會發(fā)布政策文件《歐盟人工智能》(Artificial Intelligent For Europe),提出以人為本的人工智能發(fā)展路徑,旨在提升歐盟科研水平和產(chǎn)業(yè)能力,從而可以更好地應對人工智能和機器人帶來的技術、倫理、法律等方面挑戰(zhàn),讓人工智能更好地服務于歐洲社會和經(jīng)濟的發(fā)展。2019年4月,歐盟先后發(fā)布了兩份重要文件——《可信AI倫理指南》(Ethics Guidelines For Trustworthy AI)和《算法責任與透明治理框架》(A Governance Framework For Algorithmic Accountability And Transparency)。
中國發(fā)展研究基金會在其發(fā)布的報告《未來基石——人工智能的社會角色與倫理》中指出,要通過各界合作建立一套切實可行的指導原則,鼓勵發(fā)展以人為本的人工智能。以人為本是人工智能發(fā)展的基本倫理要求,任何一項技術的發(fā)展進步都是以促進人類社會的進步、增進人們幸福感為宗旨的,人工智能技術也不例外,必須保證它符合我們的倫理道德,且不會對人類造成傷害,這是醫(yī)學人工智能進步和發(fā)展的前提。