国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生物醫(yī)學領域人工智能應用的倫理問題

2020-02-12 09:57:56郭旭芳
基礎醫(yī)學與臨床 2020年2期
關鍵詞:倫理道德機器人

郭旭芳,劉 輝

(中國醫(yī)學科學院 北京協(xié)和醫(yī)學院 人文和社會科學學院,北京 100730)

英國學者托馬斯·霍布斯(Thomas Hobbes,1588—1679)曾在《利維坦》 一書中提到可以制造一種“人工動物”,人工智能(artificial intelligence,AI)的雛形誕生[1]。1956年,美國達特茅斯會議上正式確立了“人工智能”這一術語,自此打開了人工智能領域的大門。人工智能早期的定義是:一種大部分工作集中在模擬或復制人類智能的工具[2];人工智能是一種獲取并表達知識,并且運用知識的學科。從醫(yī)學和生物學的角度來看,人工智能也被稱為“一般智能”,指具有應對普遍環(huán)境的能力和智力[3]。如何定義人工智能尚無定論,但是可以總結出以下3個特點:1)根據人類活動研制出來的數字化系統(tǒng);2)模擬人類的某些行為;3)執(zhí)行人類能夠進行的智力活動。

人工智能在生物化學、計算機技術、醫(yī)療衛(wèi)生、經濟金融等諸多領域發(fā)展迅速,給人類的生活帶來極大便利,逐步成為國際競爭的新焦點,但同時人工智能發(fā)展的不確定性也帶來新挑戰(zhàn),這些挑戰(zhàn)不僅

局限于技術層面,更多的是倫理方面的。生物醫(yī)學領域是人工智能技術首先應用的領域之一,醫(yī)學研究以及醫(yī)療保健對于全人類有著至關重要的作用。然而,有研究證明,人工智能設備在設計之時往往沒有任何明確的倫理考慮[4]。因此,人工智能在醫(yī)學中的倫理挑戰(zhàn)就成為了不可忽視的問題。本文試圖通過對人工智能現存矛盾以及潛在問題的梳理,探討如何平衡人工智能帶來的利益以及倫理風險。

1 人工智能道德地位和責任問題

多年來,醫(yī)療機器人已經被用于外科手術以及醫(yī)療保健中。外科手術中機器人的運用對于頭頸部,心臟和泌尿外科等科室都是有益的[5]。這說明醫(yī)療領域人工智能的合理應用使得醫(yī)療專業(yè)人員的工作更有效率,但是醫(yī)療機器人在擴大運用范圍,提高醫(yī)院效率的同時對醫(yī)生的道德主體地位提出了挑戰(zhàn),此外人工智能的使用也增加臨床診療中的不確定性風險。

在手術中,如果醫(yī)療機器人引發(fā)了法律追溯責任問題以及倫理責任問題,那么誰應該因醫(yī)療機器人造成事故承擔責任?例如,最近的神經技術可以使得大腦信號變成輸出設備執(zhí)行所需動作的命令[6]。在這種框架下,當不確定性風險發(fā)生時,責任主體應該如何判定?一個主要或僅由一個設備產生的行為的責任是否應該最終歸于人類?在倫理條款,現行的“醫(yī)療道德守則”規(guī)定:專業(yè)的責任取決于患者的醫(yī)生,護理等任意一方涉及醫(yī)療責任,導致對患者造成任何損害,主管醫(yī)生應該按照醫(yī)療程序承擔主要責任[7]。但人工智能與一般醫(yī)療設備有所區(qū)別,常常看上去是一種“自主行為”,醫(yī)療機器人能否成為責任主體,它能否擁有道德主體地位?

國際學術界針對如何判定機器人的道德地位這一問題已經討論了10年,14個歐洲國家的156名人工智能專家曾聯(lián)名表明態(tài)度——授予機器人法人資格“不恰當的”。大多數學者認為現階段的人工智能機器人尚且只能屬于工具范疇,因為機器人并不具備自主意識,缺乏理性思考。然而,圖靈測試的結果意味著復雜的人工智能可能具有意識[8]。如果人工智能科技進一步發(fā)展,發(fā)展后的人工智能系統(tǒng)極有可能具備自主制定行動策略、自主做出道德選擇的能力。這一局面出現時,人類與智能機器人的道德地位又應該如何界定?

筆者認為對于人工智能自主性的發(fā)展應該有一定的限制。人工智能可以分為強人工智能(Strong Artificial Intelligence)和弱人工智能(Weak Artificial Intelligence),對于弱人工智能來說,不應具有道德地位;至于強人工智能,即具有自主意識的設備,本身就屬于爭議,強人工智能不僅在醫(yī)學行為中道德地位難以確定,這一技術對人類的地位本身可能造成威脅,從平衡的觀點出發(fā),在完全了解強人工智能的利弊之前,應該謹慎對待此類技術在醫(yī)學領域的應用。技術的發(fā)展應該控制好“人類”與“人工智能工具”之間的平衡這一問題,在醫(yī)學領域的應用要控制系統(tǒng)行為的不可預知性和不確定性。

基于以上觀點,人工智能在生物醫(yī)學領域的應用仍然是工具屬性,醫(yī)療機器人不具備道德地位,即不能獨立承擔事故的責任,也沒有資格代替醫(yī)生在醫(yī)療行為中的角色,而強人工智能及其應用應予以慎重對待。如,在發(fā)生醫(yī)療事故致使患者利益受到損害時,是應該由研發(fā)者還是由操作者來承擔后果呢?筆者認為,應該針對事故情況具體分析,若是因為智能機器的程序故障導致醫(yī)療傷害,則主要責任應由研發(fā)者承擔,操作者承擔次要責任;若是因為操作不當導致醫(yī)療事故,損害患者權益,則應該有操作者承擔責任。

2 醫(yī)療人工智能引發(fā)的公平性問題

人工智能有著驚人的潛力,可以加速生物學和醫(yī)學的科學發(fā)現,并改善醫(yī)療保健結構,增進人群以及個人的健康,但是人工智能的應用也可能會加劇人群中現有的醫(yī)療保健差距。人工智能醫(yī)療的成本較為昂貴,因而其主要受益群眾也僅限于少數,此種前提下,醫(yī)療資源分配不公平現象將會更為突出。除此之外,人工智能算法所基于的數據本身可能包含有意想不到算法偏見[9-10],不可控的產生年齡、性別、種族方面的歧視,加強現有的社會不平等形式。例如:大腦植入是一種神經科學方面治療的新手段,可是只有有能力支付的人才能被提供這種治療方式[11-12]。在此情況下,應該如何平衡健康公平性的問題?

筆者認為,可以從以下3個方面進行考慮:第一,要實現人工智能健康效益和成本之間的平衡。在臨床領域應用的技術應該是適宜的技術,對人工智能在生物醫(yī)學領域的大規(guī)模應用需要充分論證,技術已成熟、有利于改善人的健康,且成本應具有可接受性,才能進行推廣。第二,實現個人利益與社會利益之間的平衡。堅持以人民健康福祉為中心,將應用的人工智能技術產品分類,對人的健康具有重大意義的基本醫(yī)療手段國家社會應該予以承認,納入醫(yī)療保障系統(tǒng),以盡可能低的價格滿足居民健康需要;另一方面,對于促進人類健康范圍較窄且成本較高的人工智能醫(yī)療手段可規(guī)定由個人承擔。第三,堅持“不傷害”的原則。對于可能引發(fā)健康傷害風險的人工智能需要控制其使用的范圍,維護好生命健康權這一基本權益,特別是對社會弱勢群體應該予以尊重和保護。

3 個人權利與公共利益之間的張力問題

3.1 自由意志和公共利益之間的張力

當今網絡技術時代,人工智能設備不可避免運用于數據采集、整合、儲存、分析,而人工智能也需要使用個人健康信息來完成機器學習,提高診斷,治療和輔助研究的能力。在醫(yī)療領域,醫(yī)學研究者可以通過流行病學分析,鑒定某一疾病與基因、環(huán)境的關系,從而達到對于疾病更好的預防,結果可以使得全社會受益。但是人工智能所需的個人健康信息是典型的醫(yī)療大數據,因此在利用醫(yī)療大數據時,不論是基于對于數據提供者的人格尊重,還是基于保護其利益,都應取得充分的知情同意,但是大數據采集在充分的知情同意程序前卻面臨困境。例如,歐洲現行的《一般數據保護條例》(General Data Protection Regulation,簡稱 GDPR)提出要求:對個人數據(personal data)的每一次加工或分析(processing or analysis),都要獲取數據對象―專門的、知情的、明確的同意。這個條例下,研究人員會面臨著兩大壓力:數據對象難于尋求以及嚴重的經濟負擔,導致醫(yī)學研究受限、整個產業(yè)體系發(fā)展難以推進。

3.2 個人隱私與公眾利益之間的張力

生物醫(yī)學大數據是人工智能在醫(yī)學領域運用的基礎,患者健康信息包括個人社會信息、病例數據甚至影像、磁共振結果都可以作為人工智能(機器學習)的必要資料,若沒有充足的病例數據,人工智能的成熟不可想象,由此產生的健康效益難以保證。有研究表明機器診斷能力不輸于放射學專家,甚至能超越后者[14]?;趯€人隱私的保護,一般的解決思路便是去識別化(de-indentification),即把個人身份信息從數據中消除。但是,近年來,隨著人工智能系統(tǒng)和大數據識別技術的發(fā)展,又出現了再識別化(re-indentification)這一技術,通過大數據和人工的手段把分散在各處的信息整合并重新生成個人身份信息,從而使去識別化的手段失效,換而言之,即便去識別化手段是完全有效的,也沒有就去識別化的具體標準作出統(tǒng)一規(guī)定。因此可以說隱私保護和人工智能發(fā)展之間、社會健康福利之間的張力問題一直存在,而且可能更加尖銳。

為生物醫(yī)學信息庫大數據下平衡個人權利以及公眾福利的張力問題提供以下幾個解決思路:1)權利的集中與責任的集中相平衡。個人的數據集中形成大數據、大數據推動人工智能的發(fā)展,實際上是個人權利向中心節(jié)點的集中(讓度),這個節(jié)點可以是政府、高校,也可以是醫(yī)院,甚至是公司,機構節(jié)點集中保管和使用大規(guī)模個人數據就必須承擔相應的數據安全、隱私保護、規(guī)范使用等責任。2)政府部門承擔監(jiān)管責任。因為大數據設計人數眾多,應該有政府有關部門制定大數據管理制度,防止個人數據濫用現象的發(fā)生。3)個人應提供醫(yī)療數據或者其他健康數據,并且應具有從相關人工智能服務中獲益的資格。人工智能因個人數據而獲得提升,理應以服務于公眾健康為目的。利用了個人醫(yī)療或者生物數據應該以并且對于所使用數據的個人予以一定程度上的回饋,比如,提供健康咨詢等。

盡管人工智能在生物醫(yī)學領域的應用上面臨著很多技術和倫理的挑戰(zhàn),但是我們應該肯定一點——人工智能的合理運用可對現代醫(yī)學發(fā)展起到推波助瀾的作用?,F階段對于人類最大的挑戰(zhàn)在于:如何定義人工智能設備的地位,并保障其安全性、有利性、保密性、公平性等問題。針對文中所提及的現存以及潛在的倫理困境,提出一些人工智能運用的原則:

1)以“不傷害”原則作為一切人工智能應用的底線,尋求人工智能合理使用的平衡點。人工智能設備設計的初衷是“以人類為中心”,更好地服務于人類社會,無論是在身體健康層面上,還是在精神心理層面上,如若人工智能對人類造成了傷害,則此類設備應該重新進行風險評估并且嚴格監(jiān)管。

2)明確人工智能的工具屬性,肯定人類的道德主體地位。人工智能無權作為一個獨立的道德體存在,更不能作為責任的承擔主體。醫(yī)學領域的人工的目的是為人類健康服務的,這是人工智能存在的價值,不可以為了經濟利益而背離這一價值。

3)保持適度的謹慎,人工智能潛在風險難以預測,對于人工智能的運用應該“取長避短”,不應該畏懼它,但也不能肆無忌憚的濫用,反對技術潮熱,倫理的研究始終應該走在技術的前端。

4)政府對于人工智能系統(tǒng)應盡監(jiān)測責任,機構應盡保護的責任。對于生物信息數據庫,政府部門應該制定一個嚴格的監(jiān)管機制,以防止醫(yī)療數據的濫用;通過制定相關政策來保障個人權利和公眾健康利益之間的平衡。

猜你喜歡
倫理道德機器人
《心之死》的趣味與倫理焦慮
頭上的星空與心中的道德律
十幾歲(2021年24期)2021-11-18 02:18:40
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
跟蹤導練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
機器人來幫你
認識機器人
機器人來啦
認識機器人
用道德驅散“新聞霧霾”
新聞前哨(2015年2期)2015-03-11 19:29:31
宿州市| 耿马| 莱芜市| 内乡县| 西贡区| 项城市| 新巴尔虎右旗| 搜索| 资阳市| 汶上县| 云南省| 扎赉特旗| 红原县| 临西县| 新昌县| 平湖市| 都昌县| 泸溪县| 阳西县| 新泰市| 包头市| 静宁县| 惠水县| 烟台市| 林甸县| 甘德县| 泰安市| 开原市| 庆阳市| 夏津县| 都匀市| 滕州市| 宝鸡市| 镇宁| 兴国县| 浪卡子县| 太谷县| 嵊泗县| 明溪县| 西乡县| 阳山县|