文/蔡欣(上海大學)
20世紀70年代起,人們就一度對涉人工智能的研究充滿熱情,但隨著人工智能本身未能真正“進入尋常百姓家”,這種熱情被漫長的挫敗感沖淡。而如今人工智能技術熱潮的再度興起,激勵政策的陸續(xù)頒布,科技水平的不斷進步等使得人們再次燃起了對人工智能的熱情。然而,事物的發(fā)展總是呈波浪式前進,隨著各種人工智能產品如雨后春筍般面世并宣布量產,其致人傷亡的情形也接踵而來。一時間人們對于人工智能又產生極大的憂慮,有人表示人工智能可能導致就業(yè)難題,有人擔憂人工智能會否失控,也有人大聲疾呼人工智能將取代人類,必須停止與人工智能有關的一切事物普及……
為了保障市場經濟秩序穩(wěn)定,為了不阻礙人工智能健康發(fā)展,就必須對人工智能的性質進行明確的界定。人工智能到底能否具有獨立人格,進而能獨立承擔責任?如若不能,又將如何應對?如要追究自然人責任,對市場經濟主體提出了何種程度的要求?這都是在人工智能時代不可回避的問題。
得益于國家《新一代人工智能發(fā)展規(guī)劃》的政策信號,加之對人工智能產品暫無統(tǒng)一的國家標準或行業(yè)標準,在發(fā)展人工智能的伊始,形勢一片大好。然而,物極必反,人工智能造成損害結果的一系列案例浮出水面,令人不禁唏噓人工智能也并不像想象般十全十美,并非不會出現任何紕漏。
小到備受爭議的ATM機、無人機,大到自動駕駛汽車,在人工智能商業(yè)化的同時,除卻自身出現輕微瑕疵,不排除出現由于人工智能自身存在缺陷或后期監(jiān)管不力甚至是使用不當而嚴重危害社會的情形。參考自動駕駛汽車,2016年5月,美國一輛自動駕駛汽車在公路上行駛時發(fā)生車禍,車主當場死亡。經調查后結合大量證據得知,事故是由于該車的自動駕駛系統(tǒng)Autopilot對相近顏色的分辨能力低下。這對于駕駛避障系統(tǒng)來說是一個巨大的缺陷,設計研發(fā)者卻沒有對缺陷產品召回以避免不必要的財產損失或人員傷亡,甚至沒有做出警示,間接導致了悲劇的發(fā)生。其后,北京陸續(xù)出現了不同損害程度的自動駕駛汽車交通事故。此類事故不勝枚舉,筆者在此不再一一贅述。
人 工 智 能(Artificial Intelligence),簡稱AI,得名意在表明其不同于人類自然智慧的人工智慧。迄今為之,科學家們也給它撰寫過不同的定義,甚至用各種思想實驗如著名的圖靈測試、中文房間理論等驗證這種人工智能存在與否。不可否認,人工智能能否獨立承擔責任對各經濟主體有至關重要的影響,直接關系到個經濟主體是否還需要對人工智能承擔全部或部分責任。
人工智能可以劃分為普通人工智能、弱人工智能及強人工智能,其劃分標準是其是否能自主學習、自主思考。基于對人工智能可能“類人”或者“超人”的擔憂,部分學者提出應當賦予強人工智能以獨立人格的觀點,并針對該問題相繼提出了:機器工具說、法人人格說、有限人格說及電子人格說。
筆者認為,上述學說均有其合理性,但是,人工智能尚不能承擔獨立人格或有限人格所對應的責任。首先,人工智能即便“類人”“超人”,但始終“非人”。人們熱衷于將人工智能的人格確立下來,其目的還是要為人工智能致害找一個“責任人”。顯然,若將責任完全或部分歸咎于人工智能,就會讓某些真正應當被問責的責任人甚至是犯罪人成為漏網之魚,進而于社會安寧、市場經濟秩序穩(wěn)定都有害而無益;其次,人工智能的獨立人格會造成倫理困境,同時其應當具有何種權利,承擔何種義務,對其追究的民事責任如何賠償損失,人工智能作為物無法擁有自己的財產;再次,當人工智能造成的損害已然需要刑法介入時,即便其具有獨立人格,能夠獨立承擔刑事責任,對其處以刑罰也難以奏效,人工智能所遭受的非難也不會起到引導作用與預防作用。
人工智能的獨立人格不僅不會解決當下所面臨的困境,反而于經濟秩序無益,于社會穩(wěn)定有害,于司法公正也將有失。因此,人工智能的獨立人格筆者堅決不予承認。
早年科幻大片渲染下給民眾帶來的“機器人終將統(tǒng)治人類”的不安,佐以著名物理學家斯蒂芬·霍金(Stephen Hawking)在BBC專訪中就曾發(fā)表“人工智能技術可能會帶來‘人類的末日’”的預言并在公開信中發(fā)出警示。即便如此,筆者想要說明的是,無論人工智能強弱,其行為的本源仍然是自然人。人工智能始終都偏向“人工性”。無論將人工智能的前景描繪得如何天花亂墜,實際上它也不具有類人的情感與動機,不具有人的辨控能力,不具有是非觀,其為或不為某一行為的唯一依據就是事先設定的程序,并且通常受范圍限制。簡單來說,醫(yī)療用途的機器人無論如何也不會駕駛汽車,并在不妨礙自身駕駛的情形下看到急需救助的行人選擇停車進行救助。誠然,筆者堅持我們仍處于并將長期處于弱人工智能時代。當前的人工智能產品均由人類創(chuàng)造并為人類所利用,屬于弱人工智能產物,即其“看起來像是智能的,但并不真正擁有智能,也不會有自主意識”。
以此為鑒,反觀當前引發(fā)對人工智能之刑法應對及立場思考的人工智能致?lián)p現象,筆者發(fā)現,所謂“人工智能”的本質乃是無形程序與有形產品的結合。既仍屬于產品范疇,但又區(qū)別于傳統(tǒng)意義上的產品。然而,無論其具有何等特殊性,它仍然是從屬于人工之下的產物,是基于人的創(chuàng)造及預先設定而產生一定行為的產品,其具有的學習能力也有賴于大數據與算法加持,由多種元素結合而成,對人有天然的依賴性,因而,與其因日日擔憂真正的強人工智能時代何時到來而形同驚弓之鳥,毋寧腳踏實地,擊破神化人工智能的臆想,接受人工智能產品的發(fā)展存在可認知的技術風險,承認人工智能的產品屬性,以期對其進行剖析并尋求相應的規(guī)制路徑。
人工智能造成損害對企業(yè)、生產者或者是消費者、使用者均存在負面影響。在其致害現象初顯之時,就應當意識到其面臨的困境,并尋求應對之路。
人工智能產品由于程序系統(tǒng)的介入,一定程度上將改變其所依附的傳統(tǒng)產品的安全標準。2021年,由工業(yè)和信息化部提出、全國汽車標準化技術委員會歸口的GB/T 40429-2021《汽車駕駛自動化分級》推薦性國家標準經批準發(fā)布,并將于2022年3月1日起實施。該標準規(guī)定了汽車駕駛自動化分級遵循的原則、分級要素、各級別定義和技術要求框架,旨在解決我國汽車駕駛自動化分級的規(guī)范性問題。
針對人工智能缺陷致害的情形,從源頭上來說存在著因人工智能作為新興產業(yè)的紅利,因產品較新而缺失嚴格準入機制,導致其質量良莠不齊,也無從區(qū)分其是否符合應有的安全標準。因此,提高人工智能準入門檻,要求從事人工智能研發(fā)、生產工作的企業(yè)具有相應的硬件基礎,相關人員具有相應的專業(yè)知識及技能至關重要,部分特殊領域的產品如醫(yī)療行業(yè)的人工智能產品的使用者甚至也應當經過相應的操作培訓。如是,在保護企業(yè)商譽、市場秩序、公民人身權利甚至是公共安全的同時,也有利于嚴控工業(yè)機器人高端產業(yè)低端化和低端產品產能過剩。
既然明確了人工智能的產品屬性,那么自然要鎖定人工智能背后的自然人,并明晰何種人應當對人工智能產品造成的損害結果承擔責任。目前,學界對人工智能產品的研發(fā)者作為除生產者、銷售者及過失使用者這類傳統(tǒng)責任主體外的重要責任主體已達成一致。
相較于傳統(tǒng)生產者,人工智能產品的真正家長實際上是以傳統(tǒng)產品作為載體的人工智能系統(tǒng)的制造者。研發(fā)者由于具有高于生產者的專業(yè)知識,對人工智能系統(tǒng)的各個細節(jié)、程序用途及運轉處于主要控制地位,因此也應承擔確保產品符合國家標準、行業(yè)安全標準的產品質量責任和產品安全責任;同時,在人工智能進入流通使用環(huán)節(jié)后仍負有監(jiān)管責任。以自動駕駛汽車為例,作為自動駕駛汽車的實際操縱人員,系統(tǒng)研發(fā)者理應負有確保其研發(fā)的自動駕駛汽車“能夠嚴格遵循相關交通管理法規(guī)”的責任,同樣對于自動駕駛汽車能否對周圍緊急情況及時感知并做出相應判斷的情形。生產者仍然要遵守其確保產品符合研發(fā)者要求,保證有形載體的質量能阻隔相關因素干擾系統(tǒng)運轉,同時也應符合國家標準、行業(yè)標準等相關安全標準。另外,銷售者作為與消費者/使用者最為密切的接觸者,負有如實陳述產品性能、用途的義務,不可作夸大的虛假宣傳,例如:將明知僅具有輔助駕駛功能的自動駕駛汽車以“可實現無人駕駛”“解放雙手”的方式進行宣傳,進而使使用者產生信賴,以至于緊急情況發(fā)生時未能及時進行處理,導致使用者重傷或死亡的嚴重后果。在人工智能產品的范疇下,使用者的注意義務理應相對降低,但不意味著必然免除。當使用者存在不當使用的情形致人損害甚至是惡意利用人工智能產品造成他人損害時,其對損害結果仍然需要承擔相應責任,在惡意利用的情形下如若同時具有刑事違法性、應受刑罰處罰性及社會危害性,則使用者也有可能遭受到刑法的非難。
私法如民法、商法等通常調整的是平等主體間的社會關系,在人工智能造成普通損害如輕微傷或小額財產損失時,通過私法主張民事賠償責任并無不妥。但是,當人工智能造成的損害結果不能僅以民事責任進行包容,公法如刑法就應當介入。又如日本知名法學研究者西原春夫曾作出的關于刑法中如何將行為的社會危害性演變?yōu)樾淌铝⒎ǖ倪壿嬐蒲?,對于社會危害性不大的行為,人們也不會產生恐懼心理,尋求公權力保護的欲望相對就較弱一些。刑法作為保障法,當人工智能產品嚴重侵害刑法所保護的客體,具有相當的社會危害性時,刑法的介入不僅符合公法價值,同樣也是實現社會價值的必然要求。同時,刑法也可以通過行政前置化的方式將判斷標準歸于靜態(tài)行政規(guī)范。通過刑法的威懾功能,以期達到預防犯罪的效果,同時也對社會公眾、各類經濟主體的行為提出指引:在乘時代之風扶搖而上的同時,在心中設起紅線,知曉可為與不可為,勿以惡小而為之;明晰自身義務,如實告知,正確警示;履行監(jiān)管責任,不因成本效益問題導致應為而不為的不作為情形。
我們正在經歷第四次科技革命,在人工智能時代不可避免到來之時,對于其造成的損害既不能視而不見,也不能“一刀切”地直接對新興事物全盤否定。人工智能仍具有產品性質,其雖前途光明,但對其妥善規(guī)制也道阻且長。不可諱言,人工智能產品只有得以有效的規(guī)制,才能更為從容地應用到各個領域,使各責任主體各司其職,擴大受眾范圍,為科技、經濟發(fā)展奠定基礎。