Felix
特斯拉最近又成焦點(diǎn),不是因?yàn)橛钟惺裁春诳萍?,而是它的Model S出車禍了。在美國(guó)佛羅里達(dá)州的一條公路上,40歲的俄亥俄州居民Joshua D. Brown駕駛的特斯拉Model S在自動(dòng)駕駛模式下,撞上了前方轉(zhuǎn)彎的一輛大掛車。這也是全球第一例與自動(dòng)駕駛有關(guān)的致命事故。
據(jù)美國(guó)國(guó)家公路交通安全管理局(NHTSA)的數(shù)據(jù),美國(guó)每年因車輛事故致命的人數(shù)接近4萬,各種交通事故中人為犯錯(cuò)導(dǎo)致的事件比例超過90%。特斯拉的官方聲明稱,相比起全美所有交通工具每9400萬英里造成一例死亡事故,這起事故之前它的自動(dòng)駕駛功能已經(jīng)覆蓋了1.3億英里。言下之意,自動(dòng)駕駛還是比人工駕駛安全。只不過在積累更多實(shí)際數(shù)據(jù)之前,自動(dòng)駕駛的安全性更多還是依賴于系統(tǒng)模擬。公眾對(duì)這個(gè)創(chuàng)新的期待如此之大,以至于一點(diǎn)風(fēng)吹草動(dòng)都能引發(fā)關(guān)注(比如,谷歌的自動(dòng)駕駛汽車蹭上公交車),更別說碰撞致死的嚴(yán)重事故了。
同樣是推動(dòng)自動(dòng)駕駛,谷歌和特斯拉的做法其實(shí)是有差別的。特斯拉的Autopilot,嚴(yán)格來說是一種輔助駕駛系統(tǒng),它通過收集人的駕駛數(shù)據(jù),學(xué)會(huì)在一定條件下自行變道和剎車。但在整個(gè)行使過程中,駕駛員必須一直手扶方向盤,以便隨時(shí)介入。但在谷歌看來,讓駕駛員介入自動(dòng)駕駛系統(tǒng),就像是給出租車上的乘客加裝方向盤一樣不合理。谷歌要做的是全自動(dòng)駕駛,為了不給人犯錯(cuò)的機(jī)會(huì),谷歌的自動(dòng)駕駛汽車不會(huì)再有方向盤、油門和剎車。
作為監(jiān)管機(jī)構(gòu),NHTSA給自動(dòng)駕駛劃分了5個(gè)級(jí)別,從低到高分別是:非自動(dòng)(Level 0)、特定功能自動(dòng)化(Level 1)、組合功能自動(dòng)化(Level 2)、有限的自動(dòng)駕駛(Level 3)、全自動(dòng)駕駛(Level 4)。特斯拉的Autopilot算是居于Level 2和Level 3之間,行駛操控還處在從人到機(jī)器的過渡階段。在一些場(chǎng)景下,Autopilot可以代替人完成如行駛居中、自行變道、自動(dòng)加減速等操作,但特斯拉依然要求駕駛員時(shí)刻準(zhǔn)備接管,這里面既有對(duì)安全的顧慮,也有對(duì)事故責(zé)任的規(guī)避。
沒有交通事故,沒有人員傷亡,這是自動(dòng)駕駛描繪的理想出行。但技術(shù)遠(yuǎn)非我們想象的那樣完美,再精密的儀器也會(huì)生產(chǎn)出次品。自動(dòng)駕駛汽車不可避免會(huì)卷入事故當(dāng)中,如何在事故中盡可能減少傷亡,已經(jīng)不單單是技術(shù)問題了。
《科學(xué)》雜志的一篇最新研究反映了自動(dòng)駕駛正面臨的倫理兩難。舉個(gè)具體的例子,當(dāng)一輛僅有一名乘客的自動(dòng)駕駛汽車沖向10位行人,人們通常都支持車輛避開行人,撞向路邊。但當(dāng)人們被問到自己是否會(huì)乘坐按照這個(gè)程序設(shè)定的車輛時(shí),他們都拒絕了。研究人員之一,MIT的教授Iyad Rahwan認(rèn)為,這個(gè)研究表明,絕大多數(shù)人希望生活在一個(gè)車輛能最小化傷亡的世界,但每一個(gè)人又希望自己的車輛會(huì)不惜代價(jià)保護(hù)自己。