回答兩個自動駕駛問題:5級分級真的合理嗎,為什麼要關注倫理?

ADVERTISEMENT

編者按:本文來自微信公眾號“車雲”(ID:cheyunwang), 作者李雷、韓梅梅;36氪經授權釋出。

如果科技是朵花,人的需求就是土壤。脫離了土壤,花就會枯萎凋落。技術黨容易犯一個錯誤:他們想用自動駕駛解放人類駕駛員,卻忘了車最終還是要為人類服務的。

自動駕駛讓汽車行業開始認真思考“人”與“車”的關係。今天我們就來回答兩個與“人”相關的問題:我們現在一直用的自動駕駛NHTSA4級和SAE5級分級,真的符合人類思維結構嗎?比如“電車難題”等倫理哲學問題,放在技術成熟之前來談真的為時過早嗎?

以下內容保證不是老生常談。

我們為什麼要對自動駕駛分級?

換個角度談自動駕駛分級

無論是NHTSA還是SAE,都是從車輛工程學角度出發,去定義自動駕駛並對它分級的。因此在結合人工智慧的時候,就會存在分級不準確、界限模糊的情況。

比如SAE的會議上都在討論,需不需要L3級(有條件自動化)自動駕駛?L3級自動駕駛允許駕駛員雙眼和手腳脫離,放棄車輛控製,當系統報警時再介入操控汽車。但實際情況是,人在雙眼離開的情況下,意識也是離開的,從報警到接入耗時會非常長。Waymo未拆分前請內部員工測試,相關人員從報警到接管,需要12秒到28分鐘,福特甚至出現過測試工程師睡著的情況。

人類越是信任自動駕駛系統,就越是注意力不集中。這就促使L3級自動駕駛整個系統的開發必須做好足夠的安全性,結果就成為了L4級。因此,L3和L4在整個系統架構、底層系統冗餘設計以及魯棒性上要求一致,這就造成了分類不準確和界限模糊的情況。

我們會發現,從風險控製和技術區隔上來看,L3無論是對工程師還是對駕駛員而言,都是個尷尬的存在。

討論需不需要L3級自動駕駛只是個引子,本質上我們在談換一種角度理解自動駕駛分級。自動駕駛不光誕生於汽車工業,同時也是人工智慧的產物。從人工智慧角度來回答這個問題,將更加符合實際情況,因為人工智慧是從人類自身的思維結構去理解機器的。

ADVERTISEMENT

人類本身的思維結構可分為本能和智慧兩個部分。本能是本身固有的能力,如膝跳反射,被開水燙了要縮手,餓了要找吃的,遇到危險迅速躲開;智慧是對事物的智慧理解、分析和判斷,這個需要有學習和認知的過程。

這個分類也可以套用到自動駕駛分級上。本能範疇的自動駕駛負責最基本的安全功能,包括自動巡航、自動緊急剎車、車道自動保持、限制跟車距離等。智慧範疇需要考慮交通安全法(霧天限速,不能闖紅燈等等)和安全駕駛技能(左轉轉大彎、右轉轉小彎更安全,併線時小角度切入車道更安全)。一句話來概括,本能負責不撞車,智慧負責將車開的更好。

這種分類有一個好處,就是能讓我們看清主機廠和人工智慧公司之間的邊界,更加有利於雙方的社會化分工和整合。從最初的積累來看,傳統汽車企業在本能部分更有優勢,人工智慧公司更擅長智慧的範疇。當然不排除雙方越過界限拓展業務的情況,產業鏈上不同公司的分工,都還在嘗試和摸索階段。

在這個分類基礎上,自動駕駛汽車在設計時要牢記一個原則:自動駕駛整個系統的優先順序裡,本能必須最高,絕對不能用智慧的相關技術手段去覆蓋本能的功能和場景。如果翻譯一下,就是絕不能用深度學習做AEB。道理也很簡單——關鍵時刻只有本能才能救你一命。因為智慧解決的開好車問題,主要運用的人工智慧技術會存在黑箱問題,而且構建的是一個複雜系統,魯棒性要差一些,bug也多一些。而本能的程式碼更多會寫到MCU中,決策更直接,所以相對安全穩定。

因此我們可以發現,從人的思維結構出發,不是從車輛工程的角度出發的自動駕駛分級,更加樸素,不僅適用於汽車行業,也適用於網際網路等新興加入領域的企業。理解這項新技術的受眾將是整個社會大眾。

現在談倫理問題還太早嗎?

自動駕駛汽車是社會化管理的產品,必須跳出技術和產品本身,考慮到相關倫理道德和立法的問題,削弱其帶來的風險和負面影響。而且自動駕駛的倫理問題中,有不少是和技術有關,並且要擺在技術之前思考的。我們要從以下五個方面做好準備:

ADVERTISEMENT

1、必須充分考慮全社會的利益

自動駕駛汽車最終目標是提供智慧出行服務的商業模式,顛覆傳統的汽車製造和銷售體系,顛覆傳統的出行和租賃市場。變革期間會產生相關人員收入降低甚至是轉業和失業問題,典型的就是自動駕駛汽車帶來的人力成本減少。不能光關注技術和市場的發展,應該重點分析對就業結構、社會政治產生的變化。既應該保護社會價值促進創新,也要加強監管降低對社會產生的不利影響。而且相關產品設計和應用的同時,也必須要充分考慮弱勢群體(老人、兒童、殘疾人)的需求。

2、明確問責機製

業內經常討論的“電車難題”,AI演算法是無法解決的,而是要交給使用者抉擇,在使用自動駕駛汽車之前做完電車難題的選擇

自動駕駛汽車是個非常複雜的系統工程,應該明確系統開發商,製造商,使用者之間的權利和義務。業內經常討論的“電車難題”涉及倫理道德的問題,目前AI的演算法根本無法處理此類問題(如果哪天AI能主觀處理電車難題,人類就得考慮給它人權了)。

這種選擇目前也只能交給每個使用者,在使用自動駕駛汽車之前做完電車難題的選擇:兩個騎摩託車的人一個戴頭盔一個不戴頭盔,一個老人一個兒童,逼不得已時撞向哪個?選擇自己撞牆拯救他人,還是保護自己?車輛碰撞躲避時選擇撞擊駕駛員位置的你自己還是副駕上的乘客?如果這其中有個人是你的親人呢,又將如何選擇?自動駕駛汽車車系統開發和製造商,在產品有缺陷產生人員傷亡的情況下除了保險賠付是否應該承擔連帶的責任?

以上問題除了要遵循現有的法規標準外,還得另外建立新的法規標準,明確責任機製。相關係統開發商,製造商,使用者應當建立“黑匣子”,記錄相關資料。

3、提高透明性和完善獨立監督

神經系統網路可以自行完成物體分類,但我們並不能直接把神經網路拆分後理解決策過程。如果系統出現故障,也就很難解釋出現了什麼問題,因此說深度神經網路存在“黑箱“問題

目前,自動駕駛技術廣泛應用的深度學習技術,其自身是個“黑箱子”,演算法過程中的不透明和不可解釋性會導致相關使用者的疑慮。深度學習本身的應用是通過大量的資料處理和訓練出來的,更加複雜的是怎麼能證明其是足夠的安全。尤其是交通場景中的各種變化,未被訓練過的場景工況是否能正確處理。

為了打消疑慮,提高社會信任度,自動駕駛本能階段需要應用能被數學公式證明的並經過大量測試驗證的演算法。當本能已經足夠安全的前提下,智慧階段再應用深度學習是比較可行的方法。

國內自動駕駛產業鏈缺乏獨立完善的監督機構。國土幅員遼闊經緯度跨度大,各地自然環境,道路基礎設施也千差萬別,這就導致了很難去統一。

各地的智慧網聯示範區去實施監督成為現實可行的選擇。未來智慧網聯示範區除了提供測試服務外還要提供測試驗證的考核機製,不給現階段L1,L2自動駕駛測試還有ISO等相關標準可以參考,L3到L5級自動駕駛如何去測試和評估根本就無標準可循。

4、隱私和資料管理

自動駕駛汽車的應用會產生大量隱私性的資料,使用者畫像、家庭工作地址、出行規律等。對掌握大量資料的公司而言,相關資料的應用應充要分考慮使用者自身的利益、控製和知情權。應多利用相關次級抽樣,噪聲注入的技術手段使個人資訊模糊化。

自動駕駛的整個開發和設計過程中,十分重視資料或演算法,就很容易因為包容性不足產生歧視性問題。我們尤其要防範服務提供方利用自身的資料的優勢差別化對待消費者,過度動態調價(例如網約車的高峰調價),甚至人為製造供需矛盾提高服務價格的行為。

5、相關公司和從業者的倫理道德素養

自動駕駛對從業者的職業道德提出了非常高的要求

目前全世界範圍內對自動駕駛的研究大量都是技術和產業結構方面,極其缺乏社會倫理和法律方面的研究。由於人性的不完美也會導致產品的缺陷和違背倫理的可能性,我們不能將人性的惡帶入到影響到未來社會發展和結構的產品中。

尤其要防範相關公司和從業者在自動駕駛汽車的設計和開發中過度考慮商業利益,不聽取利益相關方表達的訴求和建議的情況,面對產品可靠性和商業利益的選擇時,需要提高從業者主人翁意識和責任心,尊重倫理和價值觀。

車雲小結

一個新型事物的發展首先是認知和倫理的問題。問題的答案是企業的實操手冊,並且會最終影響產品和整個行業乃至社會形態。一個面向大眾的觀點,才能提高全社會對自動駕駛汽車的信任度,讓更多行業參與進來發生改變,這時候自動駕駛汽車才有了真正落地的前提條件。


» 36氪

ADVERTISEMENT
ADVERTISEMENT