發改委等11部門構建6大體系 智能汽車還要講倫理法規
近日,發改委、工信部等11部委聯合印發《智能汽車創新發展戰略》文件,提出在5年時間構建6大體系,到2025年,中國標準智能汽車的技術創新、產業生態、基礎設施、法規標準、產品監管和網絡安全體系基本形成,有條件自動駕駛的智能汽車達到規?;a,高度自動駕駛的智能汽車在特定環境下市場化應用。
智能汽車既是人工智能與機械化的結合,也是信息文明時代人、社會和智能相互融合的一種方向,是智慧城市的一個要素。構建智能汽車的6大體系,是同時發展實現目標,還是分時間和重點一個個突破,這個問題還需進一步探索。而智能汽車能不能上路,既在于技術是否實用,也在于與之相關的社會要素是否配套,因此,盡管智能汽車的6大體系需要推進,但還需要其他方面的配套發展,例如倫理和法規。
按照科技與社會關系的架構,技術的發展在先,它是一種創造性的推動力量,因此,技術是先行者,之后,人類社會需要制定相應的規則來適應技術創新?,F在的智能汽車就是如此。一方面,需要對原有的交通規則進行修改,或者重新制定智能汽車時代的交通規則,另一方面,必須要解決智能汽車的倫理問題——對人類社會的傷害減到最小,或接近零。這是1967年由哲學家菲利普·福特提出的哲學難題,在智能汽車時代,這一問題可能會更加凸顯和尖銳。
無論智能汽車的技術如何尖端和適用,道路基礎設施如何先進,智能汽車上路也會有產生交通事故的可能性。在事故將要發生之前,AI的選擇是挽救路人還是保護汽車中的乘客,這是必須解決的問題。
2018年8月,麻省理工學院媒體實驗室的研究人員在《自然》雜志發表了一項大規模調查結果,揭示了自動駕駛汽車在全球不同國家的倫理偏好,以及這些偏好的一些區域差異。對233個國家的受訪者進行的調查表明,不同社會的倫理具有共性,保護人類的生命,而非其他動物的生命;拯救多人的生命,而非少數人;保護年輕人的生命,而非老年人。
同時,智能汽車無論是否出現事故,法律上該負什么責任,也必須在智能汽車上路前都應當制定出規則。而如今,社會配套方面并沒有制定相應的規則。2018年3月18日晚,美國Uber的一輛自動駕駛汽車撞上了49歲的婦女伊萊恩-赫茨伯格,并導致其死亡。2019年11月19日,美國國家運輸安全委員會(NTSB)宣布,車禍的主要原因要歸咎于Uber脆弱的安全文化,公司的法人代表(董事長或CEO)要負主要責任。但是,這并非是法律上的判決。而且,當時Uber自動駕駛汽車上還有一名安全員,并非完全無人駕駛。
在未來,如果完全是無人駕駛,出現事故是公司法人負責,還是智能汽車的設計者負責,抑或智能汽車的運營者、審批者負責,或者是其都有責任?種種倫理和法規,都是需要在智能汽車上路之前就應當解決的問題。因此,盡管智能汽車有必要推進6大體系,但是,技術創新與倫理法律也應當同步進行。
責任編輯:孫知兵
免責聲明:本文僅代表作者個人觀點,與太平洋財富網無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
如有問題,請聯系我們!