'特斯拉又出事故了?!自動駕駛到底靠不靠譜?'

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

自動化公路系統測試,20世紀50年代(來源: 美國無線電公司,大衛·沙諾夫圖書館David Sarn

對於汽車和「電子化高速公路」的發展,20世紀五六十年代都是一個黃金時代。美國無線電公司(Radio Corporation of America, RCA)與通用汽車的工程師團隊經過幾年的研究,兩組團隊拼湊出來一個他們稱之為「電子化高速公路」的創意解決方案(儘管以今天的標準而言,還是略顯粗糙)。他們結合了無線電技術、電子電路以及基於歷史悠久的電磁學理論而創建的邏輯門電路。1958年,他們完成了「電子化高速公路」的一次最全面的展示,在內布拉斯加州林肯市郊區一條400英尺長、專門改造過的高速公路上,裝有俏麗垂直尾翼和雙攝前大燈的兩輛1958年款雪佛蘭參與了測試。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

自動化公路系統測試,20世紀50年代(來源: 美國無線電公司,大衛·沙諾夫圖書館David Sarn

對於汽車和「電子化高速公路」的發展,20世紀五六十年代都是一個黃金時代。美國無線電公司(Radio Corporation of America, RCA)與通用汽車的工程師團隊經過幾年的研究,兩組團隊拼湊出來一個他們稱之為「電子化高速公路」的創意解決方案(儘管以今天的標準而言,還是略顯粗糙)。他們結合了無線電技術、電子電路以及基於歷史悠久的電磁學理論而創建的邏輯門電路。1958年,他們完成了「電子化高速公路」的一次最全面的展示,在內布拉斯加州林肯市郊區一條400英尺長、專門改造過的高速公路上,裝有俏麗垂直尾翼和雙攝前大燈的兩輛1958年款雪佛蘭參與了測試。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

以渦輪動力驅動的通用公司火鳥概念車駛入一條自動導航車道,來自1956的通用汽車展覽會(來源:通用汽

「自動化高速公路」的美夢最終破滅的主要原因之一就是成本。安裝必備的電纜和路邊控制系統是一項耗資巨大卻又見效緩慢的工程,裝配一條短小的測試跑道所需的成本還算合理,但是對於美國或歐洲那些橫跨各州的浩大公路網系統而言,方案就顯得不切實際了。即使在20世紀60年代,政府劃撥了大量的公路建設預算,但考慮到埋設線纜、晶體管以及其他電子設備組成的這一套脆弱的基礎設施,想要裝配並維護數萬英里州際公路的成本也太過高昂了。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

自動化公路系統測試,20世紀50年代(來源: 美國無線電公司,大衛·沙諾夫圖書館David Sarn

對於汽車和「電子化高速公路」的發展,20世紀五六十年代都是一個黃金時代。美國無線電公司(Radio Corporation of America, RCA)與通用汽車的工程師團隊經過幾年的研究,兩組團隊拼湊出來一個他們稱之為「電子化高速公路」的創意解決方案(儘管以今天的標準而言,還是略顯粗糙)。他們結合了無線電技術、電子電路以及基於歷史悠久的電磁學理論而創建的邏輯門電路。1958年,他們完成了「電子化高速公路」的一次最全面的展示,在內布拉斯加州林肯市郊區一條400英尺長、專門改造過的高速公路上,裝有俏麗垂直尾翼和雙攝前大燈的兩輛1958年款雪佛蘭參與了測試。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

以渦輪動力驅動的通用公司火鳥概念車駛入一條自動導航車道,來自1956的通用汽車展覽會(來源:通用汽

「自動化高速公路」的美夢最終破滅的主要原因之一就是成本。安裝必備的電纜和路邊控制系統是一項耗資巨大卻又見效緩慢的工程,裝配一條短小的測試跑道所需的成本還算合理,但是對於美國或歐洲那些橫跨各州的浩大公路網系統而言,方案就顯得不切實際了。即使在20世紀60年代,政府劃撥了大量的公路建設預算,但考慮到埋設線纜、晶體管以及其他電子設備組成的這一套脆弱的基礎設施,想要裝配並維護數萬英里州際公路的成本也太過高昂了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

「智能路網」的進階道路一直走得不順暢

此外,還有一個尚未解決的難題就是安全問題。在過去幾十年中,美國聯邦交通運輸機構籌資成立的大部分研究所都致力於發展車對車通信系統(vehicle-to-vehicle,V2V)與車與基礎設施(vehicle-to-infrastructure,V2I)。從廣義上來說,車對外界的信息交換(vehicle-to-everything,V2X)越來越趨向V2V與V2I計劃。最後,像所有的點到點(peer to peer,P2P)無線網絡一樣,V2X系統對防禦黑客入侵、系統干擾和詐騙等風險能力極其微弱。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

自動化公路系統測試,20世紀50年代(來源: 美國無線電公司,大衛·沙諾夫圖書館David Sarn

對於汽車和「電子化高速公路」的發展,20世紀五六十年代都是一個黃金時代。美國無線電公司(Radio Corporation of America, RCA)與通用汽車的工程師團隊經過幾年的研究,兩組團隊拼湊出來一個他們稱之為「電子化高速公路」的創意解決方案(儘管以今天的標準而言,還是略顯粗糙)。他們結合了無線電技術、電子電路以及基於歷史悠久的電磁學理論而創建的邏輯門電路。1958年,他們完成了「電子化高速公路」的一次最全面的展示,在內布拉斯加州林肯市郊區一條400英尺長、專門改造過的高速公路上,裝有俏麗垂直尾翼和雙攝前大燈的兩輛1958年款雪佛蘭參與了測試。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

以渦輪動力驅動的通用公司火鳥概念車駛入一條自動導航車道,來自1956的通用汽車展覽會(來源:通用汽

「自動化高速公路」的美夢最終破滅的主要原因之一就是成本。安裝必備的電纜和路邊控制系統是一項耗資巨大卻又見效緩慢的工程,裝配一條短小的測試跑道所需的成本還算合理,但是對於美國或歐洲那些橫跨各州的浩大公路網系統而言,方案就顯得不切實際了。即使在20世紀60年代,政府劃撥了大量的公路建設預算,但考慮到埋設線纜、晶體管以及其他電子設備組成的這一套脆弱的基礎設施,想要裝配並維護數萬英里州際公路的成本也太過高昂了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

「智能路網」的進階道路一直走得不順暢

此外,還有一個尚未解決的難題就是安全問題。在過去幾十年中,美國聯邦交通運輸機構籌資成立的大部分研究所都致力於發展車對車通信系統(vehicle-to-vehicle,V2V)與車與基礎設施(vehicle-to-infrastructure,V2I)。從廣義上來說,車對外界的信息交換(vehicle-to-everything,V2X)越來越趨向V2V與V2I計劃。最後,像所有的點到點(peer to peer,P2P)無線網絡一樣,V2X系統對防禦黑客入侵、系統干擾和詐騙等風險能力極其微弱。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

電影《我是誰:沒有絕對安全的系統》探討了一個很嚴肅的問題(圖片源自網絡)

軟件行業再三汲取的深刻教訓是,任何分散型通信機制都無力抵禦黑客入侵和破壞的風險。任何製造系統都存在漏洞和不到位之處。無論有多少專家學者、工程師團隊參與設計,研製出的交互系統多麼萬無一失,總會防不勝防。V2X基礎設施一天內需要順利完成上百萬輛個人轎車之間的上千次交互,而黑客入侵系統只需要一次得手便能大肆破壞。

"

今年6月網友爆料了一段Model S無人駕駛『自殺』的視頻,這剛過去兩個月,又出現了一起撞車後燃燒的事故:近日美國一家汽車新聞網站報道,在莫斯科的道路上,一輛特斯拉Model S撞上了一輛拖車,之後這輛車發生了起火和爆炸。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

8月11日Model S 撞車後起火

而根據事故檢測報告,事故發生時,這輛特斯拉Model S正處於「半自動駕駛」的模式,可能由於沒有成功探測到前方的車輛,導致車輛撞上了拖車。而之後不久,這輛Model S立刻起火,並且發生了爆炸。事故發生時,除了司機本人之外,他的兩個孩子也在車上。這起事故導致三人嚴重受傷,尚無生命危險。

「自動駕駛」真的只能『背鍋』?

相信面對這樣的新聞,大部分的觀點會一邊倒的偏向『看吧,「自動駕駛」就是個概念』。包括我也認為目前談「自動駕駛」也算『為時過早』,不過轉念一想,這就好像『汽車和飛機』的關係:大家覺得坐汽車安全呢?還是坐飛機安全?從事故數據來看,坐飛機的安全性大大高於汽車。而大家都知道飛機的操作大部分是依靠「自動駕駛」來完成。於是,你就會發現,這其實就是一個『鍋』誰背的問題。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

Model 3連撞11根隔離樁桶

當我們回顧多起特斯拉由於「自動駕駛」而撞車的事故,不得不否認『人為因素』無處不在。比如2018年7月發生的『Model 3連撞11根隔離樁桶』,當風波停息,事故調查結果躍然而出:司機在駕駛過程中睡著了……

面對這種現象,我們應該認識到,目前對於「自動駕駛」有太多與『責任』和『法律』相關的概念還沒有被拆分清晰,而且這也不是一個公司或一國政府的就能蓋棺定論,還要更深地討論『人性』。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

推薦一本不錯的《無人駕駛》讀物(圖片源自網絡)

在《無人駕駛:人工智能將從顛覆駕駛開始,全面重構人類生活》一書中曾經以谷歌在2012年的一次「自動駕駛」實驗為例,得到如下結果:

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

谷歌在自動駕駛方面做了很多努力(圖片源自網絡)

[…]12名參加者的年齡在25~34歲之間,均是從密歇根州底特律市的普通市民中招募的,並提供80美元的參加補貼。研究者要求駕駛員假裝要做長途旅行,並且對他們帶手機進行測試駕駛也不加阻攔,還為其提供觸手可及的讀物、食物飲料以及娛樂媒體

[…]開啟車道保持輔助系統時,多達58%的駕駛員會在開車時看DVD。還有25%的駕駛員會利用空當找些東西閱讀,這些行為將車禍的風險提升了3.4倍。同時,駕駛員的視覺注意力也會下降。當車道保持輔助系統接手方向盤時,駕駛員的注意力就會完全遊離。 總體來看,在三小時的行程中,駕駛員的注意力有33%的時間沒有集中在道路上。更為危險的是,駕駛員經常會做出長達兩秒以上的『目光遠眺』,這種可能帶來致命危險的行為在整個研究過程中發生了3325次。還算慶幸的是這些危險性的目光遠眺總共佔用的時間只有8%。

不過當我們拋開這些『法理』和『人性』的因素,又該如何去評論「自動駕駛」是否靠譜呢?

是實現「自動駕駛」的方法錯了?

目前,我們看到無論是特斯拉,還是國內的特斯拉模仿者,採用的都是一種『讓汽車智能起來』的方法來實現「自動駕駛」即『車聯網』(『物聯網』)。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉的Autopilot(動圖)

目前主流的「自動駕駛」技術背後有多個細分功能,例如ACC自適應巡航、AEB自動緊急制動、LKA車道保持輔助等,不同的功能有不同的工作條件,像是AEB跟ACC或者ICA(智能巡航)系統的功效是有重疊的,不能同時工作。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉2代Autopilot硬件對比(圖片源自網絡)

比如Model 3傳感器有三種,車頭一個前置77G毫米波雷達,一個3目攝像頭,以及遍佈四周的十幾個超聲波雷達。從硬件上,「自動駕駛」應該已經沒問題了,為什麼也看不到這些障礙呢?

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

特斯拉Autopilot2.0低速駕駛實拍(源自車雲網)

現階段靠各類攝像頭的「視覺技術」來識別物體,而在後臺邏輯上主流做法是運用「深度學習」的算法,即大量的給「神經網絡」系統『喂』大量的數據,讓計算機學會識別某一物體,並在此基礎上推測與物體的距離。

對於特斯拉來說,其主要依靠視覺來做「自動駕駛」技術,因此其最重要的是先識別車輛、路燈、路牌、行人等這些物體,對於非關鍵物體,其很難有精力去訓練模型來做識別。

說白了,導致不能識別物體發生事故原因大致如下:

1. 數據『喂』得還不夠,一下沒認出來;

2. 識別物體還不精準,一下沒看到。

當你看到這裡,是否愈發感到「自動駕駛」的道路可謂是『路漫漫其修遠兮,數據還靠人命喂』。其實除了這種『點測點,點對點,智能化』方法,我們還有一種更為高端的方法。

一直被人『嫌棄』的第二種方法

那就是『讓道路智能起來』即『智能路網』。然而這個概念也並非什麼新概念,不過在幾十年的發展過程中卻處處被人唾棄。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

智能路網的一些基本功能(源自依圖網)

所謂的「智能路網」 (或「智能公路」、「自動化公路系統」、「電子化高速公路」、「智能交通系統」等),是通過交通資訊信息的收集和傳遞,實現對車流在時間和空間上的引導、分流。旨在避免公路堵塞,加強公路用戶的安全,以減少交通事故的發生。並改善了高速公路交通運輸環境,使車輛和司乘人員在高速公路上安全、快速、暢通、舒適地運行。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

未來世界:公路與地平線(Futurama: Highways & Horizons),1939年

早在1939年,通用汽車公司的市場部人士就設想出了第一代「無人駕駛」汽車,並在世界博覽會上公之於眾。但有趣的是,通用汽車的「未來世界」並非由工程師構思設計,而是由舞美設計師出身、工業設計界的傳奇人物諾爾曼·貝爾·蓋迪斯(Norman Bel Geddes)設計出來的,對於最後悲慘的結局也就不足為怪了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

自動化公路系統測試,20世紀50年代(來源: 美國無線電公司,大衛·沙諾夫圖書館David Sarn

對於汽車和「電子化高速公路」的發展,20世紀五六十年代都是一個黃金時代。美國無線電公司(Radio Corporation of America, RCA)與通用汽車的工程師團隊經過幾年的研究,兩組團隊拼湊出來一個他們稱之為「電子化高速公路」的創意解決方案(儘管以今天的標準而言,還是略顯粗糙)。他們結合了無線電技術、電子電路以及基於歷史悠久的電磁學理論而創建的邏輯門電路。1958年,他們完成了「電子化高速公路」的一次最全面的展示,在內布拉斯加州林肯市郊區一條400英尺長、專門改造過的高速公路上,裝有俏麗垂直尾翼和雙攝前大燈的兩輛1958年款雪佛蘭參與了測試。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

以渦輪動力驅動的通用公司火鳥概念車駛入一條自動導航車道,來自1956的通用汽車展覽會(來源:通用汽

「自動化高速公路」的美夢最終破滅的主要原因之一就是成本。安裝必備的電纜和路邊控制系統是一項耗資巨大卻又見效緩慢的工程,裝配一條短小的測試跑道所需的成本還算合理,但是對於美國或歐洲那些橫跨各州的浩大公路網系統而言,方案就顯得不切實際了。即使在20世紀60年代,政府劃撥了大量的公路建設預算,但考慮到埋設線纜、晶體管以及其他電子設備組成的這一套脆弱的基礎設施,想要裝配並維護數萬英里州際公路的成本也太過高昂了。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

「智能路網」的進階道路一直走得不順暢

此外,還有一個尚未解決的難題就是安全問題。在過去幾十年中,美國聯邦交通運輸機構籌資成立的大部分研究所都致力於發展車對車通信系統(vehicle-to-vehicle,V2V)與車與基礎設施(vehicle-to-infrastructure,V2I)。從廣義上來說,車對外界的信息交換(vehicle-to-everything,V2X)越來越趨向V2V與V2I計劃。最後,像所有的點到點(peer to peer,P2P)無線網絡一樣,V2X系統對防禦黑客入侵、系統干擾和詐騙等風險能力極其微弱。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

電影《我是誰:沒有絕對安全的系統》探討了一個很嚴肅的問題(圖片源自網絡)

軟件行業再三汲取的深刻教訓是,任何分散型通信機制都無力抵禦黑客入侵和破壞的風險。任何製造系統都存在漏洞和不到位之處。無論有多少專家學者、工程師團隊參與設計,研製出的交互系統多麼萬無一失,總會防不勝防。V2X基礎設施一天內需要順利完成上百萬輛個人轎車之間的上千次交互,而黑客入侵系統只需要一次得手便能大肆破壞。

特斯拉又出事故了?!自動駕駛到底靠不靠譜?

2017年12月山東濟南國內首段光伏高速公路南繞城高速正式通車(圖片源自網絡)

即便「智能路網」還存在著很大的隱患,但全世界各大國家都沒有停止對它的研究和實驗,比如瑞典的E4公路,日本使用ITS應用系統的智能公路,荷蘭的實驗智能高速公路等。而中國在這方面也正全面出擊:

2018年2月交通運輸部發布了《關於加快推進新一代國家交通控制網和智慧公路試點的通知》(以下簡稱「通知」),決定在北京、河北、吉林、江蘇、浙江、福建、江西、河南、廣東九省(市),加快推進新一代國家交通控制網和智慧公路試點[…]

你覺得哪個更靠譜呢?

我們從特斯拉撞車,一路瞎扯到了「智能路網」,對於實現「自動駕駛」的兩種方式,你認為哪個更靠譜一些呢?如果你的車能「自動駕駛」(即達到L3或以上等級),你會徹底放開方向盤嗎?請大膽而和諧地發表你的想法吧~~

"

相關推薦

推薦中...