2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
Whack-a-mole還不夠好。
中國對特斯拉自動駕駛儀不足之處的展示(見此處)也清楚地表明,目前在事件發生后沖出軟件補丁的方法對于自動駕駛汽車來說根本不夠好。人們只需要關注波音以及由于其失速系統中的所謂錯誤而導致的問題的嚴重性,以表明自動駕駛汽車可靠性的關鍵性質。

騰訊安全實驗室的研究人員設法讓特斯拉自動駕駛儀通過在路上放置微小的可感知的貼紙來轉向迎面而來的交通。這些貼紙被自動駕駛儀視為車道標記,具有高度的置信度,導致車輛突然轉向迎面而來的車輛。
車輛的問題在于,在許多情況下,在問題發生后修補錯誤并不足以解決人的生命危險。這就是為什么汽車行業比大多數硅谷產品具有更高的安全性和可靠性標準。
這個問題也凸顯了使用深度學習模型駕駛車輛的主要問題之一。深度學習在數據集有限且穩定的情況下表現優異。這確保了模型實際上可以實際顯示在每個數據點上,并且這些數據點不會改變。然而,道路既不是這兩件事,也不意味著深度學習算法本身不太可能將車輛驅動到足夠高的安全標準。
在傳統的硅谷思維模式(whack-a-mole)中,這意味著每次打破系統時都會對系統進行修補,但是當人們開始死亡時,這種情況就不會那么好了。這符合RFM研究(見此處),該研究突出了深度學習的局限性,這可能導致第三次 AI冬季。最終結果是需要采用不同的自動駕駛方法,并且從頭開始重新考慮系統需要時間。RFM暫時堅持其2028年的自動駕駛汽車商業可用性,但它開始看起來有點不穩定。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)