Acura
Alfa Romeo
Aston Martin
Audi
Bentley
BMW
Brabus
Bugatti
Buick
Cadillac
Chery
Chevrolet
Chrysler
Citroen
Dacia
Daewoo
Daihatsu
Datsun
Dodge
Ferrari
Fiat
Ford
Geely
Great Wall
Haval
Honda
Hummer
Hyundai
Infiniti
Jaguar
Jeep
Kia
Lamborghini
Land Rover
Lexus
Lincoln
Maserati
Maybach
Mazda
Mercedes-Benz
MINI
Mitsubishi
Nissan
Opel
Peugeot
Porsche
Renault
Rolls-Royce
Saab
SEAT
Skoda
Smart
SsangYong
Subaru
Suzuki
Tesla
Toyota
Volkswagen
Volvo
ВАЗ (Lada)
ЗАЗ
ЗИЛ
КамАЗ
ЛуАЗ
Москвич
УАЗ
В автомобильной промышленности стремительно развиваются системы помощи водителю (ADAS). Возможно, со временем они станут очень надежными, но сегодня неуязвимость ADAS вовсе не очевидна. Китайские исследователи из Tencent Keen Security Lab, ведущей в мире компании по изучению проблем безопасности, постоянно проводят эксперименты в этой области.
Недавно исследователи выяснили, что обмануть автопилот Теслы не просто, а очень просто. И результаты этого теста вызывают беспокойство.
Манипуляции осуществили с разметкой полос, намеренно запутав автопилот, чтобы увидеть его реакцию. Как известно, помимо прочего автономные транспортные средства используют для ориентации дорожную разметку. Если она четкая и правильная, все в порядке, проблем нет. Но стоит только появиться затертостям или ошибкам в ее нанесении — умышленным или неумышленным, это может стать опасной проблемой.
По словам исследователей, чтобы перенаправить автопилот на полосу встречного движения, потребовались лишь крохотные наклейки, это были даже не привычные белые полоски разметки. Они полностью дизориентировали автопилот и заставили автомобиль буквально метаться по дороге. Результаты испытаний были задокументированы на веб-сайте Tencent Keen Security Lab и в видео.
Тестируемое транспортное средство следовало за этими манками и двигалось по направлению к встречной полосе движения — чрезвычайно опасный сценарий для пассажиров. А ведь это лишь один из выявленных способов возможных манипуляций с беспилотниками. Кто знает, на что вообще способен изворотливый ум злоумышленников!