Автопилот Tesla обманом заставили выехать на встречную полосу
Специалисты по кибербезопасности из лаборатории Keen Labs сумели два раза обмануть автопилот Tesla. Они смогли отклонить машину от заданного движения и вывести ее на встречную полосу.
Как говорится в исследовании, в первом случае автопилот "запутали" с помощью трех небольших наклеек, нанесенных на асфальт с правой стороны. Автомобиль определил их как продолжение разметки и отклонился влево, на встречку.
В своем отчете эксперты заявили, что если фальшивая полоса ведет на встречку, автомобиль должен ее игнорировать. Только в этом случае можно избежать ДТП.
Во втором случае экспериментаторы продемонстрировали, что систему автопилота на Tesla Model S можно взломать. И управлять рулем с помощью беспроводного джойстика, даже если водитель не активировал автопилот.
В Tesla посчитали, что эксперимент с наклейками на асфальте не свидетельствует о серьезной проблеме: "Водитель может в любое время отключить автопилот и взять управление на себя. Он должен быть готов к этому в любое время".
Что же касается взлома и управления с помощью джойстика, то, по словам автопроизводителей, уязвимость, которая позволила это сделать, уже была исправлена с помощью обновления в прошлом году.
"Мы не знаем ни одного клиента, который столкнулся бы с проблемами, указанными в отчете", - заявили в Tesla.
Мы уже писали о случаях, когда поездки в Tesla заканчивались трагично. В Майами загоревшийся во время ДТП автомобиль убил водителя, заперев все двери. Еще одна серьезная авария произошла в штате Флорида. А недавно американец проверил автопилот Tesla, сымитировав наезд на жену.