03.04.2019 12:14
Поделиться

Автопилот Tesla обманом заставили выехать на встречную полосу

Специалисты по кибербезопасности из лаборатории Keen Labs сумели два раза обмануть автопилот Tesla. Они смогли отклонить машину от заданного движения и вывести ее на встречную полосу.

Как говорится в исследовании, в первом случае автопилот "запутали" с помощью трех небольших наклеек, нанесенных на асфальт с правой стороны. Автомобиль определил их как продолжение разметки и отклонился влево, на встречку.

В своем отчете эксперты заявили, что если фальшивая полоса ведет на встречку, автомобиль должен ее игнорировать. Только в этом случае можно избежать ДТП.

Во втором случае экспериментаторы продемонстрировали, что систему автопилота на Tesla Model S можно взломать. И управлять рулем с помощью беспроводного джойстика, даже если водитель не активировал автопилот.

В Tesla посчитали, что эксперимент с наклейками на асфальте не свидетельствует о серьезной проблеме: "Водитель может в любое время отключить автопилот и взять управление на себя. Он должен быть готов к этому в любое время".

Что же касается взлома и управления с помощью джойстика, то, по словам автопроизводителей, уязвимость, которая позволила это сделать, уже была исправлена с помощью обновления в прошлом году.

"Мы не знаем ни одного клиента, который столкнулся бы с проблемами, указанными в отчете", - заявили в Tesla.

Мы уже писали о случаях, когда поездки в Tesla заканчивались трагично. В Майами загоревшийся во время ДТП автомобиль убил водителя, заперев все двери. Еще одна серьезная авария произошла в штате Флорида. А недавно американец проверил автопилот Tesla, сымитировав наезд на жену.