Исследователи из Tencent Keen Security Lab успешно активировали систему автопилота Tesla Autopilot автомобиля Tesla, получив над ней контроль, о чём было сообщено в новой публикации, которая подробно описывает детали исследования.
Группа, ранее уже демонстрировавшая свои изыскания на конференции по безопасности Black Hat USA 2018, опубликовала видео, демонстрирующее взлом. Новый доклад описывает три способа заполучить контроль над системой автопилота автомобиля путём использования нескольких уязвимостей в электронном блоке управления (англ. — electronic control unit, ECU).
Исследователи выделяют три основных достижения при взломе системы автопилота ECU версии 18.6.1. Во-первых, используя ошибку в системе распознавания образов автоматических стеклоочистителей, они активировали дворники лобового стекла. Во-вторых, разместив интерферирующие наклейки на дороге, которые обманули систему распознавания трассы, они заставили Tesla сманеврировать на полосу встречного движения. В-третьих, смогли удалённо контролировать управление автомобилем даже в том случае, если автопилот не был активирован водителем.
«Таким образом, было доказано, что чуть-чуть изменив физическую среду, мы можем в определенной степени контролировать автомобиль без удалённого к нему подключения" — заключают исследователи в докладе». Мы надеемся, что потенциальные дефекты, раскрытые серией тестов обратят на себя внимание со стороны производителей, что позволит повысить стабильность и надёжность их самодвижущихся машин».
Риски прогресса
Безусловно, исследователи заявляют, что они уведомили компанию Tesla после успешной компрометации системы автопилота и, согласно Tencent, Tesla «незамедлительно исправила» ряд ошибок.
Исследователям из Tencent Keen Security Lab удалось скомпрометировать систему автопилота совершенной системы содействия водителю автомобиля Tesla Model S. (Источник: Tesla)
Независимо от этого, исследование демонстрирует неотступную опасность, которая заключается в потенциальном использовании хакерами открытости и интеллектуальности современных автомобилей как почвы для совершения атак; впервые эта возможность была ярко продемонстрирована в 2015 hack of a Jeep Cherokee, опубликованном в Wired.
«Среднестатистический современный автомобиль содержит сотни сенсоров и множество бортовых компьютеров, каждый из которых потенциально уязвим к физической, программной и/или логической атаке» — заявил Джерри Гамблин (Jerry Gamblin), ведущий инженер компании по разведке угроз безопасности Kenna Security, в интервью Security Ledger. «Этот факт создаёт удивительную почву для осуществления атак, предотвращать которые должны производители автомобилей, а также создаёт обширное целевое поле для потенциальных злоумышленников».
С момента взлома Jeep автомобили стали ещё более сложными. Так, в автомобильной индустрии стремительно развиваются технологии ADAS наподобие Tesla Autopilot
Эти системы должны приумножать возможности водителя и обеспечивать автомобиль умными системами безопасности, такими, как системы предупреждения столкновений, в целях увеличения безопасности. В то же время, увеличенная сложность делает такие системы потенциально деструктивными при их компрометации, что подвергает сомнению безопасность использования технологий ADAS.
Привилегии равны контролю
Исследователи из Keen Security Labs заявили, что они использовали ROOT-полномочия (полученные при удалённом подключении путём эксплуатации ряда уязвимостей — прим. перев.) при осуществлении самой устрашающей части своего взлома — перехвата контроля над системой управления Tesla «бесконтактным способом», как они сами пишут. Исследователи использовали привилегии для отправки команд управления автопилоту во время движения автомобиля.
Возможность воздействия на стеклоочистители и систему контроля трассы была достигнута за счёт улучшенного алгоритма оптимизации, использованного при создании так называемых «противоборствующих элементов», которые и были поданы на вход соответствующих систем автомобиля.
И стеклоочистители, и система распознавания дороги принимают свои решения, опираясь на данные камер, как выяснили исследователи. Таким образом, их было не очень сложно обмануть, заставив «увидеть» условия, которые на самом деле не существуют.
Исследователи добились этого путём отправки изображений в нейронную сеть стеклоочистителей и модификации дорожной разметки в случае с системой распознавания дороги. В обоих экспериментах система отреагировала на то, что она «видела» вместо настоящих дорожных условий.
Модели конкурентов также находятся под пристальным наблюдением. В то время, как всё больше и больше систем полагаются на машинное обучение, так и большее количество исследователей ищут способы воздействия на их работу, подавая на вход ложные данные.
Ответ Tesla
В своём блоге Tencent Keen опубликовали ответ Tesla на взлом, который, к удивлению, носил ярко выраженный оборонительный характер. Компания отвергла компрометацию стеклоочистителей и системы распознавания дороги в связи с тем, что они «не случатся в реальной жизни» и, таким образом, не должны быть поводом для беспокойства водителей.
В своём ответе Tesla также подчеркнули, что водители, при желании, могут отключить систему автоматических стеклоочистителей. Помимо этого, они имеют возможность «перехода на ручное управления с использованием рулевого колеса или педали тормоза и должны быть постоянно готовы сделать это», особенно если есть подозрение, что система работает некорректно.
Говоря об использовании ROOT-привилегий при перехвате управления автомобилем, Tesla напомнила исследователям, что компания исправила основную уязвимость, описанную в докладе, при обновлении системы безопасности в 2017 и последовавшем обширном обновлении системы в прошлом году (уязвимость была исправлена в версии ПО 2018.24 — прим. перев.). Более того, в соответствии с ответом Tesla, оба этих обновления были доступны ещё до того, как Tencent Keen Security Lab рассказала компании о своих исследованиях, заявили в Tesla.
«За те многие года, что мы выпускаем машины на дороги, мы никогда не видели ни единого потребителя, ставшего жертвой какой-либо уязвимости, представленной в докладе» — добавляют в компании.
Оставляя в стороне протесты компании, эксперты безопасности всё ещё не уверены в том, что системы ADAS, наподобие Tesla Autopilot, не устроят хаос и не причинят разрушений в случае, если попадут под контроль злоумышленников. «Производителям стоит принять это во внимание при разработке новых систем» — заявил Джерри Гамблин.
«Необходимо сконцентрировать большую часть внимания на обеспечение безопасности систем, которые могут принести серьёзный ущерб потребителям и другим пассажирам в случае компрометации» — посоветовал эксперт. «Производители должны оптимально распределять финансы и корректно реагировать на любые затруднения, которые произрастают из атак на второстепенные системы и могут повлиять на конечного пользователя, который ни в коем случае не должен быть подвержен опасности».
Комментарии (19)
evnuh
13.04.2019 15:39Способность исследователей воздействовать на стеклоочистители была достигнута за счёт улучшенного алгоритма оптимизации, использованного для генерации того, что было названо «противоборствующие образцы» соответствующих характерных особенностей.
Расшифровать невозможно
Lissov
13.04.2019 17:54+5активировали дворники лобового стекла
ужас-ужас. Датчик дождя как раз допускает сколько угодно false positive, да и вообще логично любую непонятную ситуацию считать дождём и включать дворники. Если бы они смогли их выключить в дождь — вот это было бы хоть что-то, а так ни о чём.
разместив интерферирующие наклейки на дороге, которые обманули систему распознавания трассы, они заставили Tesla сманеврировать на полосу встречного движения
Это уже было на Хабре. Да, это проблема, и наверное в первую очередь для регулирующих органов. Надо менять определения «дорожной разметки» и требовать соответствующей работы автопилота.
смогли удалённо контролировать управление автомобилем
А вот тут переводу (или оригиналу) не хватает деталей. Потому что если чисто удалённо подключились, как с тем Cherokee в 2015 — это очень плохо со стороны Теслы. Но далее написано про какие-то ROOT-привилегии — если они физически влезли в Теслу, то так можно чем угодно как угодно управлять.SergeyMax
13.04.2019 20:44+1Надо менять определения «дорожной разметки» и требовать соответствующей работы автопилота.
А смысл? В следующий раз «хакеры» скажут, что закрасили настоящую разметку серой краской и нарисовали новую.Lissov
13.04.2019 21:29+5Нарисовав полноценную новую разметку можно убивать и без автопилота.
Смысл в том, что несанкционированное нанесение новой разметки (как и установка дорожных знаков) — это однозначно преступление и запрещено. Но три квадратика это не разметка, потому сейчас «хакеры» могут их спокойно рисовать, и виноват в аварии будет водитель.SergeyMax
13.04.2019 23:07+1Уголовный кодекс говорит о том, что нельзя убивать людей, а не о том, как именно это нельзя делать. Поэтому не имеет значения, нарисовали ли вы неправильную разметку для автопилота, для обычного пилота, подрезали ли тормозные шланги, или просто включили зелёный свет для всех направлений — нет необходимости отдельно перечислять эти все действия в УК.
Lissov
13.04.2019 23:43-1Уголовный кодекс говорит о том, что нельзя убивать людей, а не о том, как именно это нельзя делать.
Да, но вопрос в том, кто именно убийца.
На примере: электрик Вася выключил свет в цехе, электрик Петя полез менять лампочку, стажер Коля вошёл в цех и нажал на выключатель, Петю убило. Кто убийца?
Согласно закона, Коля будет убийцей только если Вася повесил табличку «не включать» (и будет «по неосторожности» или «умышленно» в зависимости от того, знал ли он и хотел ли таким образом убить Петю). А если таблички не было, то убийца только Вася а Коля невиновен совсем, хотя и его действие вызвало смерть.
Тут тем более, с точки зрения человека (а также УК, закона, суда), человеку не известно, что и как воспримет нейросеть. И будет крайне тяжело доказать в суде, что «хакеру» это было известно, и разметку он нанёс именно с такой целью.
И уж тем более сейчас, когда за поведение автопилота по правилам отвечает водитель — то есть если можно увести в сторону автопилот способом, который не может быть виден водителю, то водитель и только он виноват.
Но возникает ещё один интересный вопрос — знаем ли мы, как будет распознаваться разметка, частично стёртая естественным образом?SergeyMax
14.04.2019 06:12И будет крайне тяжело доказать в суде, что «хакеру» это было известно
Ой да ладно) Вы думаете, если придёте в суд и скажете «я не знал, что если тормозные шланги перерезать, то машина сломается» — и вас сразу оправдают?)) Никто ничего не будет доказывать в том смысле, в котором вы это себе представляете. Следователь просто напишет, что авария произошла вследствие того, что вы что-то нарисовали на дороге, полностью осознавая последствия своих действий, вы скажете «я не я, и корова не моя» (как в принципе говорят 95% обвиняемых), и на этом всё закончится.
Но возникает ещё один интересный вопрос — знаем ли мы, как будет распознаваться разметка, частично стёртая естественным образом?
Вероятно такая реакция машины на прерывистые точки — это и есть обработка случая частично стёртой разметки.Lissov
14.04.2019 09:14Перерезать тормозные шланги запрещено само по себе, независимо от того, что произойдёт. Это материальное повреждение чужого имущества. А значит виновен однозначно, дальше уже судья будет решать, с какой формулировкой.
А вот стажёра в моём примере выше оправдают.
И да, судья пользуется здравым смыслом. «Полностью осознавая последствия своих действий» гораздо легче сработает с тормозным шлангом чем с квадратиками на дороге.
Вот кстати про 3 квадратика есть статья, мы читаем и ставим плюсы — значит это новость. А проведите исследование, что будет если шланг перерезать — для кого это новость? Вот так и судья подумает.
super-guest
15.04.2019 05:35Уголовный кодекс говорит о том, что нельзя убивать людей, а не о том, как именно это нельзя делать.
Нет, смотрите ст. 105 УК РФ, например:
е) совершенное общеопасным способом;
NickTuchkov Автор
13.04.2019 21:21согласно опубликованному документу, root-права были получены удалённо
Lissov
13.04.2019 21:31Было бы неплохо добавить в статью. Если так, то это очень плохо. Ведь если архитектура такое позволяет, и одна уязвимость найдена, гораздо тяжелее доказать, что других уязвимостей не осталось.
kababok
13.04.2019 23:20+1Сразу оговорюсь: читал первоисточник "наискосок".
И там куча вопросов: как именно они сумели подключить свой "mobile device" через Wi-Fi к APE, использовали ли они исходный cantx — или всё же "слегка модифицировали" его сами, ну, и самое основное — как они смогут подклюситься к авто в реальной жизни...
Lissov
14.04.2019 00:06+1Тоже прочитал наискосок, вроде действительно совсем удалённо и в реальной жизни. Описано кратко, но есть ссылка на подробную другую статью.
Если я правильно понимаю, цепочка такова:
1. перехватить WiFi/3G.
2. Воспользоваться уязвимостью браузера (WebKit).
3. Взломав защиту, по цепочке установить апдейты с рутовыми правами на всё вплоть до APE.
Звучит логично, ведь Тесла ставит over-the-air апдейты всего софта, надо только обойти защиту чтобы ставить свой апдейт и без действий пользователя.
А имея рут по всей цепочке от WiFi до APE можно уже действительно рулить всем удалённо.
NickTuchkov Автор
14.04.2019 00:18Cantx использовался исходный. Да и было бы нелогично демонстрировать удалённый взлом ими же до этого модифицированной системы… (могу заблуждаться). По второму вопросу — подключение, судя по всему, осуществляется при выходе автомобиля в Интернет. Есть видео той же команды (2016 год), демонстрирующая удалённый взлом при поиске водителем ближайшей АЗС. Есть подозрение, что осуществляется подмена базовой станции GSM (между делом нашел, что так китайцы что-то подобное проворачивали и с BMW)
sshikov
>задача которых как раз и заключается в повешении безопасности
Хорошая опечатка, прямо по Фрейду
NickTuchkov Автор
такую опечатку и исправлять было жалко=) спасибо!