Новости Отчет: Tesla Autopilot и Full Self-Driving причастны к сотням аварий и десяткам смертей

CryptoWatcher

Not a Human
Хакер
10,608
12
13 Ноя 2022
Tesla-min.webp

Невнимательность водителей в сочетании с недостатками технологий Tesla Autopilot и Full Self-Driving (FSD) привели к сотням травм и десяткам смертей. Об этом Для просмотра ссылки Войди или Зарегистрируйся в отчете NHTSA.

Согласно выводам, пользователи этих систем «не были достаточно вовлечены в управление автомобилем». В то же время сами технологии Tesla «не обеспечивали должного уровня внимания водителей».

В общей сложности с января 2018 по август 2023 года регулятор расследовал 956 ДТП. В этих авариях, некоторые из которых включали столкновение других машин с Tesla, погибли 29 человек.

Также агентство зафиксировало 211 инцидентов, в которых «лобовая часть автомобиля Tesla ударилась о транспортное средство или препятствие на своем пути». В наиболее серьезных случаях 14 человек погибли, а 49 получили ранения.

NHTSA инициировало расследование после того, когда водители Tesla врезались в неподвижные аварийные автомобили, припаркованные на обочине. Большинство этих инцидентов произошло в вечернее и ночное время, при этом программное обеспечение игнорировало меры по контролю за обстановкой на дороге вроде предупреждающих огней, сигнальных ракет, конусов и светового табло со стрелками.

Водители на автопилоте не успевают вовремя реагироватьВ своем отчете агентство пришло к выводу, что Autopilot и, в некоторых случаях FSD, не были разработаны так, чтобы удерживать внимание водителя за рулем. Tesla в свою очередь предупреждает клиентов о необходимости быть начеку при использовании этих технологий, включая необходимость держать руки на руле и смотреть на дорогу.

Однако, по данным NHTSA, во многих случаях водители становились слишком самоуверенными и теряли концентрацию внимания. А когда приходило время реагировать на опасную ситуацию, зачастую было уже слишком поздно.

В 59 изученных авариях агентство обнаружило, что у водителей Tesla было достаточно времени — пять или более секунд до столкновения с другим объектом — чтобы среагировать. В 19 угроза была очевидна за 10 и более секунд.

Изучив журналы данных и предоставленную Tesla информацию NHTSA обнаружила, что в большинстве подобных ситуаций водители не успевали ни затормозить, ни повернуть руль для избежания столкновения.

«Аварии, в которых водитель не предпринял никаких или запоздалых попыток уклонения, обнаружены во всех версиях оборудования Tesla и обстоятельствах происшествия», — заявили в NHTSA.

Tesla дает слишком большие обещанияNHTSA также сравнила функции автоматизации уровня 2 (L2) Tesla с продуктами других автопроизводителей. В отличие от конкурентов, Autopilot отключается, а не позволяет водителю корректировать рулевое управление. По словам NHTSA, это «отбивает охоту» у водителей оставаться начеку за рулем.

«Сравнение конструкторских решений Tesla с аналогичными решениями L2 позволило выявить, что компания является изгоем отрасли в своем подходе к технологии, поскольку слабая система вовлечения водителя не сочетается с разрешительными возможностями Autopilot», — говорится в сообщении агентства.

Даже название бренда Autopilot вводит в заблуждение, заявили в NHTSA. Оно якобы наводит на мысль, что водитель не контролирует ситуацию.

В то время как другие компании используют некоторые варианты слов «помощь», «чувство» или «команда», продукты Tesla убеждают водителей в том, что они обладают большими возможностями, чем есть на самом деле.

Генеральный прокурор Калифорнии и Департамент автотранспорта штата Для просмотра ссылки Войди или Зарегистрируйся расследование в отношении компании по поводу вводящего в заблуждение брендинга и маркетинга.

NHTSA признает, что его расследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. На самом деле аварий с участием Autopilot и FSD может быть гораздо больше, чем удалось обнаружить агентству.

Обновление Autopilot не решило проблемы безопасностиВ конце прошлого года Tesla выпустила добровольный отзыв ПО в ответ на расследование NHTSA, обновив программу для добавления дополнительных предупреждений в Autopilot. Однако NHTSA Для просмотра ссылки Войди или Зарегистрируйся о начале нового расследования, так как ряд экспертов по безопасности указали на «неадекватность» предпринятых мер, допускающих некорректное использование систем помощи водителю.

Результаты расследования противоречат утверждениям главы Tesla Илона Маска о том, что его компания занимается разработкой ИИ и находится на пороге выпуска полностью беспилотного электрокара для личного пользования. В конце этого года он планирует представить роботакси, которое должно открыть новую эру для автопроизводителя.

На прошлой неделе в ходе отчета о прибылях за первый квартал Маск вновь Для просмотра ссылки Войди или Зарегистрируйся, что транспортные средства Tesla безопаснее машин под управлением человека.

«Если статистически значимый объем данных убедительно показывает, что беспилотный автомобиль, скажем, в два раза реже попадает в аварии, чем автомобиль с человеческим управлением, я думаю, это трудно игнорировать», — сказал Маск.

Он считает, что прекращение эксплуатации самоходных автомобилей равноценно «убийству людей».

Илон Маск нацелен на китайский рынокОдновременно с выходом отчета NHTSA Маск Для просмотра ссылки Войди или Зарегистрируйся с неанонсированным визитом в Китай. По данным источников, одним из обсуждаемых вопросов стало обсуждение внедрения Autopilot и FSD в стране.

Ранее Маск написал в X, что Tesla может сделать Full Self-Driving доступным для клиентов в Китае «очень скоро».



Китайская государственная телекомпания CCTV в своем репортаже о встрече Маска с премьер-министром КНР Ли Цяном не сообщила, обсуждали ли они FSD или данные.

Поездка Маска состоялась чуть больше недели спустя после того, как он отменил запланированный визит в Индию для встречи с премьер-министром Нарендрой Моди.

Напомним, в мае 2023 года министр транспорта США Пит Буттиджич Для просмотра ссылки Войди или Зарегистрируйся.
 
Источник новости
forklog.com

Похожие темы