Беспилотник попал в аварию
7 мая 2016 года на скоростной магистрали в штате Флорида (США) произошло ДТП с участием седана Tesla Modes S, оснащённого функцией автопилота.
По непонятным пока причинам легковой автомобиль оказался под полуприцепом грузовика. Находящийся в машине, 40-летний водитель, погиб.
Американское ведомство, отвечающее за безопасность дорожного движения (NHTSA), создало специальную группу для расследования происшествия. Эта дорожная авария войдёт в историю беспилотного автотранспорта, как первый случай ДТП со смертельным исходом. Как назвать погибшего: водителем или пассажиром?
По словам водителя грузовика, было похоже, что сидящий в Тесле человек, смотрел фильм - занятие, подходящее только для пассажира автотранспорта. Кстати, его личность - фигура в США довольно известная. Джошуа Браун всячески позиционировал в Сети свою приверженность к инновационным моделям электромобилей и беспилотного автотранспорта, всячески доказывая, что Tesla - это машина, которой можно доверить свою жизнь. Однако, риск не оправдал себя и человек погиб.
Случившееся, несомненно, станет объектом пристального расследования. Непонятно, что стало причиной сбоя в системе? Автопилот должен был правильно сработать в сложившейся ситуации. Обозначенная траектория движения противоречит настройкам программного обеспечения. В компании Tesla сообщили, что, разработка находится в стадии так называемого публичного бета-тестирования.
Как относится к этому с юридической точки зрения? Например, корпорация Apple запускает новую программу в режиме публичного бета-тестирования и при этом предупреждает пользователей о том, что в процессе работы можно столкнуться с ошибками. В этом случае человек рискует своим оборудованием, но его жизнь находится вне опасности.
Как относится к данной фазе испытательных работ в области автомобилестроения - непонятно. Дородную аварию предусмотреть невозможно. Эксплуатация любой технологии в данной сфере, на стадии эксперимента должна осуществляться только подготовленными компанией профессионалы. Они сознаю риск и выполняют свою работу, фиксируя все необходимые показатели.
Привлекать рядовых граждан к тестовому вождению - опасно и преступно. Происшедшее уже стало источником неблагоприятных последствий для Tesla, отразившись на стоимости акций компании.
- Спор с перевозчика за просрочку хранения груза
- Помогите разобраться с Hyundai Porter 2
- Нужен тент с верхней загрузкой на Газель
- Брат хочет возить пассажиров, с чего начать?
- Банкротство с/х предприятия
- Беспилотник попал в аварию
- В центре Таллина и Хельсинки будут курсировать беспилотные автобусы
- Беспилотные автобусы становятся в Европе городской реальностью
- Через 10-15 лет беспилотники будут ездить на обычных российских дорогах
- В Москве создают рентген для таксистов
Расследование прояснит причины аварии, но вряд ли беспилотникам можно полностью доверять. Дорожные ситуации непредсказуемы, а при тестовых испытаниях риск еще больше.
Новые технологии еще не совершенны и доверять им сильно не стоит, по крайне мере еще лет двадцать. Я не вижу в этой аварии ничего удивительного.
Электромобиль Tesla Modes S нельзя назвать беспилотником. Он оснащен всего лишь "навороченным круиз-контролем".
Честно говоря, новость о ДТП с Теслой меня сильно взволновала. На одной стороне, автопилот — это будущее, и мы все ждем, когда машины смогут сами ездить по дорогам, как в фантастических фильмах. Но с другой стороны, такие случаи заставляют задуматься о безопасности. Если вспомнить историю с Boeing 737 MAX, там тоже программное обеспечение стало причиной катастрофы. Разработчики, конечно, предупреждают, что это всего лишь бета-тест, но это не должно стоить человеческих жизней. Важно, чтобы компании, как Tesla, брали на себя ответственность за тестирование своих технологий. Вместо того чтобы позволять обычным пользователям участвовать в подобных экспериментах, они должны проводить тесты в контролируемой среде и привлекать для этого профессионалов. Да, инновации всегда несут определенный риск, но этот риск должен быть минимизирован. Например, в программировании часто используется принцип "fail-safe", когда система при сбое переходит в безопасное состояние. Было бы здорово, если бы автопилот Теслы мог действовать подобным образом. С другой стороны, не стоит забывать, что водитель тоже должен быть внимателен и готов к любым неожиданностям на дороге. Надеюсь, что после этого инцидента будут сделаны выводы, которые помогут улучшить систему автопилота. В конце концов, это только начало пути, и, как показывает практика, все новые технологии проходят через этапы проб и ошибок.
Мне кажется, что привлекать обычных людей к тестированию таких опасных технологий — это большой риск. Безусловно, инновации — это круто, но безопасность должна быть на первом месте. Ведь жизнь человека дороже любых испытаний. Надеюсь, что Tesla извлечет из этого урок и пересмотрит свои подходы к тестированию.
Ситуация с Tesla напомнила мне о других случаях, когда технологии оказывались не готовы к реальной эксплуатации. Вспомните хотя бы Google Glass — как много говорили о его возможностях, но в итоге проект заморозили из-за проблем с безопасностью и приватностью. Здесь, на мой взгляд, тоже есть над чем работать.