Почему автопилоту все еще нельзя доверять (видео)
Не так давно в западной прессе можно было встретить сообщения о том, что автопилот автомобилей Tesla не видит припаркованные на обочинах автомобили, из-за чего происходят аварии - в частности, что особенно обидно, с каретами скорой помощи. Последнее обновление системы Tesla FSD (Full Self-Driving) должно было решить эту проблему. Отметим, что система до сих пор существует в виде бета-версий, и новейшая - уже десятая.
Отладка системы проводится бета-тестерами из числа добровольцев, проходящих строгий отбор. Многие из них сообщают, что десятая версия Tesla FSD действительно долгое время может вести автомобиль абсолютно самостоятельно, пишет издание Inside EVs. Однако в некоторых «крайних случаях» проблемы все же могут возникнуть.
Крайними случаями считаются те, возникновению которых система еще не обучена. Как, например, в показанном видео: продвинутая система автопилота полностью игнорирует тот факт, что автомобиль вот-вот въедет в заднюю часть остановившегося на дороге автобуса. Водитель был вынужден взять управление на себя. Но сразу вслед за этим автопилот вполне справляется с объездом эвакуатора.
Таким образом, действия автопилота Теслы до сих пор нельзя считать логичными и последовательными.
Видео: Youtube / Dave Mac - DMacTech