У США розслідують функції «автопілоту» Tesla після низки аварій з іншими автівками
Функція автопілоту Tesla – це допоміжна система, яка не є власне автопілотом.
Національна адміністрація безпеки дорожнього руху США (NHTSA) почала розслідування програмного забезпечення автопілоту Tesla після низки зіткнень із припаркованими автомобілями, повідомляє Хмарочос з посиланням на The Verge.
У фокусі розслідування – технології, які використовує програма для допомоги в керуванні машиною. Воно поширюється на моделі Y, X, S, та 3, випущені у 2014-2021 роках.
За даними відомства, з 2018 року за участі Tesla на автопілоті та припаркованих автомобілів трапилося 11 аварій, в яких 17 осіб було травмовано та одна людина загинула. Більшість із цих аварій ставалися у темну пору доби та за наявності на дорозі таких сигнальних об’єктів, як світловідбивна розмітка, дорожні конуси, ліхтарі тощо.
У NHTSA підкреслюють, що наразі на ринку не існує автомобілів, які могли б їхати автономно без участі людини.
Функція автопілоту Tesla – це допоміжна система, обладнана сенсорами та камерами, покликана знижувати навантаження на водія, і яка допомагає центрувати автомобіль посередині смуги руху, дотримуватися певної швидкості тощо.
Натомість ця система не є власне автопілотом. Якщо повністю автономний транспортний засіб позначити рівнем п’ять, то автопілот Tesla відповідає рівню два.
Ілона Маска критикували як за саму оманливу назву «автопілот», так і за агресивне просування цієї функції. Хоч на сайті Tesla і вказано, що ввімкнений автопілот аж ніяк не означає, що машина є самокерованою, маркетингова стратегія компанії нерідко вводить водіїв в оману, особливо на тлі уявлення про Маска як про людину, яка займається технологіями майбутнього, навіть коли ті відверто застарілі.
Ще у 2018 році видання Wired писало про проблему розпізнавання автопілотом статичних об’єктів. Ця проблема прямо визнається у мануалах Tesla та Volvo.