Novo estudo aponta comportamento assustador de motoristas em carros supostamente mais seguros

Apesar de literalmente apenas passar uma placa de mensagem variável intermitentemente dizendo “Enviar mensagens de texto enquanto dirige é … (pausa) … 23 vezes mais perigoso” colocado logo antes de uma das manobras locais mais perigosas, conhecida como a Curva de Rochester, a sociedade ficou mais esperta sobre a importância do clichê antigo de “olhos na estrada, mãos no volante, mente na direção”.

Ou assim pensamos…

A novo estudo do Instituto de Seguros para Segurança Rodoviária (IIHS) das pessoas que possuíam veículos com recursos avançados de assistência ao motorista descobriram que “…grandes porcentagens de usuários (53% do [GM] Super Cruise, 42% do [Tesla] Autopilot e 12% do [Nissan] ProPILOT Assist)) indicaram que se sentiam à vontade para tratar seus sistemas como autônomos”. Atualmente, os carros autônomos não estão disponíveis para os consumidores, apesar do marketing enganoso de alguns fabricantes. Os três sistemas mencionados acima têm o que é chamado de “automação parcial”. O motorista em carne e osso ainda deve realizar muitas tarefas rotineiras de condução, uma vez que esses sistemas são não está pronto para ser lançado de forma onipresente.

Nesse sentido, o estudo relata que os usuários de Super Cruise e Autopilot eram mais propensos a se envolver em atividades em que tiravam as mãos do volante e os olhos da estrada. De fato, aproximadamente 50% do Super Cruise e 42% do Autopilot “… os usuários relataram acionar um 'bloqueio' da tecnologia em algum momento, que ocorre quando um motorista não responde aos avisos de atenção”. Até agora, todos os sistemas convencionais exigem supervisão ativa do motorista.

Uma possível razão: alguns fabricantes foram muito liberais com suas declarações públicas de marketing e de executivos, o que essencialmente incentivou os motoristas a tratar o sistema como autônomo. E isso levou alguns proprietários de carros, como Param Sharma, de São Francisco, a serem registrados na estrada andando no banco de trás sem humanos no banco da frente. Raj Mathai, âncora de notícias da KNTV (NBC) em São Francisco, descreveu corretamente esse comportamento como “… muito ilegal”.

As descobertas do estudo questionam se o rigor básico da engenharia (por exemplo, examinar a segurança do recurso pretendido, também conhecido como SOTIF) foi adequadamente concluído para esses projetos e se o público entende a diferença entre sistemas avançados de assistência ao motorista (ADAS) e autônomos. “Os sistemas de automação parcial podem fazer com que longas viagens pareçam menos onerosas, mas não há evidências de que tornem a condução mais segura”, diz o presidente da IIHS, David Harkey. “Na verdade, o oposto pode ser o caso se os sistemas não tiverem salvaguardas adequadas.”

Conforme relatado pela New York Times em junho, a Administração Nacional de Segurança no Tráfego Rodoviário (NHTSA) atualizou … “sua avaliação preliminar do piloto automático para uma análise de engenharia [que] … durante o uso do sistema.”

Enquanto isso, oito curtas semanas depois A Tesla lançou outra versão Beta de seu software que testou com apenas 1000 (sorte?) usuários devido a “muitas mudanças importantes no código”.

Talvez o sinal de mensagem variável devesse alertar os motoristas sobre mais do que apenas mensagens de texto.

Fonte: https://www.forbes.com/sites/stevetengler/2022/10/25/new-study-points-out-scary-driver-behavior-in-supposedly-safer-cars/