'O curso intensivo de Elon Musk' analisa superficialmente falhas de engenharia e regulatórias

Não importa quão inteligente ou visionário alguém possa parecer na superfície, é importante lembrar que no final eles são humanos e falhos. Só porque eles conseguem ter sucesso em algumas áreas, isso não significa que eles podem fazer o mesmo em tudo que tentam. É por isso que é extremamente importante evitar colocar as pessoas em um pedestal muito alto, porque vai doer quando elas caírem. Um novo documentário publicado pelo New York Times
EMPRESA
e agora o streaming no Hulu tenta dar uma olhada nos esforços de Elon Musk para promover e vender direção automatizada na Tesla
TSLA
veículos, mas fica aquém do que poderia ter sido.

Com um tempo de execução de 74 minutos, “Curso intensivo de Elon Musk” tenta cobrir muito terreno, mas no final parece que gasta muito tempo em alguns tópicos e não o suficiente em alguns dos mais importantes. A diretora Emma Schwartz abre o filme com um olhar sobre as origens da Tesla e os esforços para desenvolver veículos automatizados que remontam a um filme promocional da GM de 1956 com o conceito Firebird II e o DAR
AR
Grande Desafio PA.

No entanto, onde o filme parece dar errado é gastar muito tempo com Joshua Brown. Brown foi o ex-especialista em descarte de bombas da Marinha que foi a primeira fatalidade conhecida ao usar o sistema de assistência ao motorista AutoPilot da Tesla. Partes significativas do filme são dedicadas a ouvir de alguns amigos de Brown sobre por que ele estava tão apaixonado pelo AutoPilot que percorreu mais de 45,000 milhas em seu Model S nos nove meses entre o lançamento do AutoPilot e sua morte em maio de 2016.

Enquanto os repórteres do New York Times Neal Baudette e Cade Metz fazem um trabalho capaz de explicar algumas das limitações do AutoPilot, a maioria das pessoas que provavelmente deveriam estar assistindo a um filme como esse provavelmente tem pouco ou nenhum conhecimento técnico de como funciona a direção automatizada. Esses membros do público em geral se beneficiariam muito de uma cartilha sólida que elimina os muitos equívocos em torno da direção automatizada, muitos dos quais foram promulgados pelo próprio CEO da Tesla, Musk, ao longo dos anos.

Os espectadores poderiam aprender algumas lições importantes sobre o que realmente é necessário para criar, testar e validar um veículo automatizado se o filme incluísse entrevistas com nomes como Phillip Koopman, professor de ciência da computação da Universidade Carnegie Mellon, ou Jennifer Dukarski, advogada de Ann Arbor. Em vez disso, recebemos muitas palavras de amigos de Brown explicando como ele estava interessado em tecnologia e por que ele era tão inflexível em testar os limites de seu carro.

Para crédito dos cineastas, eles incluíram entrevistas com um par de ex-engenheiros da equipe AutoPilot, membros do National Transportation Safety Board (NTSB), incluindo o ex-presidente Robert Sumwalt e Bryan Thomas, ex-diretor de comunicações da National Highway Traffic Safety Administration (NHT
HT
SA).

Raven Jiang e JT Stukes reconheceram as limitações do AutoPilot. “Nós queríamos tentar tornar o AutoPilot seguro”, disse Jiang.

“Na época do acidente, eu sabia que as pessoas confiavam no sistema para fazer coisas que ele não foi projetado ou capaz de fazer”, acrescentou Stukes. “O fato de que esse tipo de acidente aconteceu é obviamente trágico, mas era algo que ia acontecer.”

Uma razão pela qual era provável que isso acontecesse é que a Tesla decidiu usar uma câmera primeiro e agora um sistema somente de câmera. “Não houve uma fase de pesquisa profunda em que vários veículos foram equipados com uma variedade de sensores, muitos membros da equipe teriam gostado disso, em vez disso, a conclusão foi feita primeiro e, em seguida, as atividades de teste e desenvolvimento começaram a provar que essa conclusão estava correta.”

Nos últimos 15 anos, Musk impulsionou muitos grandes desenvolvimentos em foguetes e popularizou EVs e veículos definidos por software. Mas quando se trata de sistemas críticos de segurança, não há atalhos. Quando vidas estão em jogo, é responsabilidade de quem cria tecnologias tomar os devidos cuidados. Quando eles não fazem isso, como Musk fez repetidamente com o AutoPilot e o Full Self-Driving, é responsabilidade dos reguladores de segurança controlar essas pessoas.

É aqui que vejo a maior falha deste filme. O NTSB tem a responsabilidade de investigar acidentes de transporte de todos os tipos, incluindo veículos aéreos, ferroviários, marítimos e terrestres. Após o acidente de Brown, o NTSB fez muitas recomendações excelentes, incluindo a exigência de monitoramento de motorista mais robusto para sistemas que ainda exigem supervisão humana, como Tesla AutoPilot/FSD, Super Cruise da GM e todos os outros sistemas na estrada hoje. O NTSB também recomendou que os sistemas sejam georreferenciados nas estradas onde possam operar com segurança.

A NHTSA é a agência que tem autoridade regulatória e de fiscalização sobre a indústria automobilística. Nos seis anos desde a morte de Brown, houve vários outros acidentes fatais envolvendo o uso indevido do AutoPilot, mas a NHTSA não fez nada para implementar qualquer um dos regulamentos do NTSB. Somente nos últimos 12 meses desde a mudança de administração em Washington, a NHTSA começou a fazer qualquer coleta séria de dados em sistemas parcialmente automatizados e ninguém sabe quando algo concreto será feito.

O filme deixa a bola cair completamente ao investigar por que a NHTSA não fez nada para garantir que os sistemas de automação parcial sejam realmente verificados como seguros e eficazes. De qualquer forma, a agência permitiu que a Tesla continuasse a vender uma tecnologia que realmente não funciona e a promovê-la mais do que nunca. Para ser justo, outras agências governamentais, como a Federal Trade Commission, também podem estar tentando abordar pelo menos o lado de marketing desse problema, mas o filme não analisa as falhas de nenhum funcionário do governo.

Em um sistema capitalista, não é incomum que as empresas tentem se safar o máximo que puderem em busca de lucro. É trabalho dos governos erguer os guarda-corpos necessários para proteger o público de empresas sem escrúpulos. É o trabalho dos jornalistas esclarecer todas as falhas no processo para que nós, como população, possamos estar cientes e responsabilizar todos. O Crash Course de Elon Musk teve a oportunidade de fazer muito mais em torno da história e deixou a bola cair. Mais precisa ser feito para dizer a verdade sobre o que está acontecendo com todas as partes envolvidas neste conto trágico.

Fonte: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/