Parece que não há fim para manchetes pouco lisonjeiras para a montadora de carros de Elon Musk, a Tesla. Ainda em junho, o Washington Post determinou que o piloto automático da Tesla, o nome que a empresa dá ao seu programa de assistência ao motorista operado por inteligência artificial, esteve envolvido em 736 acidentes desde 2019 – mais de quatrocentos acima do que era conhecido anteriormente. Quase dois terços dos acidentes aconteceram no ano passado, um aumento que coincidiu com o lançamento do software enganosamente chamado Full Self-Driving (FSD) da empresa.
Esse relatório veio quatro meses depois que os reguladores forçaram a empresa a recolher quase 363.000 carros equipados com FSD e interromper todas as novas instalações do software, com a National Highway Traffic Safety Administration (NHTSA) considerando isso um “risco de acidente”. Isso tudo porque os relatórios de Teslas dirigindo em objetos estacionários ou parando abruptamente na rodovia chegaram às manchetes no ano passado.
Tudo isso levanta a questão: se os “carros autônomos” da Tesla são tão inseguros, por que eles puderam ser comprados e usados em massa na estrada antes de serem testados beta?
A resposta: eles são sendo testado beta, nas estradas dos Estados Unidos, pelos homens e mulheres comuns que os compram e os expulsam do estacionamento. E tudo por causa da abordagem marcadamente negligente que os Estados Unidos adotam em relação à regulamentação.
O próprio Musk provavelmente colocou da melhor forma: “Nos EUA, as coisas são legais por padrão”, disse ele a investidores no ano passado. “Na Europa, eles são ilegais por padrão. Então, temos que obter a aprovação de antemão. Considerando que, nos EUA, você pode fazer isso por conta própria, mais ou menos.
Do que Musk está falando? Na UE e em países como a Austrália, onde os governos tendem a valorizar mais a proteção do cliente ao regulamentar a indústria, levou anos para o FSD da Tesla obter aprovação. Mesmo depois de finalmente obtê-lo, a aprovação veio com condições estritas, incluindo permitir que apenas testadores profissionais os conduzissem nas estradas e apenas um número limitado de carros equipados com FSD sendo disponibilizados.
As coisas são muito diferentes do outro lado do Atlântico. Como a NHTSA certa vez explicou a uma empresa coreana em busca de permissão do governo para vender airbags nos Estados Unidos, “essa permissão não é necessária”, uma vez que a agência “não aprova veículos motorizados ou equipamentos para veículos motorizados, nem nós. . . realizar testes de pré-venda de quaisquer produtos comerciais.” Em vez disso, a lei permite que as montadoras “autocertifiquem” que seus produtos são seguros nos Estados Unidos, embora a NHTSA possa às vezes revisar uma autocertificação para garantir que está correta ou se uma investigação revelar algo errado.
Em outras palavras, a segurança veicular dos EUA depende de algo alguns graus distante do sistema de honra.
Isso significa que a NHTSA é mais reativa do que proativa, com maior probabilidade de intervir assim que os problemas começarem a surgir – ou, no caso dos vários produtos atormentados por escândalos da Tesla, quando dezenas de acidentes e ferimentos chamarem a atenção do público. Isso ocorre mesmo que a Tesla tenha avisado na mesma semana em que lançou o software que o FSD “pode fazer a coisa errada no pior momento, então você deve sempre manter as mãos no volante e prestar atenção extra à estrada. Não se torne complacente.”
Enquanto o Beira apontou, isso está em total contraste com a forma como o governo federal trata a segurança da aviação, onde, como ditaria o senso comum, os fabricantes de aviões precisam obter a aprovação da Federal Aviation Administration para seus aviões e componentes antes os pilotos começam a voar pelos céus neles (mesmo tão tragicamente corrompidos quanto esse processo foi no passado recente).
Isso também permitiu que a Tesla realizasse testes beta nas mesmas vias públicas usadas por crianças americanas e outros pedestres, não empregando motoristas especialmente treinados para o trabalho, mas usando proprietários de carros comuns, cujo software FSD envia dados de volta à Tesla para mais informações. refinamento. Por um tempo, a Tesla determinou quais clientes poderiam se qualificar fazendo com que o software rastreasse seu desempenho de direção e emitisse uma “pontuação de segurança”, para a qual os aspirantes a testadores beta teriam que atingir e manter um valor alto o suficiente.
Mas em novembro passado, conforme os processos, as investigações da NHTSA e até mesmo uma investigação criminal sobre o FSD se acumulavam, a empresa anunciou que qualquer pessoa que possuísse um carro e desembolsasse US $ 15.000 pelo software poderia ser um testador, independentemente da pontuação de segurança. Com certeza, o site da Tesla não menciona mais essa pontuação de segurança como condição para o teste beta – mesmo que, segundo uma contagem, o FSD seja um motorista dez vezes mais perigoso do que um humano.
Não é totalmente correto dizer que a Tesla está apenas aproveitando os regulamentos negligentes dos EUA. Há evidências de que também está contornando os regulamentos existentes.
No estado de anarquia regulatória criado pela ausência de leis federais sobre veículos autônomos (AVs), algumas das regras mais rígidas estão na Califórnia, que define carros autônomos de acordo com as características estabelecidas nos níveis 3-5 da Society of Padrão J3016 da Automotive Engineers (SAE) International. Entre outras coisas, diz o professor de direito da Universidade de Miami, William Widen, esse padrão exige que motoristas de segurança treinados realizem testes em AVs.
“As empresas que estão testando veículos de Nível 3 e Nível 4 têm feito isso principalmente em simulações de computador e em pistas de teste, e têm feito testes limitados em rodovias públicas”, diz Widen. “Mas mesmo quando estão testando em vias públicas, eles, dependendo do estado em que estão, podem precisar de permissão.”
A Tesla contorna tudo isso alegando que seus carros são apenas SAE Nível 2, definido como “automação de direção parcial”. Mas Widen e o professor da Universidade Carnegie Mellon, Philip Koopman, argumentaram que, mesmo com base na própria descrição de Tesla de FSD, eles deveriam ser classificados em um nível superior.
Uma grande parte de como essa classificação é decidida é a “intenção do projeto”, que se aplica independentemente de o veículo ser ou não realmente capaz de fazer o que foi projetado para fazer. Em outras palavras, o fato de os carros operados por FSD da Tesla nesta fase precisarem de supervisão humana constante e terem tendência a bater em objetos estacionários não importa tanto para os reguladores quanto o fato de que os carros são significou para um dia ser totalmente autônomo.
E quando se trata de promover seu produto, Tesla e Musk deixaram bem claro que é exatamente isso que pretendem que os carros façam.
Já em 2016, Musk anunciou que todos os carros da Tesla estavam sendo equipados com hardware que acabaria deixando os carros dirigirem sozinhos e que chegariam a esse ponto por meio de “milhões de quilômetros de direção no mundo real”. Os advogados de Tesla chamaram isso de “meta aspiracional de longo prazo” em uma ação coletiva acusando fraude sobre as promessas de anos (e constantemente quebradas) de Musk de que os carros seriam autônomos em um ano ou dois. No mês passado, ele afirmou que a Tesla estava “muito perto de alcançar a direção totalmente autônoma sem supervisão humana. . . talvez o que você chamaria [SAE Level] quatro ou cinco, acho que ainda este ano.
Ominosamente, como os “testadores beta” da Tesla também têm essa intenção de design em mente quando estão avaliando as capacidades do carro, isso pode levar a acidentes nas estradas.
Quando um repórter da CNN experimentou o software FSD em ruas movimentadas da cidade de Nova York, ele teve que intervir rapidamente para impedir que o carro desviasse repentinamente para o tráfego ou colidisse com obstáculos. Mas não há garantia de que todos os “testadores beta” cada vez mais indiscriminadamente escolhidos pela Tesla mostrarão o mesmo cuidado e atenção – como mostram os relatos de motoristas da Tesla batendo e morrendo enquanto jogavam videogame ou não conseguiam colocar as mãos no volante.
Não é totalmente surpreendente que uma montadora sem escrúpulos possa se envolver em fraudes e até mesmo pôr em perigo o público para evitar regulamentações governamentais. A grande questão é por que os reguladores da Califórnia estão permitindo que a Tesla saia impune. Para Widen e Koopman, o medo é que “se essa má aplicação da lei e da regulamentação permanecer incontestada, o risco permanece de que outros participantes da indústria AV, não apenas a Tesla, possam usar essa ‘brecha’ para obter alguma vantagem em detrimento da segurança”.
No entanto, mesmo a inação do regulador da Califórnia está muito à frente da maior parte do país, com a maioria dos estados não tendo nada nos livros para regular os AVs – ou pior.
“Algumas leis estaduais não são projetadas para serem protetoras, mas para dar à empresa o conforto que elas podem testar nas rodovias públicas do estado”, diz Widen. “Não é realmente favorável ao consumidor ou ao público, mas sim para a empresa.”
Nevada, por exemplo, há muito tem uma reputação de um cenário regulatório favorável ao setor AV, permitindo que veículos em todos os níveis de automação operem em vias públicas e exigindo que eles atendam a uma “condição de risco mínimo” – ou seja, se o carro não puder executar uma determinada tarefa de direção, que se coloque em um “estado razoavelmente seguro”, o que pode significar parar. Lá, robôs-táxis foram implantados no centro de Las Vegas, e a Mercedes-Benz recentemente se tornou a primeira empresa a lançar um veículo de Nível 3 admitido nas ruas dos EUA, o que dá aos motoristas humanos a opção de jogar videogame na tela do computador do carro. (A Califórnia recentemente seguiu o exemplo.)
No Arizona, o governador enfraqueceu os regulamentos AV por ordem executiva em 2018 como um adoçante para a indústria AV, incluindo a exigência de que eles tenham um motorista humano ao volante. Duas semanas depois, uma mulher de Tempe se tornou a primeira humana conhecida morta pela tecnologia, quando um Uber autônomo se mostrou incapaz de reconhecer os pedestres enquanto seu motorista humano transmitia o programa de TV. A voz.
Também há dúvidas sobre onde os AVs estão sendo devidamente testados. A ferramenta de rastreamento de teste não abrangente da NHTSA mostra a maioria dos testes na estrada ocorrendo na Califórnia, Arizona e Michigan, e está bem representada na Flórida. De acordo com Wall Street Journal, centenas de carros autônomos estão sendo implantados não apenas na Califórnia, mas também em Miami, Dallas, Austin e Nashville. Mas, com exceção de Michigan, esses locais podem não oferecer aos carros autônomos o mesmo tipo de condições que dominam em outras partes do país, em um momento em que os veículos ainda lutam para operar sob chuva forte.
“Eles não funcionam bem na chuva, não funcionam bem à noite e não conheço nenhum que funcione na neve”, diz Widen. “Quando as linhas da pista estão cobertas, isso apresenta um problema. Como isso vai funcionar na prática eu não sei – não chove nem neva em Las Vegas.”
Enquanto isso, em alguns casos, os governos estaduais agiram para antecipar regulamentos locais mais rigorosos sobre carros autônomos. A Conferência Nacional de Legislativos Estaduais (NCSL) lista oito dessas leis nos livros, sem incluir uma lei da Pensilvânia que permite testes de AV sem motorista, assinada no final do mandato do ex-governador Tom Wolf. Esses projetos de lei muitas vezes têm sido apoiados e trabalhados por uma indústria de compartilhamento de carona interessada em economizar custos de mão-de-obra eliminando totalmente o motorista humano da equação.
Tradicionalmente, a regulamentação do transporte tem sido dividida em uma divisão federal-estatal, com a NHTSA regulando os “aspectos de desempenho e design de segurança” de veículos e equipamentos, e os estados regulando as operações dos veículos e os próprios motoristas. Mas isso pode estar mudando à medida que os carros autônomos confundem a linha entre equipamento e motorista, com o Congresso e as agências federais mostrando sinais crescentes de que estão prontos para intervir.
A questão é qual será a forma dessa intervenção federal. O modelo será estados como Nevada, onde existem regulamentos mais permissivos para apaziguar a indústria? Será a Califórnia, onde leis teoricamente mais rígidas ficam ociosas graças a reguladores relutantes? Ou será um regime mais próximo ao da Europa, que permite cuidadosamente e realmente impõe o desenvolvimento desta tecnologia emocionante, mas perigosa e garante que ela esteja realmente pronta antes de ser implantada em larga escala nas vias públicas?
Essa será uma batalha política própria. Mas até lá, os Elon Musks do mundo estão mais ou menos livres para usar como cobaias o próprio público estadunidense que paga pelas estradas e rodovias que usam como laboratório a céu aberto, com resultados mortíferos.
Fonte: https://jacobin.com/2023/08/lab-rats-elon-musk-self-driving-car-safety-testing-regulations