As empresas e o governo australianos se juntaram ao coro global alertando sobre os riscos que a inteligência artificial (IA) representa para a humanidade. Mas, apesar de seu tom inquieto, a introdução de algoritmos na vida política australiana foi menos apocalíptica e mais prática. As mudanças no sistema de bem-estar australiano são um excelente exemplo. Punitivo e de difícil acesso por design, o sistema agora é mais conhecido por uma desastrosa inovação algorítmica apelidada de robodebt.

Robodebt foi projetado pelo Partido Liberal e funcionários públicos australianos de alto escalão para capturar ostensivamente “fraudes de bem-estar”. Funcionou de 2016 até ser declarado ilegal em 2019. Uma comissão real sobre o agora infame esquema divulgou suas conclusões na semana passada. Eles foram, sem surpresa, contundentes. O esquema baseava-se em um algoritmo rígido e falho que erroneamente emitiu avisos ameaçadores de pagamento de dívidas para cerca de meio milhão de australianos. Ao longo de seu curto mas catastrófico período de vida, o robodívida resultou em mortes, suicídios, empobrecimento, estresse habitacional e trauma em massa.

As consequências do esquema e as conclusões previsíveis da comissão estão em andamento. Mas toda a saga sórdida levantou muitas questões. Isso se relaciona não apenas ao comportamento corrupto e cruel de políticos e do serviço público, mas também ao uso e abuso de algoritmos e IA na vida profissional dos australianos.

O governo trabalhista, saboreando a ignomínia lançada sobre seu antecessor, emitiu uma série de relatórios e documentos de discussão sobre o uso “seguro e responsável” da IA ​​na Austrália. Mas esses relatórios, muito naturalmente, evitam a discussão sobre o que os avanços tecnológicos no capitalismo geralmente são projetados para fazer: prolongar a jornada de trabalho, intensificar o processo de trabalho para os trabalhadores e maximizar os lucros para as grandes empresas.

Quando foi lançado em 2016, o esquema robodebt foi criticado instantaneamente por sua premissa e formulação falhas. O algoritmo mediu as informações da declaração de impostos, que são calculadas anualmente, contra os pagamentos da previdência social, que são pagos quinzenalmente. Se a renda anual média não correspondesse ao valor relatado quinzenalmente por um beneficiário do pagamento da previdência social, o algoritmo declarava automaticamente a discrepância como uma dívida e emitia uma ordem de pagamento ameaçadora. Em seguida, o ministro dos serviços humanos, Alan Tudge, apareceu na televisão para ecoar a ameaça, avisando: “nós vamos encontrá-lo, vamos rastreá-lo e você terá que pagar essas dívidas e poderá acabar na prisão”.

Antes mesmo de o esquema ser lançado, os advogados do Departamento de Serviços Sociais alertaram que tudo isso provavelmente era ilegal. A assessoria jurídica externa repetida nos anos seguintes confirmou essa avaliação. Mas os funcionários públicos admitiram na comissão real que essas preocupações foram descartadas porque o esquema tinha apoio político do então primeiro-ministro Scott Morrison. Na época, Morrison havia vinculado sua fortuna política à demonização de beneficiários de assistência social e refugiados. Ele argumentou que “assim como eles não vão pegar as pessoas que vêm de barco, eles não vão pegar as pessoas que vão burlar esse sistema. Portanto, é preciso haver um policial de bem-estar forte na ronda.

Como os críticos apontaram instantaneamente, o robodívida não fazia absolutamente nenhum sentido: a legislação da previdência social havia sido repetidamente alterada para forçar os beneficiários do bem-estar a empregos ocasionais e de meio período. A maioria não ganhava um salário regular a cada quinzena, mas os salários parciais e pouco confiáveis ​​que a legislação os persuadia a ganhar.

No cenário de pesadelo que se seguiu, as avaliações do algoritmo não eram apenas incorretas, eram mais ou menos incontestáveis. Depois que o algoritmo o declarou culpado, a única maneira de provar sua inocência era apresentar os comprovantes de pagamento do período em questão. Mas se você não estivesse realmente trabalhando naquela época – uma perspectiva razoável para alguém que recorreu à rede de segurança social – isso era literalmente impossível.

O Robodebt não envolvia tecnicamente IA, mas um algoritmo desajeitado conhecido como sistema de tomada de decisão automatizada (ADM). Isso não foi por falta de tentativa. Depois que o esquema foi lançado para uivos de escárnio, o governo liberal tentou desesperadamente fazer com que a agência governamental responsável pela pesquisa científica inventasse uma IA à altura da tarefa de caçar os trabalhadores pobres. Disseram-lhes que não era possível.

Se o algoritmo robodebt desempenhou o papel de juiz e júri, as empresas privadas de cobrança de dívidas gentilmente entraram em cena como algozes. Alguns eram de propriedade de grandes empresas de capital de risco ligadas ao Partido Liberal. Eles receberam comissões – essencialmente recompensas – para extorquir o máximo de dinheiro que pudessem, o mais rápido possível, das vítimas inocentes do algoritmo. A megaconsultoria corrupta PricewaterhouseCoopers (PwC) também colocou seu focinho na calha. Incorretamente confiante de que a robodívida garantiria algum lucro por anos, a PwC, no entanto, recebeu US$ 1 milhão para produzir um relatório sobre as falhas do esquema. O relatório nunca se materializou – a PwC foi solicitada a removê-lo com “um aceno de cabeça e uma piscadela”.

No geral, o robodebt visava “recuperar” um valor amplamente imaginário de AUD$ 2 bilhões. Custou US$ 606 milhões para administrar até 2019 e conseguiu extorquir US$ 785 milhões de pessoas inocentes. Uma vez que a ilegalidade do esquema foi oficialmente declarada, tudo isso foi “pago de volta” em um acordo de US$ 1,8 bilhão. Apenas uma pequena fração disso, no entanto, foi para as vítimas reais.

Portanto, além de custar vidas e meios de subsistência, o robodívida custou caro ao contribuinte australiano. Vale a pena notar que a quantia insignificante que o esquema inicialmente prometeu recuperar dos trabalhadores pobres empalidece em comparação com as dezenas de bilhões de dólares que a Austrália perde todos os anos por meio de golpes pró-ricos, como paraísos fiscais e alavancagem negativa.

O esquema robodebt destaca a maneira insidiosa com que a nova tecnologia foi aproveitada para punir os beneficiários da previdência social. Mas os beneficiários do bem-estar não são o único setor da sociedade a ficar sob seu domínio.

Um relatório do escritório de advocacia global Herbert Smith Freehills sobre o monitoramento de funcionários descobriu que mais de 90% dos chefes australianos estão usando ferramentas digitais para controlar a produtividade do trabalhador. Como um dos sócios australianos da empresa estremeceu,

distópico não é a palavra certa, mas existe esse tipo de onipresença de que os movimentos das pessoas estão sendo monitorados, de uma forma que eu acho que, como australianos, não estávamos acostumados anteriormente.

Isso parece diferente em diferentes contextos. Na insegura economia do show, decisões algorítmicas arbitrárias impõem cortes salariais de 50%. Na indústria de armazenamento de baixa remuneração e altamente monopolista, os trabalhadores australianos usam fones de ouvido com algoritmos que impõem taxas de seleção exorbitantes. Trabalhadores da Coles e da Amazon relatam que esses algoritmos funcionam como supervisores antipáticos, policiando-os até o segundo. Mesmo os funcionários de colarinho branco de empresas como a PwC estão sendo assediados pela IA para justificar as idas ao banheiro.

Como mostrou um relatório recente do Australia Institute, existem muito poucas áreas da economia que não estão sendo afetadas pela invasão de algoritmos e IA. As empresas tentam defender essas ferramentas como inspiradas por questões de saúde, segurança ou meio ambiente. A verdade óbvia é que, seja em locais de trabalho temporários, manuais ou corporativos, eles são projetados exclusivamente para intensificar a jornada de trabalho e espremer até o último centavo de lucro possível da força de trabalho.

Esse maior escrutínio e intensidade contrastam marcadamente com o tratamento concedido aos chefes australianos. Em março, o Comitê Parlamentar Conjunto sobre Corporações e Serviços Financeiros descobriu que o regulador corporativo Australian Securities and Investments Commission (ASIC) estava empregando uma ferramenta digital automatizada para filtrar reclamações criminais sobre diretores de empresas. A IA encaminhou apenas 3% das reclamações para um nível humano superior, apesar da grande maioria incluir alegações de comportamento criminoso. Em contraste marcante com o robodebt, o algoritmo ASIC é literalmente programado para presumir inocência por parte de dezenas de milhares de chefes duvidosos.

Tem havido muito alarmismo sobre IA por parte de grandes empresas nos últimos meses. Mas se os chefes estão indo tão bem com os avanços tecnológicos, por que tanto alarido?

Uma rápida olhada nos relatórios recentes do governo trabalhista sobre IA revela algo esclarecedor. Eles podem ser colocados no contexto de alertas sobre o apocalipse impulsionado pela IA, mas expressam amplamente preocupação com a capacidade das empresas australianas de ganhar participação de mercado em setores emergentes que já são dominados por empresas americanas. Se os recentes apelos dos barões da tecnologia dos EUA por maior regulamentação são de fato um apelo por uma maior transferência de poder para eles mesmos, a reclamação dos monopolistas australianos é mais sobre monopólios estrangeiros.

O governo trabalhista comparou a robodívida aos asilos punitivos do século XIX. Os armazéns da Amazon e dos supermercados da Austrália, com seus capatazes digitais, foram comparados a fábricas exploradoras da mesma época. Apesar de seu hype futurista, os recentes avanços tecnológicos estão reproduzindo – de uma forma nova e distorcida – a lógica duradoura de nosso modo de produção ofegante: monopólio, com cada vez menos oportunidades de expansão, e exploração, em uma intensidade cada vez maior.

Fonte: https://jacobin.com/2023/07/artificial-intelligence-working-poor-australia-robodebt-welfare-exploitation

Deixe uma resposta