O longtermismo emergiu como uma escola de pensamento dentro do movimento mais amplo de “altruísmo eficaz” (EA). Esse movimento tenta projetar e avaliar instituições de caridade e contribuições de caridade com o objetivo de maximizar o impacto positivo no dólar. Embora o trabalho de EA mais divulgado e mais bem recebido tenha se concentrado em áreas de causa imediata e imediata, como pobreza global e prevenção de doenças, há muito tempo existe um contingente controverso dentro da comunidade mais interessado em preocupações futuristas.

Grande parte desse trabalho de longo prazo na EA tem sido sobre “riscos existenciais”, cataclismos potenciais que (supostamente) ameaçam a existência da humanidade como um todo. Esses “riscos x”, como são chamados, vão desde o estilo ficção científica (impactos de meteoros gigantes) até o presciente (preparação e prevenção de pandemia). Entre os apocalipses teóricos estudados por especialistas de longo prazo, no entanto, um tópico sempre se destacou: a segurança da IA.

Os defensores da segurança da IA ​​como uma área de causa geralmente temem que, de uma forma ou de outra, uma inteligência artificial avançada possa representar um risco para a sobrevivência humana. Alguns argumentam que, com objetivos mesmo ligeiramente opostos aos nossos, uma IA superinteligente estaria disposta e seria capaz de nos eliminar rapidamente para atingir seus objetivos.

Outros sugerem, de forma mais conservadora, que a IA pode ser perigosa da mesma forma que as armas nucleares: fácil de usar indevidamente acidentalmente, difícil de prever em detalhes e com consequências de longo alcance se manuseadas de forma inadequada. Mas eles estão unidos em sua crença de que avanços desastrosos em inteligência artificial podem significar um desastre para a humanidade, potencialmente até o ponto de extinção.

Com apostas tão altas, é natural que defensores de longo prazo da segurança da IA ​​busquem influência na política nacional (e internacional). O Future Forward, um super PAC pró-democrático com uma perspectiva explicitamente de longo prazo, estava entre os doadores mais generosos nas eleições presidenciais de 2020 e, em 2022, Carrick Flynn fez uma candidatura ao Congresso abertamente em questões de longo prazo. O eleitoralismo chegou para as Cassandras da desgraça da IA.

Indo puramente por suas contribuições eleitorais (bastante amplamente divulgadas), no entanto, pode-se razoavelmente julgar o movimento como uma atração secundária, na melhor das hipóteses, no cenário político americano mais amplo. Embora as doações do Future Forward para 2020 tenham sido extensas, poucos especialistas sugeriram que eles viraram a maré contra Donald Trump, e a campanha de Flynn dois anos depois terminou em uma derrota esmagadora.

Seria um erro, no entanto, avaliar o alcance político do longtermismo apenas por sua influência eleitoral. Além das campanhas, com pouco alarde, ele alcançou o sucesso no reino dos think tanks, comissões do Congresso e nomeações burocráticas, onde tem se manifestado em questões de extrema importância nacional e global. Talvez o mais notável, até o momento, tenha sido a política dos Estados Unidos para a infraestrutura de microchips.

A decisão do governo Biden, em outubro do ano passado, de impor controles drásticos de exportação de semicondutores é uma de suas mudanças políticas mais substanciais até agora. Como jacobinoBranko Marcetic escreveu na época, os controles foram provavelmente o primeiro tiro em uma nova Guerra Fria econômica entre os Estados Unidos e a China, na qual ambas as superpotências (para não mencionar o resto do mundo) sentirão a dor por anos ou décadas, se não permanentemente.

A política já devastou cadeias de suprimentos críticas, perturbou os mercados e despertou tensões internacionais, tudo com a promessa de mais por vir. Os semicondutores, o “petróleo do século 21”, são um componente essencial em uma enorme gama de tecnologias de computação, e a disrupção decorrente dos controles de exportação inevitavelmente afetará, para pior, o curso de sua produção e inovação futuras.

A ideia por trás da política, no entanto, não surgiu do nada. Três anos antes de o atual governo emitir a regra, o Congresso já recebia extensos depoimentos a favor de algo parecido. O longo relatório de 2019 da Comissão de Segurança Nacional sobre Inteligência Artificial sugere inequivocamente que “os Estados Unidos devem se comprometer com uma estratégia para ficar pelo menos duas gerações à frente da China em microeletrônica de ponta” e

modernizar os controles de exportação e a triagem de investimentos estrangeiros para proteger melhor as tecnologias críticas de uso duplo – inclusive desenvolvendo capacidade regulatória e implementando totalmente as recentes reformas legislativas, implementando controles coordenados de exportação de equipamentos avançados de fabricação de semicondutores com aliados e expandindo os requisitos de divulgação para investidores de nações concorrentes.

O relatório da comissão faz referências repetidas aos riscos representados pelo desenvolvimento da IA ​​em regimes “autoritários” como o da China, prevendo consequências terríveis em comparação com pesquisa e desenvolvimento semelhantes realizados sob os auspícios da democracia liberal. (Sua preocupação em particular sobre a vigilância chinesa autoritária alimentada por IA é irônica, pois também exorta ameaçadoramente: “O [US] A Comunidade de Inteligência (IC) deve adotar e integrar recursos habilitados para IA em todos os aspectos de seu trabalho, desde a coleta até a análise.”)

Essas ênfases nos perigos da IA ​​moralmente desinformada não são acidentais. O chefe da comissão era Eric Schmidt, bilionário da tecnologia e colaborador do Future Forward, cujo empreendimento filantrópico Schmidt Futures tem laços profundos com a comunidade de longo prazo e um histórico de influência obscura sobre a Casa Branca na política científica. O próprio Schmidt expressou preocupação medida com a segurança da IA, embora tingida de otimismo, opinando que “cenários apocalípticos” de IA descontrolada merecem “consideração cuidadosa”. Ele também é co-autor de um livro sobre os riscos futuros da IA, com nada menos que um especialista em ameaças moralmente não controladas à vida humana do que o notório criminoso de guerra Henry Kissinger.

Também digno de nota é o membro da comissão Jason Matheny, CEO da RAND Corporation. Matheny é um ex-aluno do Future of Humanity Institute (FHI) da Universidade de Oxford, que afirmou que o risco existencial e a inteligência da máquina são mais perigosos do que qualquer pandemia histórica e “um tópico negligenciado nas comunidades científica e governamental, mas é difícil pensar em um tópico mais importante do que a sobrevivência humana.” Este relatório da comissão também não foi seu último testemunho ao Congresso sobre o assunto: em setembro de 2020, ele falaria individualmente perante o Comitê de Orçamento da Câmara pedindo “controles de exportação multilaterais sobre os equipamentos de fabricação de semicondutores necessários para produzir chips avançados”, para melhor preservar Domínio americano em IA.

Além disso, o testemunho no Congresso e sua posição na RAND Corporation não foram os únicos canais de Matheny para influenciar a política dos Estados Unidos sobre o assunto. Em 2021 e 2022, ele atuou no Gabinete de Política Científica e Tecnológica (OSTP) da Casa Branca como vice-assistente do presidente para tecnologia e segurança nacional e como vice-diretor de segurança nacional (chefe da divisão de segurança nacional do OSTP). Como uma figura sênior no Escritório – ao qual Biden concedeu “acesso e poder sem precedentes” – conselhos sobre políticas como os controles de exportação de outubro teriam se enquadrado perfeitamente em seu mandato profissional.

Igualmente importante, em janeiro de 2019, ele fundou o Centro de Segurança e Tecnologia Emergente (CSET) na Universidade de Georgetown, um think tank sobre questões nacionais que analistas amigáveis ​​descreveram como tendo o longo prazo “embutido em seu ponto de vista”. A CSET, desde a sua fundação, fez da segurança da IA ​​uma área de preocupação principal. Também não tem vergonha de vincular o assunto à política externa, particularmente ao uso de controles de exportação de semicondutores para manter a vantagem dos EUA na IA. Karson Elmgren, analista de pesquisa da CSET e ex-funcionário da OpenAI especializado em segurança de IA, publicou um trabalho de pesquisa em junho do ano passado, mais uma vez aconselhando a adoção de tais controles, e cobriu a regra de outubro favoravelmente na primeira edição da nova revista da EA. Asterisco.

Os defensores de restrições mais significativos (além de Matheny) que emergiram do CSET, no entanto, foram Saif Khan e Kevin Wolf. O primeiro é ex-aluno do Centro e, desde abril de 2021, diretor de tecnologia e segurança nacional do Conselho de Segurança Nacional da Casa Branca. Este último é membro sênior da CSET desde fevereiro de 2022 e tem uma longa história de serviços e conexões com a política de exportação dos EUA. Ele atuou como secretário adjunto de comércio para administração de exportação de 2010 a 2017 (entre outros trabalhos na área, tanto privados quanto públicos), e sua ampla familiaridade com o sistema de regulamentação de exportação dos EUA seria valiosa para qualquer pessoa que aspirasse influenciar a política sobre o assunto. . Ambos, antes e depois de outubro, defenderiam os controles de semicondutores.

Na CSET, Khan publicou repetidamente sobre o assunto, repetidamente pedindo aos Estados Unidos que implementassem controles de exportação de semicondutores para conter o progresso chinês na IA. Em março de 2021, ele testemunhou perante o Senado, argumentando que os Estados Unidos devem impor tais controles “para garantir que as democracias liderem em chips avançados e que sejam usados ​​para o bem”. (Paradoxalmente, ao mesmo tempo, o discurso conclama os Estados Unidos a “identificar oportunidades para colaborar com concorrentes, incluindo a China, para construir confiança e evitar rebaixamento” e “controlar rigidamente as exportações de tecnologia americana para violadores dos direitos humanos ”, como… China.)

Entre os co-autores de Khan estava mencionado o ex-congressista e candidato a longo prazo Carrick Flynn, anteriormente diretor assistente do Center for the Governance of AI da FHI. O próprio Flynn escreveu individualmente um resumo da CSET, “Recomendações sobre controles de exportação para inteligência artificial”, em fevereiro de 2020. O resumo, sem surpresa, defende uma regulamentação mais rígida de exportação de semicondutores, como Khan e Matheny.

Em fevereiro, Wolf também fez um discurso no Congresso sobre “Promovendo a Segurança Nacional e a Política Externa por meio de Sanções, Controles de Exportação e Outras Ferramentas Econômicas”, elogiando os controles de outubro e pedindo mais políticas na mesma linha. Nele, ele afirma conhecer as motivações específicas dos escritores dos controles:

O BIS não se baseou nas provisões de tecnologia fundamental e emergente da ECRA ao publicar esta regra para que não precisasse buscar comentários públicos antes de publicá-la.

Essas motivações também incluíam claramente exatamente os tipos de preocupações com IA que Matheny, Khan, Flynn e outros especialistas de longo prazo haviam levantado há muito tempo a esse respeito. Em seu resumo de fundo, o texto de uma regra vincula explicitamente os controles com a esperança de retardar o desenvolvimento da IA ​​na China. Usando uma linguagem que poderia facilmente ter sido extraída de um artigo da CSET sobre o assunto, o resumo adverte que “’supercomputadores’ estão sendo usados ​​pela RPC para melhorar os cálculos no projeto e teste de armas, incluindo armas de destruição em massa, como armas nucleares, hipersônicas e outras sistemas de mísseis avançados e para analisar os efeitos do campo de batalha”, além de reforçar a vigilância cidadã.

Os controles de exportação de Biden, incidentalmente, falharam espetacularmente em alcançar suas ambições declaradas. Apesar dos danos que os controles de exportação causaram nas cadeias de suprimentos globais, a pesquisa de IA da China conseguiu continuar em ritmo acelerado. Longe de garantir o domínio dos EUA na área, os controles de exportação de semicondutores aceleraram a fragmentação da comunidade internacional de pesquisa de IA em setores regionais independentes e concorrentes.

Os de longo prazo, em suma, desde pelo menos 2019 exerceram uma forte influência sobre o que se tornaria as regras de exportação de semicondutores de outubro de 2022 da Casa Branca de Biden. Se a política em si não é o produto direto de institucionais de longo prazo, pelo menos traz a marca de sua aprovação entusiástica e monitoramento próximo.

Assim como seria um erro restringir o interesse nas ambições políticas de longo prazo exclusivamente às campanhas eleitorais, seria míope tratar seu trabalho em infraestrutura de semicondutores como um incidente isolado. Khan e Matheny, entre outros, permanecem em posições de considerável influência e demonstraram o compromisso de trazer preocupações de longo prazo para questões de alta política. A sofisticação política, o alcance político e o entusiasmo renovado exibidos em suas manobras de exportação de semicondutores devem render ao lobby apocalíptico da IA ​​sua parcela justa de atenção crítica nos próximos anos.

Fonte: https://jacobin.com/2023/05/longtermism-new-cold-war-biden-administration-china-semiconductors-ai-policy

Deixe uma resposta