As Olimpíadas de Paris 2024 está atraindo os olhos do mundo enquanto milhares de atletas e pessoal de apoio e centenas de milhares de visitantes de todo o mundo convergem para a França. Não são apenas os olhos do mundo que estarão assistindo. Os sistemas de inteligência artificial também estarão assistindo.
Governos e empresas privadas usarão ferramentas avançadas de IA e outras tecnologias de vigilância para conduzir vigilância generalizada e persistente antes, durante e depois dos Jogos. O cenário mundial olímpico e as multidões internacionais representam riscos de segurança aumentados tão significativos que, nos últimos anos, autoridades e críticos descreveram as Olimpíadas como as “maiores operações de segurança do mundo fora da guerra”.
O governo francês, de mãos dadas com o setor privado de tecnologia, aproveitou essa necessidade legítima de maior segurança como base para implantar ferramentas de vigilância e coleta de dados tecnologicamente avançadas. Seus planos de vigilância para enfrentar esses riscos, incluindo o uso controverso de vigilância experimental por vídeo de IA, são tão extensos que o país teve que mudar suas leis para tornar a vigilância planejada legal.
O plano vai além dos novos sistemas de vigilância por vídeo de IA. De acordo com relatos de notícias, o gabinete do primeiro-ministro negociou um decreto provisório que é classificado para permitir que o governo aumente significativamente as ferramentas tradicionais de vigilância e coleta de informações secretas durante os Jogos. Isso inclui grampos telefônicos; coleta de geolocalização, comunicações e dados de computador; e captura de maiores quantidades de dados visuais e de áudio.
Sou professor de direito e advogado, e pesquiso, ensino e escrevo sobre privacidade, inteligência artificial e vigilância. Também forneço orientação jurídica e política sobre esses assuntos para legisladores e outros. Riscos de segurança aumentados podem e exigem vigilância aumentada. Este ano, a França enfrentou preocupações sobre suas capacidades de segurança olímpica e ameaças confiáveis em torno de eventos esportivos públicos.
Medidas preventivas devem ser proporcionais aos riscos, no entanto. Globalmente, os críticos alegam que a França está usando as Olimpíadas como uma tomada de poder de vigilância e que o governo usará essa justificativa de vigilância “excepcional” para normalizar a vigilância estatal em toda a sociedade.
Ao mesmo tempo, há preocupações legítimas sobre vigilância adequada e eficaz para segurança. Nos Estados Unidos, por exemplo, a nação está se perguntando como a vigilância de segurança do Serviço Secreto falhou em impedir uma tentativa de assassinato do ex-presidente Donald Trump em 13 de julho.
Vigilância em massa alimentada por IA
Habilitadas por leis de vigilância recentemente expandidas, as autoridades francesas têm trabalhado com as empresas de IA Videtics, Orange Business, ChapsVision e Wintics para implantar vigilância de vídeo de IA abrangente. Elas usaram a vigilância de IA durante grandes shows, eventos esportivos e em estações de metrô e trem durante períodos de uso intenso, incluindo em torno de um show de Taylor Swift e do Festival de Cinema de Cannes. Autoridades francesas disseram que esses experimentos de vigilância de IA foram bem e que as “luzes estão verdes” para usos futuros.
O software de IA em uso é geralmente projetado para sinalizar certos eventos, como mudanças no tamanho e movimento da multidão, objetos abandonados, a presença ou uso de armas, um corpo no chão, fumaça ou chamas e certas violações de trânsito. O objetivo é que os sistemas de vigilância detectem imediatamente, em tempo real, eventos como uma multidão avançando em direção a um portão ou uma pessoa deixando uma mochila em uma esquina movimentada e alertem o pessoal de segurança. Sinalizar esses eventos parece um uso lógico e sensato da tecnologia.
Mas as verdadeiras questões legais e de privacidade decorrem de como esses sistemas funcionam e estão sendo usados. Quantos e quais tipos de dados precisam ser coletados e analisados para sinalizar esses eventos? Quais são os dados de treinamento dos sistemas, taxas de erro e evidências de viés ou imprecisão? O que é feito com os dados depois que são coletados e quem tem acesso a eles? Há pouca transparência para responder a essas perguntas. Apesar das salvaguardas destinadas a impedir o uso de dados biométricos que podem identificar pessoas, é possível que os dados de treinamento capturem essas informações e os sistemas possam ser ajustados para usá-las.
Ao dar a essas empresas privadas acesso a milhares de câmeras de vídeo já localizadas em toda a França, aproveitando e coordenando as capacidades de vigilância de empresas ferroviárias e operadoras de transporte e permitindo o uso de drones com câmeras, a França está legalmente permitindo e apoiando essas empresas a testar e treinar software de IA em seus cidadãos e visitantes.
Vigilância em massa legalizada
Tanto a necessidade quanto a prática de vigilância governamental nas Olimpíadas não são nenhuma novidade. As preocupações com segurança e privacidade nas Olimpíadas de Inverno de 2022 em Pequim foram tão altas que o FBI pediu a todos os atletas que deixassem seus celulares pessoais em casa e usassem apenas um telefone descartável enquanto estivessem na China, devido ao nível extremo de vigilância governamental.
A França, no entanto, é um estado-membro da União Europeia. O Regulamento Geral de Proteção de Dados (GDPR) da UE é uma das leis de privacidade de dados mais fortes do mundo, e o AI Act da UE está liderando esforços para regular usos prejudiciais de tecnologias de IA. Como membro da UE, a França deve seguir a lei da UE.
Preparando-se para as Olimpíadas, a França promulgou em 2023 a Lei nº 2023-380, um pacote de leis para fornecer uma estrutura legal para as Olimpíadas de 2024. Ela inclui o controverso Artigo 7, uma disposição que permite que as autoridades policiais francesas e seus contratados de tecnologia experimentem vigilância por vídeo inteligente antes, durante e depois das Olimpíadas de 2024, e o Artigo 10, que permite especificamente o uso de software de IA para revisar feeds de vídeo e câmera. Essas leis fazem da França o primeiro país da UE a legalizar um sistema de vigilância alimentado por IA de amplo alcance.
Acadêmicos, grupos da sociedade civil e defensores da liberdade civil apontaram que esses artigos são contrários ao GDPR e aos esforços da UE para regular a IA. Eles argumentam que o Artigo 7 viola especificamente as disposições do GDPR que protegem dados biométricos.
Autoridades francesas e representantes de empresas de tecnologia disseram que o software de IA pode atingir seus objetivos de identificar e sinalizar esses tipos específicos de eventos sem identificar pessoas ou entrar em conflito com as restrições do GDPR em torno do processamento de dados biométricos. Mas organizações europeias de direitos civis apontaram que se o propósito e a função dos algoritmos e câmeras acionadas por IA são detectar eventos suspeitos específicos em espaços públicos, esses sistemas necessariamente “capturarão e analisarão características e comportamentos fisiológicos” das pessoas nesses espaços. Isso inclui posições corporais, marcha, movimentos, gestos e aparência. Os críticos argumentam que esses são dados biométricos sendo capturados e processados e, portanto, a lei da França viola o GDPR.
Segurança alimentada por IA – a um custo
Para o governo francês e as empresas de IA até agora, a vigilância de IA tem sido um sucesso mutuamente benéfico. Os observadores algorítmicos estão sendo mais usados e dão aos governos e seus colaboradores de tecnologia muito mais dados do que os humanos sozinhos poderiam fornecer.
Mas esses sistemas de vigilância habilitados por IA são mal regulados e sujeitos a pouco em termos de testes independentes. Uma vez que os dados são coletados, o potencial para mais análises de dados e invasões de privacidade é enorme.
Fonte: https://www.truthdig.com/articles/the-gold-in-ai-mass-surveillance-goes-to/?utm_source=rss&utm_medium=rss&utm_campaign=the-gold-in-ai-mass-surveillance-goes-to