all-seeing eye

Governo gasta milhões em censura por meio de ‘ciência’

Governo financia programas abertamente projetados para 'externalizar a difícil responsabilidade da censura'

Yudi Sherman
  • A National Science Foundation alocou pelo menos US$ 13 milhões para programas de IA focados em eliminar a "desinformação", especialmente o conteúdo que "mina a confiança na mídia convencional"
  • Pesquisadores universitários receberam milhões para desenvolver ferramentas para suprimir informações sobre as eleições e as vacinas contra COVID-19
  • "Em especial, a equipe do MIT acreditava que os conservadores, as minorias e os veteranos eram incapazes de avaliar a veracidade do conteúdo online", diz relatório do Congresso
  • Ferramentas de censura de IA são um divisor de águas para o governo federal, que tem usado um processo manual de "troca" para suprimir o discurso online

O governo federal vem gastando milhões em ferramentas de censura baseadas em IA por meio da National Science Foundation (NSF), segundo revelou um relatório recente do Congresso.

Com um orçamento anual de quase US$ 10 bilhões e mais de 1.500 funcionários federais, a NSF financia 2.000 beneficiários anualmente e contribui com aproximadamente 25% do financiamento federal para pesquisa em universidades dos EUA. Em 2021 e 2022, a NSF distribuiu cerca de US$ 16 bilhões em subsídios.

Um relatório publicado na semana passada pelo Comitê Judiciário da Câmara e pelo Subcomitê Seleto sobre a Armamentização do Governo Federal revelou que a NSF alocou pelo menos US$ 13 milhões para várias tecnologias de censura. Esses programas, desenvolvidos principalmente por pesquisadores de universidades americanas, usam algoritmos de IA para eliminar a “má informação” e a “desinformação” online.

GEN crowdfunder banner ad

No entanto, embora esses termos sejam frequentemente usados como eufemismos para censura, os documentos mostram que os funcionários da NSF estavam cientes de que as ferramentas que estavam financiando seriam usadas para suprimir o discurso na Internet.

Quando a Universidade de Michigan apresentou sua ferramenta WiseDex ao NSF Convergence Accelerator, por exemplo, ela comercializou o programa como uma forma de as plataformas de mídia social “externalizarem a difícil responsabilidade da censura”. A NSF concedeu à universidade US$ 750.000 para o WiseDex.

O Co-Insights, uma ferramenta de censura desenvolvida pela organização sem fins lucrativos Meedan, foi projetado para “combater a desinformação online”. Como parte dessa missão, a Co-Insights prometia eliminar o conteúdo online que “minava a confiança na mídia convencional”. A NSF concedeu à Meedan US$ 5,75 milhões.

Pesquisadores da Universidade de Wisconsin-Madison apresentaram à NSF o CourseCorrect, um programa de IA voltado especificamente para “abordar[ing] as duas crises, a democrática e a de saúde pública, que os EUA enfrentam: ceticismo em relação à integridade das eleições americanas e hesitação em relação às vacinas contra COVID-19”. A NSF concedeu à universidade US$ 5,75 milhões para o CourseCorrect .

Da mesma forma, o Instituto de Tecnologia de Massachusetts (MIT) lançou o Search Lit, uma ferramenta que também se concentrava na supressão de conteúdo desfavorável sobre as eleições e as injeções contra COVID-19.

“Em particular, a equipe do MIT acreditava que os conservadores, as minorias e os veteranos eram incapazes de avaliar a veracidade do conteúdo online”, disse o relatório do Congresso.

O MIT recebeu US$ 750.000 para a plataforma Search Lit.

Essas foram apenas quatro ferramentas entre 12 apresentadas à NSF como parte de um programa lançado em março de 2021 chamado Trust & Authenticity in Communication Systems (Confiança e Autenticidade em Sistemas de Comunicação), para o qual foram alocados US$ 21 milhões em fundos do contribuinte.

Essas plataformas de censura automatizadas são um divisor de águas para o governo federal, que tem usado um processo manual de “switchboarding” para suprimir informações. Nesse processo, os funcionários da equipe “Mis-, Dis-, and Malinformation” da Cybersecurity and Infrastructure Security Agency (CISA) enviam conteúdo desfavorável aos executivos de mídia social, que os eliminam das plataformas. A CISA se envolveu nessa prática para as eleições de 2018 e 2020.

Durante o ciclo eleitoral de 2020, a CISA também fez uma parceria com a Universidade de Stanford, cujo programa Election Integrity Partnership (EIP) empregou cerca de 100 agentes que trabalhavam em turnos para vasculhar a Internet em busca de publicações desfavoráveis. A EIP sinalizou milhares dessas publicações dissidentes, que foram enviadas às plataformas de mídia social para remoção.

TAGGED: ,
Leave a comment

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *