Geral

IA acelera desinformação e ameaça democracias, alerta pesquisa

Geral, inteligência artificial, IA, Desinformação, Democracia, Ameaça, Estudo

16/04/2026
IA acelera desinformação e ameaça democracias, alerta pesquisa

O rosto é igual. A voz, também. Mas a informação é suspeita. As ferramentas de inteligência artificial (IA) aumentam a necessidade de desconfiança dos conteúdos que cada um de nós recebe de diferentes formas, como em nenhum outro momento da história. Quem diz isso são os próprios profissionais que fazem a verificação da informação. Eles recomendam desconfiança. 

Um retrato disso está em um levantamento, divulgado nesta semana, feito a partir de 1.294 checagens profissionais em pelo menos dez idiomas, produzido pela Agência Lupa (veículo especializado nesse tipo de atividade). O mapeamento tem o título "O impacto da IA ​​no Fact-checking Global". 

Notícias relacionadas:

O resultado desse painel é que 81,2% dos casos de desinformação com tecnologias de inteligência artificial surgiram apenas nos últimos dois anos (entre janeiro de 2024 e março de 2026). Eleições, guerras e golpes foram os assuntos mais recorrentes. 

Segundo a gerente de inovação e formação da Agência Lupa, Cristina Tardáguila, a IA está redefinindo o campo de desinformação em escala global.

"A imensa maioria das peças que são comprovadas pelos verificadores acaba levando a etiqueta de falso ou de enganoso. A IA naturalmente tem sido feita para conteúdos verdadeiros", disse em entrevista à  Agência Brasil

Além de vídeos

Outra observação da pesquisadora, fundadora da Lupa, é que a desinformação chega ao público em diferentes formatos (além de vídeos, áudios curtos, fotos e textos). Uma preocupação é sobre o uso dessas tecnologias nos períodos eleitorais no mundo todo. Para ela, são utilizações que ameaçam a democracia. 

“Este é um ano eleitoral importante no Brasil e em outros parceiros da região”. Ela cita os processos nos Estados Unidos, no Peru, na Costa Rica e na Colômbia. Esse cenário vai impactar a vida dos checadores desses países e também dos participantes.

“Eles vão receber uma enxurrada de conteúdos com IA e com grande chance dessas peças serem, na verdade, grandes falsidades”, acrescenta.

Segundo ela, isso significa que o uso de IA para manipular conteúdos deixou de ser pontual e passou a integrar de forma permanente o ambiente de desinformação digital. O volume de verificações que flagraram esse tipo de mentira cresceu de 160 casos (em 2023) para 578 (em 2025). Até março deste ano, já havia 205 verificações.

Mentiras em diferentes idiomas

O estudo não tem recorte geográfico, mas linguístico. Em inglês, foram flagrados 427 casos de desinformação por IA e deepfakes (substituição de rosto e voz, por exemplo). Em espanhol, foram 198, e em português, 111. 

A pesquisadora defende que o mais importante neste momento é a propagação da educação midiática. Ela afirma que os projetos de verificação mundial fora apoiam legislações que buscam promover, incentivar e estimular a sociedade a compreender o que pode ser falso nas postagens. A educação midiática faria um papel semelhante ao de uma vacina. 

“A gente precisa que a vacina contra a desinformação, que é, na verdade, uma informação de qualidade, chegue antes para que as pessoas possam ser preparadas e resilientes quando elas virem a mentira em formato de IA”, ressalta Cristina Tardáguila.

Educação midiática como solução

 Para isso, ela vê a necessidade de uma política pública que contemple intervenção de educação midiática e alfabetização - habilidade de ler, escrever, interpretar e utilizar uma linguagem de forma eficiente . Esse seria um papel a ser implementado nas escolas com urgência. 

Além do papel do poder público, as empresas de comunicação tradicionais também podem colaborar, além das agências de verificação. “O importante é ressaltar que a verificação precisa seguir critérios fixos de transparência e rigor”. O estudo levou em conta as checagens publicadas e indexadas pelo Google no Fact Check Explorer (ferramenta de busca gratuita para verificação de informações desmentidas). 

"Não tenho a menor dúvida de que 2026 é um ano em que veremos cada vez mais IA. É bom que o brasileiro saiba disso, se prepare, esteja ativo e capaz de identificar a desinformação", respectivamente. 

A pesquisadora entende que qualquer cidadão pode fazer uma checagem quando tiver dúvida da legitimidade da informação que recebe. A própria Agência Lupa criou um curso gratuito para iniciantes