Comunicação científica na era da IA e o dilema da confiança

Vivemos um momento em que a tecnologia dita o ritmo das nossas rotinas, e a Inteligência Artificial se consolida como uma das forças mais disruptivas da atualidade. No campo da comunicação científica, sua presença abre caminho para novas formas de produzir e divulgar conhecimento, acelerando a criação de textos e imagens e tornando o processo mais ágil e eficiente.

Mas junto com as possibilidades, surge também uma inquietação: até que ponto é possível preservar a confiança do público na ciência quando a própria IA passa a ser uma mediadora constante dessa mensagem?

A confiança interpessoal é um dos pilares do aprendizado e da exploração de novos temas. Nesse contexto, comunicadores científicos têm a missão de traduzir conceitos complexos e o jargão acadêmico em mensagens claras e acessíveis para o público geral. A tecnologia desponta como uma aliada valiosa nesse processo, especialmente com o avanço de sistemas inteligentes capazes de automatizar tarefas como tradução de idiomas e distribuição de conteúdos.

Esses recursos também permitem adaptar mensagens a diferentes perfis de leitores, ampliando o alcance e o impacto da ciência. Imagine transformar um artigo denso em uma narrativa mais simples ou condensar grandes volumes de dados em informações objetivas e fáceis de compreender. Com esse apoio, a comunicação científica pode se tornar mais acessível, envolvente e próxima de quem busca conhecimento.

Mas essa integração não vem sem riscos. O uso indiscriminado dessa ferramenta pelos comunicadores pode gerar a sensação de engano e até de traição, afastando leitores que buscam informações confiáveis sobre ciência. Quando o público percebe que o conteúdo não nasce do conhecimento humano, mas sim de um sistema artificial, a credibilidade pode rapidamente se fragilizar.

Outro ponto de atenção é a possibilidade de essas tecnologias reproduzirem — e até ampliarem — distorções já presentes nos dados com que foram treinadas. Isso abre espaço para vieses, desinformação e até erros factuais, corroendo a confiança nas instituições científicas.

Soma-se a isso o chamado “viés de confirmação”: a tendência de aceitar com mais facilidade informações que reforçam crenças já existentes. Se o material produzido por algoritmos soar plausível e estiver alinhado ao senso comum, mesmo quando incorreto, o público tende a aceitá-lo sem questionar — um terreno fértil para a propagação de falsas certezas.

Ao longo dos anos, a comunicação científica passou por transformações profundas, desde revistas especializadas e programas de rádio do século XX à explosão da internet e, mais recentemente, ao poder das redes sociais, que deram voz a milhões de pessoas e a capacidade de moldar a opinião pública em tempo real.

Esse avanço, porém, veio acompanhado de novos e complexos desafios. Casos como o escândalo do vazamento de dados do Facebook para a Cambridge Analytica, o uso de bots e as chamadas “fazendas de likes” expuseram um ambiente digital marcado por manipulação e artificialidade. O resultado é a criação de bolhas de informação — e desinformação — que fortalecem narrativas enviesadas e alimentam a ascensão de “influenciadores falsos”.

Para mostrar como sistemas automatizados podem moldar a percepção da realidade, publiquei um estudo na revista Real-World AI Systems no qual recorri a uma ferramenta generativa para criar imagens. Duas delas simulavam fatos plausíveis, mas artificialmente gerados: uma retratava o ex-presidente Jair Bolsonaro passando a faixa presidencial a Luiz Inácio Lula da Silva em uma cerimônia simbólica; a outra mostrava um rover da NASA examinando o que parecia ser um fóssil em Marte.

Para um olhar desatento, ambas poderiam facilmente ser confundidas com registros autênticos. No caso da transição de faixa, trata-se de um gesto esperado em democracias, o que torna a manipulação mais convincente. Já a cena do suposto fóssil dialoga com o desejo coletivo de acreditar em grandes descobertas, o que aumenta seu poder de persuasão.

O risco de erosão da confiança seria enorme caso tais imagens circulassem como fato antes de serem desmentidas. No mesmo experimento, também foram geradas composições de caráter evidentemente fantasioso: Bolsonaro e Lula juntos em uma montanha-russa e, em outra cena, uma família de astronautas fazendo piquenique em Marte sem capacetes. Ao contrário das anteriores, essas representações claramente fictícias deixam claro seu propósito lúdico, sem intenção de enganar.

A comparação entre os dois conjuntos de imagens evidencia o dilema central: a mesma tecnologia pode tanto dar origem a falsidades perigosas quanto a criações inofensivas de caráter lúdico. Esse contraste reforça a importância do comunicador científico como curador ético, transparente e responsável na mediação entre ciência e sociedade. A responsabilidade de verificar informações, fornecer contexto e ser claro sobre o uso dessas ferramentas é decisiva para manter a credibilidade diante do público.

A transparência, nesse contexto, é indispensável. O leitor precisa saber quando determinado conteúdo contou com apoio de IA e de que maneira isso ocorreu. Informar qual ferramenta foi utilizada, com que propósito — seja para assistência linguística, pesquisa de literatura, geração de texto não-original — e até que ponto influenciou o resultado contribui para reduzir ruídos e fortalecer a confiança.

Compartilhar esses detalhes permite que o público compreenda tanto as limitações quanto às possíveis influências da IA no processo de pesquisa, promovendo uma comunicação científica mais responsável e confiável.

Fortalecer a confiança na comunicação científica passa, antes de tudo, pela construção de pontes entre o vocabulário técnico da ciência e a compreensão do público em geral. O desafio é tornar temas complexos acessíveis sem abrir mão do rigor. Metáforas e analogias podem ser grandes aliadas, desde que usadas com cautela, para evitar distorções ou interpretações equivocadas.

Nesse processo, a educação básica desempenha um papel crucial, quanto mais cedo as crianças são estimuladas ao pensamento crítico, maior a capacidade de compreender o método científico e de lidar com informações de forma questionadora e responsável.

Mas comunicar ciência vai além da clareza: exige conexão humana. É aí que a inteligência artificial surge como um recurso promissor. Ela pode acelerar a produção de conteúdos, ampliar o alcance de pesquisas e aproximar a ciência do público.

Porém, seu uso não está isento de dilemas éticos. Para que cumpra esse papel sem corroer a confiança, é preciso garantir transparência, supervisão humana e cuidado com vieses. A IA deve ser vista como suporte, não substituto. Afinal, ética, discernimento e autenticidade continuam sendo atributos insubstituíveis quando se trata de traduzir conhecimento científico para a sociedade.

* Diego Nogare é tem mais de 20 anos de experiência na área de Dados, com foco em Inteligência Artificial e Machine Learning desde 2013. Ao longo da carreira, passou por grandes empresas como Microsoft, Deloitte, Bayer e Itaú. Neste último, liderou a estratégia de migração da plataforma de IA para a nuvem, entregando uma solução de desenvolvimento de IA fim a fim para todo o banco. Este artigo foi publicado numa versão mais extensa em inglês na revista científica Real-World AI Systems

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima

Obrigado por escolher a Melhor!

Escolha a cidade que deseja atendimento!