
Seu Chatbot Anda Falando Chinês... Propaganda?
Fala meu povo, Oldaque Rios na área para mais um papo sobre IA. E a notícia que apareceu no meu RSS hoje é daquelas que fazem a gente parar para pensar. Estava lendo num artigo do site Artificial Intelligence News que parece que nossos amiguinhos chatbots, desses famosões que a gente usa todo dia, andam meio que... papagaiando a propaganda do Partido Comunista Chinês (PCC).
Parece brincadeira, né? Mas a coisa é séria. Um relatório da American Security Project investigou ChatGPT, Copilot, Gemini, DeepSeek e Grok, fazendo perguntas sobre assuntos sensíveis para a China, tipo a origem da COVID-19, a situação em Hong Kong, ou o que rolou na Praça Tiananmen em 1989. E o resultado? Dependendo da pergunta e, olha só, da língua usada (Inglês vs. Chinês Simplificado), as respostas variavam de fatos reconhecidos para algo que parecia saído direto do noticiário estatal chinês.
Por Que Nossos Chatbots Estão Ficando 'Vermelhos'?
A explicação, segundo o relatório, volta pra base de tudo: os dados de treinamento. Sabe aquele marzão de informação da internet que as IAs usam para aprender? Pois é, esse marzão tá contaminado. O PCC não é bobo, investe pesado em táticas de desinformação, criando conteúdo falso ou enviesado em várias línguas, se passando por gente e organizações normais. Isso inunda a internet e, consequentemente, a base de dados que alimenta os modelos de IA.
Imagina que você tá aprendendo sobre o mundo lendo tudo que aparece pela frente, sem filtro. Uma hora, você vai acabar lendo um monte de bobagem disfarçada de verdade. É mais ou menos isso que acontece com a IA, só que numa escala gigantesca. Os desenvolvedores precisam fazer um trabalho contínuo para tentar corrigir isso, mas o volume de desinformação é absurdo.
Casos como esse sempre rendem conversas interessantes sobre como a qualidade e a fonte dos dados são cruciais para qualquer solução de IA, seja um modelo gigante ou uma automação simples que faço para uma empresa. Aliás, se você quiser trocar ideia sobre os desafios e oportunidades de usar IA no mundo real, clica no link para entrar em contato e vem pra comunidade IA Overflow. É exatamente esse tipo de discussão que acontece por lá.
Os Exemplos Que Acendem o Alerta
O relatório traz uns exemplos que são bem claros. Sobre a origem da COVID, por exemplo, em inglês, alguns modelos citavam o mercado de Wuhan e até a teoria do vazamento do laboratório. Em chinês? Sumia tudo, virava um 'mistério sem solução' ou focava em testes positivos em outros países antes de Wuhan. Pura narrativa do PCC.
Sobre Hong Kong, em inglês, a maioria reconhecia a diminuição das liberdades civis. Em chinês, alguns modelos mudavam o foco para a liberdade econômica (sim, o Copilot chinês deu dicas de viagem!). Sobre Tiananmen, em inglês usavam termos como 'crackdown', mas ainda assim reconheciam o evento de 4 de junho de 1989. Em chinês, virava 'O Incidente de 4 de Junho', um termo usado pelo governo, e as descrições eram bem mais amenas, focando nos 'protestos' e na 'decisão do governo de usar força' sem mencionar vítimas ou massacres.
O Grok, do Elon Musk, foi o que se mostrou mais crítico às narrativas chinesas no estudo, enquanto o Copilot da Microsoft, que opera forte na China, foi apontado como o mais propenso a apresentar propaganda como verdade ou informação equivalente.
O Peso do Realismo
Isso mostra duas coisas na minha visão, que sempre prezo pelo realismo e pela eficiência. Primeiro, que IA não é mágica. Ela reflete os dados que a treinam. Se os dados estão sujos, a IA também fica. Segundo, a geopolítica e os interesses comerciais têm um impacto GIGANTE na tecnologia. Empresas que operam na China têm que seguir as leis de lá, que incluem 'defender os valores socialistas'. Isso afeta diretamente como os modelos se comportam.
Trabalho com IA focando em soluções práticas, a tal da Vertical AI, que resolve problemas específicos de negócios. E mesmo nesse universo mais 'pé no chão', a gente lida com a qualidade e o viés dos dados o tempo todo. Se na base a informação não é confiável, o resultado não será.
E Agora, José?
O relatório conclui que ter acesso a dados de treinamento confiáveis e verificáveis é URGENTE. E eu concordo. Numa era onde a desinformação é uma arma poderosa, a IA pode virar um megafone para narrativas perigosas se não tivermos cuidado com a base de dados. A 'sincronização' da IA com valores de um adversário pode minar instituições democráticas e até a segurança nacional, alerta o relatório.
Minha formação em Engenharia Civil e minha experiência em negócios me ensinaram que um bom projeto começa com um bom alicerce. Na IA, esse alicerce são os dados. Se a base tá podre, a estrutura toda corre risco.
É um cenário complexo, mas que reforça a importância de sermos críticos com as informações que recebemos, de qualquer fonte, inclusive das IAs. Em Deus nós confiamos, o resto me tragam dados. E que esses dados sejam bons, por favor!
É isso, meu povo. Fiquem espertos e vamos debater esses assuntos na comunidade. Forte abraço e até a próxima!