Maliciosos enganam ChatGPT e Perplexity com informações falsas

Conheça os riscos de informações falsas repassadas por IAs. Entenda como os hackers estão manipulando dados que chegam ao usuário.
29/10/2025 às 20:41 | Atualizado há 2 semanas
               
Ataques de envenenamento de contexto
Hackers agora usam IAs para difundir desinformação sem proteção adequada. (Imagem/Reprodução: Tecmundo)

Uma nova ameaça de cibersegurança está emergindo, visando assistentes virtuais como ChatGPT e Perplexity. Os hackers utilizam a técnica de “envenenamento de contexto” para manipular informações. Isso significa que os robôs de IA acabam recebendo dados falsos, enquanto os usuários veem páginas legítimas.

A estratégia de “ocultação direcionada a IA” permite que os infratores enganem as inteligências artificiais, que repassam informações não verificada aos usuários. Essa prática compromete a integridade das informações, uma preocupação crescente entre especialistas em cibersegurança.

À medida que mais pessoas usam assistentes virtuais para busca de dados, a manipulação de informações se torna uma séria ameaça. A necessidade de um maior controle e segurança é vital para que a confiança no uso dessas tecnologias não seja comprometida.
“`html

Uma nova ameaça de cibersegurança foi descoberta, visando Ataques de envenenamento de contexto em navegadores web agênticos como o ChatGPT Atlas da OpenAI. A tática envolve a exibição de conteúdo falso para robôs de IA, enquanto usuários humanos visualizam páginas normais, criando uma armadilha digital sofisticada.

Essa estratégia, conhecida como “ocultação direcionada a IA”, engana os robôs do ChatGPT e Perplexity, apresentando versões manipuladas de sites. Ao coletar informações falsas, esses robôs repassam dados não verificados aos usuários, comprometendo a integridade das informações.

Especialistas estão preocupados com o crescente uso do ChatGPT como ferramenta de busca, onde 24,4% das interações envolvem pesquisa de informações. Hackers podem explorar essa tendência para disseminar informações tendenciosas, influenciando um grande número de usuários simultaneamente.

A empresa SPLX, responsável pela descoberta da vulnerabilidade, alerta para essa nova fronteira da desinformação. Ao contrário das fake news tradicionais, os Ataques de envenenamento de contexto exploram a confiança que os usuários depositam nas IAs, que apresentam informações falsas como verdades absolutas.

Uma pesquisa recente do grupo hCaptcha revelou que assistentes virtuais podem executar ações perigosas com facilidade, como hackear contas e injetar códigos maliciosos. Muitas vezes, essas ações ocorrem sem que haja bloqueios de segurança eficazes.

As tentativas de invasão, quando falham, geralmente são devido a limitações técnicas das ferramentas, e não ao reconhecimento do perigo. Especialistas alertam que essas tecnologias estão sendo lançadas sem as devidas precauções, representando riscos para usuários e para a integridade das informações online.

Essa técnica de “ocultação direcionada a IA” é uma armadilha digital, onde o sistema detecta automaticamente a visita de um robô e serve uma versão manipulada da página. Essa manipulação pode levar a sérias consequências, uma vez que as IAs repassam informações falsas como se fossem fatos verificados.

Os Ataques de envenenamento de contexto representam uma nova forma de desinformação, com potencial para influenciar um número significativo de usuários. A confiança depositada nas IAs como fontes de informação torna essa técnica particularmente perigosa.

A combinação de informações falsas e a execução de ações perigosas por assistentes virtuais sem as devidas salvaguardas exige atenção redobrada. A segurança e a integridade das informações online estão cada vez mais ameaçadas pela falta de precaução no lançamento dessas tecnologias.

A rápida disseminação de informações falsas através de IAs exige o desenvolvimento de mecanismos de segurança mais robustos. É fundamental que os usuários estejam cientes dos riscos e busquem fontes de informação confiáveis para evitar serem enganados.

Diante desse cenário, é crucial que desenvolvedores e empresas de tecnologia implementem medidas de segurança eficazes para proteger os usuários e garantir a integridade das informações. A conscientização e a educação dos usuários também são essenciais para combater a desinformação.

O desenvolvimento de novas tecnologias deve ser acompanhado de rigorosos testes de segurança e da implementação de salvaguardas adequadas. A negligência nesse aspecto pode ter graves consequências para a sociedade, comprometendo a confiança nas informações e a segurança dos usuários.

Os Ataques de envenenamento de contexto e as ações perigosas de assistentes virtuais revelam a importância de uma abordagem responsável no desenvolvimento e lançamento de novas tecnologias. A segurança e a integridade das informações devem ser prioridades, visando proteger os usuários e garantir a confiabilidade do ambiente online.

Via TecMundo

“`

Sem tags disponíveis.
Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.