Perigos do ChatGPT: 5 Frases que Você Nunca Deve Usar com a Inteligência Artificial

Descubra 5 cuidados essenciais ao interagir com o ChatGPT e proteja suas informações.
10/04/2025 às 05:32 | Atualizado há 4 meses
Perigos do ChatGPT
Dados na plataforma da OpenAI podem ser vulneráveis a vazamentos e consultas externas. (Imagem/Reprodução: Forbes)

O Perigos do ChatGPT e outros chatbots de inteligência artificial (IA) têm sido amplamente discutidos, especialmente no que tange à privacidade e segurança dos dados dos usuários. Com milhões de pessoas utilizando essas ferramentas diariamente, é crucial estar ciente dos riscos envolvidos ao compartilhar informações sensíveis em plataformas de nuvem pública. A seguir, exploraremos algumas das principais preocupações e o que você deve evitar ao interagir com essas IAs.

Um dos grandes Perigos do ChatGPT reside na possibilidade de exposição de dados pessoais. A OpenAI, criadora do chatbot, não garante a segurança das informações inseridas, que podem ser utilizadas para aprimorar os modelos de IA e até mesmo revisadas por humanos. Isso significa que qualquer dado compartilhado pode ser considerado público, aumentando o risco de uso indevido.

Outro ponto crítico são os pedidos ilegais ou antiéticos feitos ao chatbot. A maioria das IAs possui mecanismos de proteção para evitar o uso em atividades ilícitas. Solicitações que envolvam crimes, fraudes ou manipulação podem levar a sérias consequências legais, dependendo da legislação local. A China, por exemplo, proíbe o uso de IA para minar a estabilidade social, enquanto o Reino Unido pune a disseminação de imagens explícitas geradas por IA sem consentimento.

Jamais compartilhe logins e senhas em chatbots públicos. Com a crescente capacidade das IAs de se conectarem a serviços de terceiros, a tentação de fornecer dados de acesso pode ser grande. No entanto, essa prática é extremamente arriscada, pois há pouco controle sobre o destino dessas informações. Já houve casos em que dados pessoais de um usuário foram exibidos para outros, transformando a situação em um pesadelo de privacidade.

Informações financeiras, como números de contas bancárias e cartões de crédito, também devem ser mantidas longe dos chatbots. Esses dados são mais seguros em sistemas protegidos, como os utilizados para comércio eletrônico e serviços bancários online, que contam com criptografia e exclusão automática de dados. Os chatbots não oferecem as mesmas garantias de segurança, tornando o compartilhamento dessas informações um risco desnecessário.

A proteção de informações confidenciais é um dever de todos. Profissionais como médicos, advogados e contadores são legalmente obrigados a manter o sigilo de seus clientes. Da mesma forma, funcionários devem proteger documentos corporativos, como atas de reuniões e registros de transações. Compartilhar esses dados com o ChatGPT, mesmo que tentador, pode ser considerado uma violação de segredos comerciais, como ocorreu com funcionários da Samsung em 2023.

Informações médicas merecem atenção redobrada. Embora seja tentador usar o ChatGPT para diagnosticar problemas de saúde, essa prática deve ser evitada. As recentes atualizações do chatbot permitem que ele “lembre” de interações e conecte informações de diferentes conversas, mas nenhuma dessas funções oferece garantias de privacidade. Para empresas da área de saúde, o compartilhamento de dados de pacientes pode resultar em multas pesadas e danos à reputação.

Como regra geral, considere que nada do que você compartilha na internet é totalmente privado. Portanto, evite divulgar no ChatGPT qualquer informação que você não se sentiria confortável em ver publicada para o mundo. A segurança e a privacidade dos seus dados dependem da sua prudência ao utilizar essas ferramentas.

Via Forbes Brasil

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.