O ChatGPT é uma ferramenta cada vez mais popular no dia a dia e pode ser usado para diversas tarefas. No entanto, existem alguns dados que, por questões de segurança, não devem ser compartilhados com o chatbot de inteligência artificial (IA) da OpenAI. Usuários que compartilham com a IA informações sigilosas, como senhas, dados pessoais e financeiros, arriscam sofrer com problemas de segurança e privacidade. Isso porque a ferramenta pode apresentar vulnerabilidades e deixar esses conteúdos confidenciais expostos na Internet, o que abre espaço para hackers e cibercriminosos acessarem as informações para aplicar golpes na web. Além disso, as informações enviadas para o ChatGPT são armazenadas e usadas para o próprio treinamento e aperfeiçoamento da IA. A seguir, confira sete coisas que você nunca pode enviar para o ChatGPT.
Lista aponta sete informações que você não deve enviar para o ChatGPT; confira — Foto: Mariana Saguias/TechTudo
Jamais revele informações pessoais ao ChatGPT, como nome completo, data de nascimento, entre outras — Foto: Reprodução/Unsplash Jamais revele informações pessoais ao ChatGPT, como nome completo, data de nascimento, CPF, endereço residencial, número de telefone e e-mails. Além disso, não envie documentos, como carteira de habilitação, passaporte, RG, certidão de nascimento ou de casamento, carteira de trabalho, entre outros. Ao expor esses dados confidenciais, a pessoa arrisca sofrer com vários problemas de segurança, como roubo de identidade e fraudes criadas por criminosos que podem usar as informações para aplicar golpes.
Em linhas gerais, se o usuário compartilha dados que podem identificá-lo, ele fica suscetível a possíveis falhas de segurança do ChatGPT. Essas vulnerabilidades podem entregar informações pessoais para cibercriminosos, que podem se passar pela vítima para acessar serviços, como contas bancárias, aplicativos de compras e realizar movimentações não autorizadas.
Não envie informações médicas para o ChatGPT — Foto: Reprodução/Canva As informações médicas também não devem ser compartilhadas com o ChatGPT. Se uma pessoa pedir para o chatbot analisar um exame, por exemplo, ela expõe uma informação que está protegida pela Lei Geral de Proteção de Dados Pessoais (LGPD). Por mais inofensivo que isso pareça, o chatbot de inteligência artificial da OpenAI não é um profissional de saúde e não deve ser utilizado para esse tipo de tarefa. Em caso de dúvida, consulte um especialista da área.
Dados como diagnósticos, histórico médico, exames, medicamentos ou tratamentos podem ser expostos a terceiros se forem enviados ao ChatGPT. Depois, essas informações podem ser acessadas, sem autorização, por empresas e pessoas, seja para fins comerciais ou até mesmo discriminatórios. Dessa forma, os profissionais de saúde prezam pela confidencialidade dos dados dos pacientes, mas o chatbot de IA não garante essa segurança e privacidade.
Nunca envie qualquer informação bancária para o ChatGPT — Foto: Divulgação/Xapo Nunca envie qualquer informação bancária para o ChatGPT, como números de cartões de crédito, senhas, extratos, aplicações, investimentos, pagamentos, transferências, entre outras. Caso pessoas mal-intencionadas acessem o bate-papo com a IA, é possível obter essas informações facilmente e usá-las em crimes cibernéticos e fraudes virtuais, como o phishing. Para garantir a segurança, sempre utilize meios criptografados e instituições confiáveis e seguras para realizar transações financeiras. Nunca envie informações financeiras para o ChatGPT ou qualquer outra IA para evitar danos, como transações fraudulentas, roubo em contas bancárias e investimentos, entre outras violações.
4. Credenciais de login e senhas
Jamais compartilhe senhas e credenciais de login com o chatbot de IA — Foto: Reprodução/Canva As senhas e credenciais de login, como e-mails e nomes de usuário, são chaves que dão acesso a serviços, plataformas e, consequentemente, informações pessoais na web. Por isso, não compartilhe esses dados confidenciais com o ChatGPT para evitar riscos de segurança e danos à privacidade. Caso essas informações sejam expostas, elas podem ser acessadas por terceiros sem autorização e usadas para fins maliciosos. Após compartilhados, os dados inseridos no chatbot estão fora do controle do usuário.
O chatbot de IA não é um local adequado para armazenar esse tipo de informação. Por isso, utilize um gerenciador de senhas caso queira guardar credenciais de login e os códigos para acessar diferentes plataformas. Também é importante criar senhas únicas e fortes para cada conta online, o que dificulta o acesso de hackers e habilita medidas de segurança extras, como a autenticação de dois fatores.
5. Informações corporativas
Evite enviar informações corporativas para a IA, especialmente se elas forem sigilosas — Foto: ilgmyzin/Unsplash Também é importante tomar cuidado ao utilizar o ChatGPT para tarefas de trabalho. Não é indicado enviar determinadas informações corporativas sigilosas para o chatbot, como senhas, dados de clientes ou da própria empresa, projetos, lançamentos, entre outros conteúdos relacionados. Às vezes, mesmo que a pessoa use a IA para escrever e-mails, ler relatórios ou outra tarefa mais simples, o usuário arrisca expor dados particulares e violar as regras de confidencialidade.
Assim como acontece com as informações pessoais, os dados corporativos também podem ser expostos às pessoas mal-intencionadas, o que pode comprometer a reputação da empresa e violar a confiança, problemas legais e causar prejuízos para a organização. Então, caso queira utilizar o ChatGPT para atividades da rotina de trabalho, certifique-se de compartilhar somente os conteúdos necessários com o chatbot.
6. Conteúdos ilegais ou antiéticos
Não use o ChatGPT para fins antiéticos ou ilegais, como geração de deepfake e outras atividades fraudulentas — Foto: Divulgação/Getty Images Os usuários também não devem usar o ChatGPT para enviar conteúdos ilegais ou antiéticos. Por exemplo, não é recomendado fazer perguntas ou pedir ajuda para o chatbot de inteligência artificial relacionadas a atividades fraudulentas, golpes, crimes, manipulação de imagens e vídeos, disseminação de fake news ou qualquer outra ação deste tipo. Ao usar a IA, o usuário expõe informações que podem ser acessadas por outras pessoas. Dessa forma, a tentativa de utilizar a ferramenta para realizar atividades ilegais pode resultar na denúncia dos usuários às autoridades locais.
Essas medidas podem mudar conforme a região. Por exemplo, na China, é proibido usar IA para prejudicar a autoridade estatal ou a estabilidade social, enquanto na União Europeia, a lei estabelece que imagens ou vídeos deepfake gerados por IA devem ser sempre identificados. No Reino Unido, há uma lei que considera crime compartilhar imagens explícitas geradas por IA sem consentimento.
7. Informações de propriedade intelectual
Nunca envie materiais de propriedade intelectual ChatGPT — Foto: Getty Images Por fim, nunca utilize o ChatGPT para compartilhar materiais ou informações de propriedade intelectual, como ideias patenteadas e materiais protegidos por direitos autorais e segredos comerciais. Se uma pessoa envia esse tipo de conteúdo para o chatbot de inteligência artificial, ele pode ser roubado e utilizado sem autorização, o que fere os direitos dos criadores e das organizações que são donas do material.
Portanto, é fundamental proteger a propriedade intelectual para preservar os direitos autorais e o valor comercial dos conteúdos. Expor ideias e conceitos sem autorização pode levar a vários danos, como disputas na justiça e consequências financeiras. Logo, para manter a segurança dos trabalhos criativos e evitar problemas, jamais envie esse tipo de material ao ChatGPT.
Veja também: 3 jeitos de fazer o ChatGPT trabalhar para você — e virar o funcionário do mês
3 jeitos de fazer o ChatGPT trabalhar para você — e virar o funcionário do mês

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
8 meses atrás
22

/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2026/l/l/7cW4dCSvOC6z9gpKKZuA/fotojet-100-2-.jpg)

/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/0/T/uB6QAYTBG2YqErRTVbkQ/afp-20251209-87hr3z7-v2-midres-topshotaustraliainternetban.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro