2 horas atrás 1

ChatGPT ganha anúncios em plano grátis e pago; veja o que muda para você

A OpenAI anunciou nesta quinta-feira (16) a chegada de propagandas ao ChatGPT. Os anúncios serão exibidos para usuários do plano gratuito e do novo plano ChatGPT Go, de mensalidade mais acessível. Segundo a empresa, a medida permitirá que "mais pessoas possam se beneficiar de nossas ferramentas com menos limites de uso", embora nenhuma redução nos limites tenha sido anunciada.

Os anúncios aparecerão na área inferior do chat, logo acima da caixa de digitação, como sugestões de produtos relacionadas ao uso do assistente. A OpenAI garante que as propagandas serão claramente rotuladas, que anunciantes não terão acesso às conversas dos usuários e que as respostas do chatbot não serão influenciadas para exibir anúncios.

Usuários poderão limpar dados de uso que sugerem propagandas e desativar a personalização. Menores de 18 anos e conversas sobre temas sensíveis (política e saúde) não receberão anúncios. Para quem não quer ver propagandas, será necessário assinar os planos Plus, Pro ou Enterprise. O recurso começará a ser liberado nas próximas semanas nos Estados Unidos. Saiba mais sobre a seguir sobre a novidade e como ela muda a dinâmica de uso na prática.

 Mariana Saguias/TechTudo ChatGPT ganha anúncios em plano grátis e pago; veja o que muda para você — Foto: Mariana Saguias/TechTudo

Os riscos da propaganda em assistentes de IA

Apesar das garantias da OpenAI, a advogada Mariana Moreti, especialista em propriedade intelectual, alerta para riscos específicos da publicidade em assistentes de inteligência artificial. Segundo ela, a propaganda no ChatGPT cria um perigo diferente da publicidade tradicional inserida na Internet, por exemplo.

"Quando a resposta parece neutra, mas é influenciada por interesses comerciais, o usuário pode ser induzido ao erro, caracterizando publicidade velada", explica. Isso pode gerar responsabilidade civil por danos decorrentes de decisões técnicas, médicas, jurídicas ou financeiras baseadas em recomendações patrocinadas. Esse cenário também gera conflito de interesse informacional e ameaça a confiança no serviço.

Outro risco relevante é o uso de dados pessoais, muitas vezes sensíveis ou inferidos, para direcionamento de anúncios. Isso pode violar a LGPD (Lei Geral de Proteção de Dados) e potencializar manipulação emocional ou comportamental. "Para evitar que a IA se transforme em um mecanismo persuasivo sem transparência, seriam necessários mecanismos claros de rotulagem de conteúdo patrocinado, limitação de segmentação com dados sensíveis e auditoria externa de práticas comerciais", orienta Mariana.

Cuidados necessários a partir de agora

Diante do uso crescente de IA que coleta, cruza e infere dados pessoais, os cuidados passam a ser preventivos e estratégicos. O principal desafio é que o usuário muitas vezes não percebe o que está sendo deduzido sobre ele, segundo a advogada.

Para as empresas, o ponto central é não tratar dados inferidos como se fossem neutros. Eles exigem o mesmo nível de proteção que dados fornecidos diretamente e, quando tocam em temas sensíveis (saúde, sexualidade, religião, política, renda), devem seguir as regras do art. 11 da LGPD, com consentimento específico e finalidade clara. Empresas precisam adotar políticas que limitem o uso desses dados para segmentação comercial, reforcem critérios de minimização e garantam auditoria contínua dos algoritmos, evitando discriminação e manipulação comportamental.

Para os usuários, o cuidado passa por entender que o simples uso de ferramentas digitais permite que sistemas deduzam perfis íntimos, mesmo sem que essas informações sejam declaradas. Vale reduzir compartilhamento desnecessário, revisar políticas de privacidade, limitar permissões e desconfiar de personalizações muito específicas ou persuasivas. "A partir de agora o foco não é apenas proteger o que se diz, mas proteger o que pode ser descoberto sobre nós sem que percebamos", resume Mariana.

Que informações evitar compartilhar?

Com a ascensão de sistemas capazes de inferir características pessoais a partir de interações mínimas, há tipos de informação que passam a exigir autocontenção. Não se trata apenas de evitar dados óbvios, como CPF ou endereço, mas também conteúdos que revelam indiretamente aspectos sensíveis da vida.

Informações que merecem cuidado redobrado:

  • Descrição de sintomas de saúde em contextos não médicos
  • Relatos sobre dívidas ou dificuldades financeiras
  • Detalhes de rotinas de deslocamento
  • Menção a crenças religiosas ou preferências sexuais em ambientes sem finalidade específica

Imagens pessoais em plataformas desconhecidas

Esses elementos, somados ou processados por IA, podem ser transformados em dados inferidos sensíveis, com consequências como discriminação algorítmica, segmentação abusiva, publicidade invasiva e exploração emocional. "Em ambientes digitais, passa a ser mais seguro compartilhar apenas o necessário para a finalidade desejada e desconfiar de qualquer tecnologia que peça informação íntima sem motivo evidente", recomenda a advogada.

A partir de agora, o foco não é apenas proteger o que se diz, mas proteger o que pode ser descoberto sobre as pessoas sem que percebam. Isso exige atenção reforçada tanto de quem usa quanto de quem desenvolve tecnologia. A recomendação é compartilhar o mínimo possível de informações pessoais e sempre questionar por que uma plataforma precisa de determinado dado.

Veja também: ORKUT VAI VOLTAR???? Perguntamos para o criador da rede social!

ORKUT VAI VOLTAR???? Perguntamos para o criador da rede social!

ORKUT VAI VOLTAR???? Perguntamos para o criador da rede social!

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro