No início do ano, um rumor indicava que Sam Altman, CEO da OpenAI, considerou oferecer acesso gratuito ao ChatGPT Plus, modelo mais avançado da inteligência artificial, a todos os cidadãos do Reino Unido. Esse boato percorreu os círculos de tecnologia e política e, embora a especulação não tenha se concretizado ainda, ela acendeu um debate global sobre as consequências de tornar as IAs mais poderosas universalmente acessíveis. De um lado, a IA serviria como grande equalizador social, capaz de democratizar o conhecimento e a produtividade. Contudo, existe o risco da ferramenta ter o potencial para industrializar a desinformação e aprofundar desigualdades. Para analisar a questão, o TechTudo conversou com especialistas para entender os riscos e potenciais benefícios do acesso universal ao ChatGPT.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/f/Z/wAAOeISvGJecmVB0osew/400395744-1-1200x800.jpg)
Veja o que você precisa saber sobre a possibilidade do ChatGPT Plus ser liberado gratuitamente:
- Benefícios do ChatGPT Plus ser público
- Riscos do acesso universal: desinformação e privacidade
- A ameaça invisível: a IA como arma para o cibercrime
- O acesso universal é possível? Viabilidade e modelos de negócio
- O futuro da IA: regulação e a busca pelo equilíbrio
1. Benefícios do ChatGPT Plus ser público
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/T/6/eYmaxQQHKlznZDKuevCA/chat-e-copilot.jpg)
A principal narrativa otimista em torno da democratização da IA generativa é o seu potencial como um "grande equalizador social". A universalização de ferramentas como o ChatGPT Plus poderia transformar cada smartphone em um tutor pessoal, o que permitiria uma educação personalizada em escala massiva. Para a pesquisadora Michele Nogueira, doutora em Ciência da Computação e pesquisadora na área de Cibersegurança e IA pela UFMG, o principal benefício é o “acesso à tecnologia. Essa é uma tecnologia extremamente potente que se bem usada pode automatizar uma série de atividades, apoiar decisões, oferecer perspectivas e auxiliar de forma significativa a educação”.
No campo profissional, o impacto na produtividade seria imenso. O advogado especialista em Direito Digital Pedro Sanches explica que a democratização da IA “tende a oferecer ganho de eficiência sem precedentes para diversas áreas”. Ele cita exemplos práticos: “advogados podem acelerar a pesquisa de doutrinas, médicos podem obter diagnósticos mais rápidos e precisos, programadores podem otimizar códigos, e pesquisadores podem analisar grandes volumes de dados em segundos. Essa automação de tarefas rotineiras libera capital intelectual para atividades mais estratégicas e inovadoras”.
Essa visão é compartilhada por Nogueira, que acredita que a ferramenta “facilitaria atividades corriqueiras” e permitiria “igualar um pouco mais o acesso [...] por pessoas independente de sua classe social”. Para Sanches, a IA também pode superar barreiras linguísticas e simplificar conteúdos complexos, tornando o conhecimento mais acessível a todos e fortalecendo o exercício de direitos fundamentais, como o acesso à informação e à educação.
2. Riscos do acesso universal: desinformação e privacidade
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/g/p/l0FAyDTdiQ4p3M6ErOKw/rawww-google-ai-header-1-2048x1092.jpg)
Apesar do potencial positivo, o acesso irrestrito a IAs avançadas traz riscos jurídicos e de privacidade significativos. Para o especialista em direito digital Pedro Sanches, o perigo não reside na ferramenta em si, mas na forma como os usuários interagem com ela. Um dos maiores riscos é a quebra de confidencialidade. Isso pode acontecer quando as informações dadas pelo ChatGPT estão incorretas ou são parte de uma "alucinação", isto é, uma informação factualmente incorreta, mas com aparência de verdade. Ele cita como exemplo o caso de um advogado multado por usar jurisprudência "fabricada" por uma IA em uma petição, demonstrando que a falha humana em validar os dados é um risco central.
A professora Michele Nogueira complementa, apontando que as principais preocupações em relação à privacidade são o “vazamento dos dados usados nos treinamentos e também vazamentos dos dados no uso da ferramenta”, além da manipulação e dos vieses que podem ser gerados a partir dessas informações.
Embora a desinformação seja uma preocupação, Nogueira tem uma visão contraintuitiva sobre o tema. “Não vejo a desinformação como um dos maiores problemas resultantes de uma disponibilização gratuita da ferramenta. A IA generativa pode, sim, potencializar a geração de fake news, porém a propagação é mais reforçada pelas mídias sociais do que pela IA generativa em si”, afirma a especialista em cibersegurança.
Para ela, o problema mais grave não é a criação da mentira, mas a velocidade com que as plataformas atuais a espalham, um desafio que antecede a IA generativa. Isso gera uma complicação em diversos setores, afinal, a fake news é entregue mais rápido do que a análise que a desmente.
3. A ameaça invisível: a IA como arma para o cibercrime
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/q/x/dsNn0vSBSDtTR2It5qmA/pexels-rdne-6415563.jpg)
Além da desinformação, um risco mais técnico e direto do acesso universal à IA é o seu uso como uma ferramenta para potencializar ataques cibernéticos. A mesma tecnologia que pode ser usada para otimizar códigos de programação para o bem, pode ser usada para criar malwares mais sofisticados. Para a especialista em cibersegurança, esta é uma das ameaças mais graves e imediatas, especialmente para o Brasil, onde os ataques de engenharia social já são um problema crônico.
A pesquisadora alerta que a IA pode ser usada para a “geração de mais malwares (vírus, phishing, ransomware) eficientes e potentes, como phishings mais realistas que possam ludibriar com maior facilidade as pessoas e capturar seus dados”. Segundo ela, como os ataques de phishing já são a principal ameaça no país, o uso de IA para torná-los mais convincentes certamente fará muito mais vítimas por meio de golpes.
No entanto, os riscos vão além dos golpes contra o usuário comum e atingem a segurança de sistemas complexos. Nogueira explica que a IA também pode ser usada para a “descoberta automatizada e mais rápida de vulnerabilidades de segurança no sistema e a descoberta rápida de vulnerabilidade do dia zero (zero-day)”. Uma vulnerabilidade "zero-day" é uma falha de segurança desconhecida pelo fabricante do software, o que a torna extremamente perigosa, pois não existem defesas ou correções para ela. A capacidade da IA de encontrar essas brechas em alta velocidade representa uma nova e poderosa arma para cibercriminosos.
4. O acesso universal é possível? Viabilidade e modelos de negócio
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/i/y/BnILxDQFq0xA0ETDesLQ/em-seguida-clique-no-botao-copiar-ou-toque-no-codigo-do-cupom-desejado-para-copia-lo-5-.png)
A ideia de um acesso gratuito e ilimitado ao ChatGPT Plus esbarra em uma dura realidade: a infraestrutura por trás da IA é extraordinariamente cara. A operação de modelos de linguagem de grande escala requer data centers massivos, equipados com dezenas de milhares de GPUs de alto desempenho, cujo custo individual pode chegar a dezenas de milhares de dólares. Além do hardware, há os custos contínuos com o imenso consumo de energia e água para refrigeração, tornando a noção de um serviço totalmente gratuito economicamente insustentável.
Diante disso, o modelo de negócio provável para a maioria dos serviços de IA de ponta é o freemium, ou de acesso escalonado, onde uma versão básica é oferecida gratuitamente e os recursos avançados exigem uma assinatura paga. Do ponto de vista jurídico, o advogado Pedro Sanches confirma a legalidade dessa abordagem. “O modelo de negócios que combina acesso gratuito a uma versão básica com recursos avançados em uma versão paga é fundamentado no princípio constitucional da livre iniciativa e na liberdade contratual. O ordenamento jurídico brasileiro não proíbe essa prática”, explica.
A professora Michele Nogueira oferece uma visão estratégica sobre o que uma empresa como a OpenAI ganharia ao oferecer o serviço de forma mais ampla. Para ela, a troca seria o acesso a uma quantidade muito maior de dados. “Nós sabemos que na era em que ter dados é poder, ela [a OpenAI] com certeza se fortaleceria, poderia gerar e oferecer outros serviços mais eficientes e adaptados às realidades, e sair na frente dos concorrentes”, analisa.
5. O futuro da IA: regulação e a busca pelo equilíbrio
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/n/n/K5dBHUSgePKoekkmqAVw/chatgpt-1734599211310.png)
A ausência de uma lei específica para IA no Brasil não cria um vácuo legal completo, como explica o advogado Pedro Sanches. “Leis como a LGPD, o Código de Defesa do Consumidor, o Código Civil, o Código Penal e o Marco Civil da Internet já coíbem abusos e contam com regras que podem ser perfeitamente aplicadas a sistemas de IA”. Para ele, o maior risco hoje é a aprovação de uma legislação que, embora bem-intencionada, parta de premissas técnicas equivocadas e crie entraves ao desenvolvimento tecnológico.
Para as empresas, Sanches recomenda a adoção de uma postura de "IA responsável", o que significa implementar políticas claras de governança, treinar colaboradores sobre o uso seguro da tecnologia e criar mecanismos de revisão humana. Já para o governo, ele sugere uma estratégia multifacetada que inclua o fomento à indústria de IA nacional e, principalmente, o investimento em educação digital desde a base, para formar cidadãos preparados para um futuro impulsionado pela IA.
A professora Michele Nogueira conclui, listando as condições mínimas de segurança e governança necessárias antes de se considerar o acesso global a uma tecnologia como o ChatGPT. Para ela, são essenciais: “proteção aos dados, soluções contra vazamentos; leis, regras e políticas claras para inibir vazamentos de dados e uso indevido dos mesmos; curadoria séria dos dados impulsionada por leis e regulamentações; regulamentação do uso da IA; definição de uma conduta ética global da IA; regras e leis claras de responsabilização”.
Veja também: Como descobrir quem parou de me seguir no Instagram? Conheça truque do ChatGPT
Como descobrir quem parou de me seguir no Instagram? Conheça truque do ChatGPT
Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro