O Rent A Human, site que permite que agentes de inteligência artificial (IA) contratem pessoas para executar tarefas físicas no mundo real, já soma mais de 359 mil humanos cadastrados em todo o mundo — sendo cerca de 1.200 brasileiros, segundo dados divulgados pela própria plataforma. Criado por Alexander Liteplo, o serviço se apresenta como uma forma de ganhar dinheiro rápido com atividades simples; na prática, porém, especialistas apontam riscos associados ao uso de IA, que vão desde golpes digitais e problemas de segurança cibernética até exposição de dados pessoais e implicações jurídicas.
Para entender os riscos envolvidos nesse tipo de plataforma, o TechTudo conversou com o especialista em cibersegurança Rafael Peruch, da KnowBe4, e com o advogado Victor Tales Carvalho, pós-graduado em Direito Digital e diretor da Comissão de Direito Digital da OAB/MG. Segundo os especialistas, a ausência de controles de segurança e de governança pode colocar usuários em situações de alto risco.
IA contrata humanos para tarefas no mundo real: quais são os riscos? — Foto: Bruno Romani IA contrata humanos para tarefas no mundo real: quais são os riscos?
No índice abaixo, confira os tópicos que serão abordados nesta matéria do TechTudo.
- O que é o site onde IA contrata humanos?
- Por que especialistas acendem o alerta?
- O que pode acontecer com quem aceita uma tarefa arriscada?
- Como se proteger antes de se cadastrar
- Isso é legal no Brasil?
1. O que é o site onde IA contrata humanos?
Na prática, o Rent a Human funciona como uma plataforma de intermediação de microtarefas, na qual agentes de inteligência artificial publicam demandas que exigem a atuação de pessoas no mundo físico, algo que ainda não pode ser realizado integralmente por sistemas automatizados. O funcionamento lembra o de plataformas tradicionais de microtarefas: agentes de IA publicam demandas, pessoas se cadastram para executá-las e, após a conclusão, há a promessa de pagamento.
Esses agentes de IA são sistemas capazes de tomar decisões e interagir de forma autônoma, solicitando ações com base em objetivos definidos por seus criadores. As atividades propostas variam e podem incluir verificações presenciais, entregas, coleta de informações e outras tarefas que exigem deslocamento físico ou interação direta com ambientes reais.
Apesar de divulgar números elevados de usuários e tarefas, a plataforma oferece poucas informações públicas sobre sua estrutura operacional, critérios de verificação, mecanismos de mediação ou formas de pagamento. A ausência de detalhes claros sobre quem financia as tarefas e como ocorre a remuneração dos executores reforça a necessidade de cautela por parte de quem considera se cadastrar.
Humano pago por IA para divulgar um cartaz — Foto: Reprodução/X/Liteplo 2. Por que especialistas acendem o alerta?
Para Rafael Peruch, especialista em cibersegurança da KnowBe4, o risco começa no próprio caráter experimental da proposta. Segundo ele, “a primeira de qualquer coisa é arriscado”, especialmente quando envolve sistemas de IA que ainda apresentam falhas recorrentes, como erros e alucinações.
Peruch destaca que plataformas que direcionam ações humanas deveriam nascer com controles rigorosos de supervisão. “Acho que é importante que qualquer plataforma de IA, mas especialmente aquelas que direcionam seres humanos, tenha controles robustos de ‘human-in-the-loop’ desde o início. Não podemos confiar plenamente em nenhuma IA, muito menos em uma plataforma nova participando de uma ação igualmente nova.”
Segundo o especialista, o avanço acelerado dessas soluções sem a implementação proporcional de mecanismos de segurança aumenta o risco. “Parece que os desenvolvedores de IA estão avançando muito rápido para oferecer funcionalidades incríveis, sem que os controles de segurança necessários estejam sempre implementados. Este é um tipo de plataforma em que não podemos correr o risco de sermos conduzidos por ela ou de ter controles de segurança implementados tarde demais."
Além disso, há outros possíveis usos maliciosos da plataforma, como testes físicos de vulnerabilidade, transporte de itens ilegais sem que o executor saiba o conteúdo, lavagem de dinheiro por meio de microtarefas, coleta descentralizada de dados para espionagem e até a formação de grupos de pessoas coordenadas por sistemas algorítmicos. O risco maior, segundo o especialista, está na fragmentação da ação, em que ninguém enxerga o todo, mas o resultado final pode ser ilícito.
Segundo especialista, é preciso ter cuidado com qualquer novidade que envolva IA — Foto: Reprodução/X/Liteplo 3. O que pode acontecer com quem aceita uma tarefa arriscada?
Aceitar uma tarefa aparentemente simples pode ter consequências muito mais amplas do que o usuário imagina, especialmente quando não há clareza sobre a finalidade real da atividade. Mesmo sem intenção criminosa, a pessoa pode ser enquadrada como participante de uma infração se transportar um item ilegal, coletar informações sensíveis, violar propriedade privada ou contribuir, ainda que indiretamente, para uma fraude.
No direito, a alegação de desconhecimento nem sempre exclui responsabilidade. Em muitos casos, avalia-se se houve negligência ou imprudência, ou seja, se a pessoa poderia ter percebido sinais de alerta. As consequências podem variar conforme a gravidade do caso e incluem investigação policial, abertura de processo criminal, multas administrativas, obrigação de indenizar terceiros, bloqueio de contas ou bens, além de danos reputacionais e impacto profissional.
Outro problema é a dificuldade de comprovar boa-fé. Se a tarefa apresentava sinais suspeitos, como pagamento desproporcional, urgência extrema ou instruções incomuns, pode ser difícil sustentar que não houve descuido. Esse cenário se agrava quando a plataforma não oferece registros completos das interações, deixando o indivíduo sem instrumentos adequados de defesa.
A ausência de canais claros de suporte ou denúncia também pesa contra o usuário. Sem atendimento humano acessível, mecanismos formais de contestação e políticas transparentes, a assimetria de poder entre plataforma e executor aumenta, fazendo com que o risco recaia de forma desproporcional sobre quem aceita a tarefa.
Tabela divulgada por Liteplo com interessados em serem contratados por uma IA — Foto: Reprodução/X/Liteplo 4. Como se proteger antes de se cadastrar
A principal recomendação dos especialistas é cautela operacional. Antes de se cadastrar ou aceitar qualquer tarefa, o usuário deve verificar a legitimidade da plataforma, avaliar se a atividade envolve coleta de dados sensíveis ou acesso a locais físicos e desconfiar de propostas com pagamento muito acima da média ou com senso excessivo de urgência. Também é importante evitar tarefas que não deixem claro o objetivo final.
Além disso, é preciso ler atentamente os termos de uso e as políticas de responsabilidade e de dados, além de utilizar e-mail e senha exclusivos para esse tipo de serviço. Plataformas que conectam IA ao mundo físico exigem níveis elevados de transparência, rastreabilidade e governança. Sem essas garantias, o risco deixa de ser apenas tecnológico e passa a ser jurídico e pessoal.
Veja quais cuidados tomar antes de se cadastrar nessas plataformas — Foto: Reprodução/Diego Cataldo 5. Isso é legal no Brasil?
Segundo Victor Tales Carvalho, advogado pós-graduado em Direito Digital, diretor da Comissão de Direito Digital da OAB/MG e fundador do TEG Advogados, não há hoje, no Brasil, uma proibição legal direta a plataformas em que agentes de inteligência artificial contratam pessoas para executar tarefas no mundo real.
O advogado explica que a legalidade depende da forma como a plataforma opera. Se houver transparência sobre quem contrata, qual é a tarefa, como ocorre o pagamento e quem assume a responsabilidade, o serviço pode se enquadrar nas regras já existentes do ordenamento jurídico, como o Código Civil, o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados.
Além da indefinição de responsabilidades, Carvalho aponta riscos relacionados à precarização do trabalho, à facilitação de fraudes e ao uso indevido de dados pessoais. Segundo ele, plataformas que operam com agentes de IA tendem a coletar grandes volumes de informações e, sem governança jurídica robusta, podem gerar consequências regulatórias e reputacionais para as empresas envolvidas.
Advogado alerta para "zona cinzenta" devido a falta de regulamentação do serviço — Foto: Reprodução/Diego Cataldo Veja também: Aprenda a fazer a trend dos objetos falantes
Como fazer a trend dos objetos falantes com IA: veja passo a passo

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 horas atrás
2


/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2026/A/r/FIliCwTFCBzfxp9AziWQ/260203-info-smartwatch-dormir-1-.jpg)
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2026/W/w/Q6YyNwTAa0qHrmhMVBjg/beautiful-woman-working-her-laptop-phone-stylish-urban-restaurant.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)




:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)





Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro