3 semanas atrás 10

É possível ser demitido por usar IA no trabalho? Veja o que dizem especialistas

Ferramentas de inteligência artificial estão cada vez mais presentes nas rotinas corporativas. ChatGPT, Gemini Google, Microsoft Copilot e outras plataformas já fazem parte do dia a dia de profissionais de diferentes áreas, automatizando tarefas e ampliando a produtividade. No entanto, o uso sem autorização da empresa pode gerar consequências graves e até resultar em demissão.

Com a popularização dessas ferramentas, surgem dúvidas sobre até que ponto é permitido utilizá-las no ambiente de trabalho. O assunto preocupa especialmente empresas que lidam com dados sensíveis, já que o uso inadequado pode causar vazamento de informações, quebra de confiança e violação de políticas internas.

Para entender o que diz a legislação e quais são os riscos, o TechTudo ouviu diversos especialistas, como a Márcia Cleide Ribeiro, advogada especializada em Direito Trabalhista; Flavia Derra Eadi de Castro, advogada especialista em Prevenção de Riscos Trabalhistas; Patrícia Ferreira, Head de Contencioso, Consultivo e Preventivo do Jusbrasil; Clévia Cristina Ramos, advogada de Contencioso no Jusbrasil; e Lorena Muniz e Castro Lage, professora de Direito Digital do UniArnaldo Centro Universitário, em Belo Horizonte.

 Reprodução/Freepik O uso de ferramentas de inteligência artificial cresce nos escritórios, mas especialistas alertam: sem regras claras, o empregado pode ser punido, até com demissão por justa causa — Foto: Reprodução/Freepik

Mesmo sem uma lei específica que trate do uso de inteligência artificial nas relações de trabalho, a legislação atual já oferece base para análise de casos envolvendo condutas inadequadas. O artigo 482 da Consolidação das Leis do Trabalho (CLT) prevê hipóteses de justa causa como indisciplina, mau procedimento e violação de segredo profissional. Esses enquadramentos vêm sendo aplicados em situações que envolvem o uso indevido de IA em contextos corporativos.

Confira a seguir no índice os tópicos que serão abordados na matéria:

  1. Uso de IA sem autorização pode gerar demissão por justa causa?
  2. Quando o uso de IA quebra a confiança da empresa?
  3. O que o funcionário perde em caso de justa causa?
  4. Como a LGPD influencia o uso de IA?
  5. Empresas devem criar políticas internas específicas?

1. Uso de IA sem autorização pode gerar demissão por justa causa?

A advogada Márcia Cleide Ribeiro explica que o uso de ferramentas de inteligência artificial sem autorização da empresa pode levar à demissão por justa causa. Segundo ela, o artigo 482 da CLT permite enquadrar a conduta como ato de indisciplina, improbidade ou violação de segredo profissional, dependendo do contexto.

O enquadramento ocorre, por exemplo, quando o empregado insere dados corporativos em plataformas externas, compartilha documentos internos com sistemas de IA sem autorização ou utiliza a tecnologia para gerar relatórios e pareceres sem comunicar o gestor. “Embora a legislação não mencione expressamente o uso de IA como falta grave, o enquadramento é plenamente possível, pois essas condutas se encaixam nas descrições legais existentes”, explica Márcia.

Ela também destaca que o uso da IA pode ser legítimo e produtivo, desde que feito com transparência e dentro das regras da empresa. “O desafio jurídico está em diferenciar quando a IA é um instrumento de produtividade e quando se transforma em um meio de desvio de conduta”, avalia.

2. Quando o uso de IA quebra a confiança da empresa?

 Reprodução/Freepik Se a empresa possui política interna e o funcionário a descumpre, há risco de demissão por justa causa. Mesmo sem regras formais, o uso indevido também pode ser punido — Foto: Reprodução/Freepik

Para Flavia Derra Eadi de Castro, a demissão por justa causa pode ocorrer tanto quando há política interna formalizada quanto na ausência de normas específicas. “Se a empresa possui regras sobre o uso de IA e o funcionário age fora delas, há quebra de confiança com base no artigo 482, alínea ‘a’, da CLT”, explica.

A advogada observa que o mesmo pode acontecer mesmo sem regras claras, caso o uso seja abusivo ou cause prejuízo à empresa. “Quando a ferramenta é usada para prejudicar colegas, manipular resultados ou expor dados sigilosos, o enquadramento ocorre pelo mau procedimento, previsto na alínea ‘b’ do artigo 482”, acrescenta.

Flavia reforça que a confiança é o principal elemento da relação de trabalho. Quando o uso de IA compromete essa confiança, seja por má-fé, descuido ou omissão, a penalidade pode ser aplicada de forma legítima. “A clareza nas regras é fundamental para evitar interpretações equivocadas e proteger ambas as partes”, orienta.

3. O que o funcionário perde em caso de justa causa?

A Head de Contencioso, Consultivo e Preventivo do Jusbrasil, Patrícia Ferreira, explica que a demissão por justa causa é a penalidade mais severa da CLT e acarreta a perda da maior parte dos direitos rescisórios. O trabalhador mantém apenas o saldo de salário e as férias vencidas com acréscimo de um terço, se houver. Perde o direito ao aviso-prévio, ao 13º proporcional, ao saque do FGTS, à multa de 40% e ao seguro-desemprego.

Patrícia ressalta que, embora o uso indevido de IA possa configurar falta grave, a penalidade deve ser proporcional à conduta. “O simples uso de uma ferramenta de inteligência artificial, por si só, pode não justificar a justa causa. É preciso avaliar se houve dano, intenção ou reincidência”, explica.

A advogada Clévia Cristina Ramos, também do Jusbrasil, complementa que a quebra de confiança pode ocorrer quando o funcionário ignora políticas internas ou não revisa o conteúdo gerado pela IA. “As ferramentas ainda cometem erros e alucinações. Por isso, é dever do colaborador revisar o material e informar que houve uso de IA”, afirma.

4. Como a LGPD influencia o uso de IA?

 Reprodução / TechTudo Definir regras, homologar ferramentas seguras e orientar os colaboradores são práticas recomendadas para prevenir demissões e manter a ética digital no ambiente corporativo — Foto: Reprodução / TechTudo

A professora Lorena Muniz e Castro Lage, especialista em Direito Digital do UniArnaldo Centro Universitário, destaca que a Lei Geral de Proteção de Dados (LGPD) deve ser observada no uso de IA no ambiente corporativo. Inserir dados de clientes, estratégias internas ou informações sigilosas em plataformas públicas pode caracterizar violação de privacidade.

Lorena explica que muitas ferramentas de IA utilizam os dados fornecidos pelos usuários para treinar modelos, o que retira da empresa o controle sobre essas informações. “Esses dados podem ser armazenados em servidores externos e reutilizados para outros fins, expondo a companhia a riscos jurídicos e reputacionais”, afirma.

A especialista recomenda que as organizações utilizem apenas sistemas de IA corporativos, que ofereçam garantias de proteção e confidencialidade. “Dados sensíveis, senhas, contratos e produtos em desenvolvimento jamais devem ser inseridos em plataformas abertas. A responsabilidade é compartilhada entre empregado e empregador”, alerta.

5. Empresas devem criar políticas internas específicas?

Tanto Flavia Derra Eadi de Castro quanto Márcia Cleide Ribeiro concordam que políticas internas são fundamentais para prevenir conflitos e garantir segurança jurídica. As normas devem estabelecer quais ferramentas podem ser utilizadas, quais dados são sigilosos e quais são as consequências em caso de descumprimento.

Essas diretrizes precisam ser acompanhadas de treinamentos periódicos para que os colaboradores compreendam os riscos e responsabilidades envolvidos no uso da IA. “A formação contínua sobre os aspectos legais e éticos da tecnologia é essencial para reduzir litígios e fortalecer a cultura de compliance”, avalia Márcia.

Flavia reforça que a homologação de ferramentas específicas para uso corporativo é o melhor caminho. “A prevenção é a principal forma de evitar conflitos. Uma política bem estruturada protege tanto a empresa quanto o colaborador, promovendo o uso ético e produtivo da inteligência artificial”, conclui.

Veja também: Google é condenado a pagar quase R$ 70 mil a homem flagrado nu pelo Street View

Google é condenado a pagar quase R$ 70 mil a homem flagrado nu pelo Street View

Google é condenado a pagar quase R$ 70 mil a homem flagrado nu pelo Street View

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro