Entidades que representam os interesses de grandes empresas de tecnologia preferem uma maior simplificação. É o caso de Já Felipe França, diretor-executivo do Conselho Digital, que reúne Amazon, Discord, Google, Hotmart, Kwai, Meta, OpenAI, TikTok, Uber
Precisamos simplificar a obrigação e torná-la mais adaptável à evolução tecnológica, indicando que a referida avaliação de impacto deverá seguir os padrões técnicos internacionais e as normas técnicas que vierem a incorporar tais padrões
Felipe França
Presidente da Comissão de Direito Digital da OAB Federal e professora da UnB e do IDP, Laura Schertel considera que a classificação do risco seja flexível e possa "ser ampliada ou reduzida no momento da aplicação". A advogada liderou o grupo de juristas que assessorou o senador Rodrigo Pacheco (PSD-MG) na construção da proposta do PL de IA aprovada no Senado e agora debatida na Câmara dos Deputados. O advogado Renato Ópice Blum, professor da FAAP, concorda com a flexibilização, mas para aplicação da sanção. Na hora de definir o que é considerado risco, a norma deve ser a previsibilidade..
O projeto traz essa classificação a partir do uso, não da consequência. Então, ele poderia ter um modo intermediário de classificar esse risco ou dar uma chance para esse risco ser mitigado. E aí sim, caso ele não tenha sido mitigado ou tratado, enfim, as medidas não tenham sido implementadas -multa ou a sanção (...) A sanção só vai ser adotada se for identificado que o desenvolvedor não adotou medidas de proteção.
Renato Ópice Blum, diretor do Departamento de Defesa e Segurança da Fiesp e presidente da comissão de IA da Fecomercio-SP
Uma das críticas mais recorrentes é que os critérios para inclusão ou exclusão de uma ferramenta na categoria de alto risco são excessivamente abertos. Essa é a opinião da advogada Patricia Peck Pinheiro, integrante das comissões de Proteção de Dados do CNJ e do Observatório de Inteligência Artificial Generativa do CNPQ. Para ela, esses parâmetros estão "indeterminados e dependentes de regulação posterior por uma Autoridade Nacional de IA a ser criada", o que gera "insegurança jurídica e incerteza para o setor".
Empresas e desenvolvedores ficam sem saber quais sistemas serão enquadrados como Alto Risco no futuro e, consequentemente, quais obrigações rigorosas deverão cumprir
Patricia Peck Pinheiro

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 hora atrás
1

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/I/5/ZZEW3WQfmjdBt4izHmLA/img-8811-1-.jpg)

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/o/Q/hEOb38Q2Wxl0jBnAxB9w/b262f452c417f4cbc282703f930512f5cc751d4a.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro