1 hora atrás 1

Os 7 pontos do PL de IA mais preocupam quem entende de tecnologia no Brasil

Entidades que representam os interesses de grandes empresas de tecnologia preferem uma maior simplificação. É o caso de Já Felipe França, diretor-executivo do Conselho Digital, que reúne Amazon, Discord, Google, Hotmart, Kwai, Meta, OpenAI, TikTok, Uber

Precisamos simplificar a obrigação e torná-la mais adaptável à evolução tecnológica, indicando que a referida avaliação de impacto deverá seguir os padrões técnicos internacionais e as normas técnicas que vierem a incorporar tais padrões
Felipe França

Presidente da Comissão de Direito Digital da OAB Federal e professora da UnB e do IDP, Laura Schertel considera que a classificação do risco seja flexível e possa "ser ampliada ou reduzida no momento da aplicação". A advogada liderou o grupo de juristas que assessorou o senador Rodrigo Pacheco (PSD-MG) na construção da proposta do PL de IA aprovada no Senado e agora debatida na Câmara dos Deputados. O advogado Renato Ópice Blum, professor da FAAP, concorda com a flexibilização, mas para aplicação da sanção. Na hora de definir o que é considerado risco, a norma deve ser a previsibilidade..

O projeto traz essa classificação a partir do uso, não da consequência. Então, ele poderia ter um modo intermediário de classificar esse risco ou dar uma chance para esse risco ser mitigado. E aí sim, caso ele não tenha sido mitigado ou tratado, enfim, as medidas não tenham sido implementadas -multa ou a sanção (...) A sanção só vai ser adotada se for identificado que o desenvolvedor não adotou medidas de proteção.
Renato Ópice Blum, diretor do Departamento de Defesa e Segurança da Fiesp e presidente da comissão de IA da Fecomercio-SP

Uma das críticas mais recorrentes é que os critérios para inclusão ou exclusão de uma ferramenta na categoria de alto risco são excessivamente abertos. Essa é a opinião da advogada Patricia Peck Pinheiro, integrante das comissões de Proteção de Dados do CNJ e do Observatório de Inteligência Artificial Generativa do CNPQ. Para ela, esses parâmetros estão "indeterminados e dependentes de regulação posterior por uma Autoridade Nacional de IA a ser criada", o que gera "insegurança jurídica e incerteza para o setor".

Empresas e desenvolvedores ficam sem saber quais sistemas serão enquadrados como Alto Risco no futuro e, consequentemente, quais obrigações rigorosas deverão cumprir
Patricia Peck Pinheiro

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro