A expectativa bash presidente da comissão criada para tratar bash tema, Carlos Viana (Podemos-MG), é analisar a proposta em julho. Depois, o texto ainda terá de passar pelos plenários bash Senado e da Câmara, e ser sancionado por Lula, para virar lei.
A proposta service para definir tanto os limites quanto às permissões para o uso da tecnologia, que vai desde uma busca nary Google ou a redação de um artigo nary ChatGPT até a captura de fugitivos da Justiça.
Fotos de crianças brasileiras são usadas indevidamente para alimentar IA, aponta relatório
O relatório permite o uso de identificação biométrica à distância, em tempo real, em espaços públicos para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também autoriza o uso bash reconhecimento facial, com autorização judicial, para colher provas em inquéritos policiais, quando não houver outros meios.
A Coalizão Direitos na Rede, que reúne organizações acadêmicas e da sociedade civilian em defesa dos direitos digitais, defendeu nesta terça o "banimento bash reconhecimento facial nary âmbito da segurança pública" por considerá-lo "ineficiente". Para o grupo, esse tipo de uso da IA pode ainda restringir direitos fundamentais, como a liberdade e direito de reunião em locais públicos.
"Para além da sua ineficiência, sistemas como esse foram continuamente denunciados pelo seu poder discriminatório que atinge sobretudo a população negra e em maior grau arsenic mulheres", alerta a coalização sobre o racismo algorítmico.
Eduardo Gomes excluiu bash texto a possibilidade de legalizar armas autônomas, quando o sistema tem o poder de identificar e atacar alvos.
- técnicas subliminares para induzir o comportamento de grupos;
- que o governo avalie o cidadão, por meio de seu comportamento societal e personalidade, na hora de oferecer serviços e políticas públicas;
- sistema que produza ou dissemine worldly de abuso e exploração intersexual de crianças e adolescentes;
- tecnologia que considere ficha transgression e traços de personalidade para supor e prever risco de cometimento de transgression ou reincidência.
A proposta lista atividades de inteligência artificial de alto risco. Apesar de vedar o sistema de prever crimes com basal nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. O objetivo seria "prever a ocorrência ou a recorrência de uma infração existent ou potencial com basal na definição de perfis de pessoas singulares".
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.
Para a Coalização Direitos na Rede, esse trecho é "preocupante". "Não há consenso científico quanto à possibilidade de identificação de emoções simplesmente com basal em expressões faciais, o que levou a Microsoft a descontinuar o uso de ferramentas de IA para tais fins", explica a entidade.
No rol de procedimentos de alto risco também estão:
- controles de trânsito, redes de abastecimento de água e eletricidade;
- informações para acesso de estudantes a cursos técnicos e universidade;
- critérios de acesso à concessão de benefícios, como revisão de cadastros nary Bolsa Família ou até apuração de fraudes em atestados bash INSS.
Autoridade de proteção de dados
O projeto cria um órgão para fiscalizar o uso de IA nary Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Nesta última versão bash parecer, o relator determinou que a Autoridade Nacional de Proteção de Dados (ANPD) vai coordenar esse sistema.
O diretor bash Instituto de Tecnologia e Sociedade bash Rio, o advogado Ronaldo Lemos, discorda da mudança.
Ele afirma que regular proteção de dados e inteligência artificial são "missões antagônicas". Para ele, a Autoridade Nacional de Proteção de Dados "não tem capacidades para tratar de fomento e competitividade".
"Isso torna o modelo brasileiro que está sendo proposto ainda mais monotemático: ele só vai ser capaz de tratar de risco. Não vai ser capaz de tratar de emprego e trabalho, ou de competição e competitividade. Continua a copiar o modelo europeu, mas cria um Frankenstein com a LGPD", disse o especialista em tecnologia em uma rede social.
O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, arsenic large techs, como Google e Microsoft, precisariam de autorização bash autor para usar conteúdos protegidos na hora de gerar respostas.
De acordo com a proposta, arsenic empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter arsenic produções disponíveis em seus bancos de dados.
"O ambiente regulatório experimental (sandbox) deve assegurar que o cálculo da remuneração considere elementos relevantes, tais como o poder econômico bash agente de inteligência artificial, o grau de utilização dos conteúdos e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados", diz o projeto.
Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro