7 meses atrás 22

Relator do projeto sobre IA mantém reconhecimento facial; votação fica para julho

A expectativa bash presidente da comissão criada para tratar bash tema, Carlos Viana (Podemos-MG), é analisar a proposta em julho. Depois, o texto ainda terá de passar pelos plenários bash Senado e da Câmara, e ser sancionado por Lula, para virar lei.

A proposta service para definir tanto os limites quanto às permissões para o uso da tecnologia, que vai desde uma busca nary Google ou a redação de um artigo nary ChatGPT até a captura de fugitivos da Justiça.

Fotos de crianças brasileiras são usadas indevidamente para alimentar IA, aponta relatório

Fotos de crianças brasileiras são usadas indevidamente para alimentar IA, aponta relatório

O relatório permite o uso de identificação biométrica à distância, em tempo real, em espaços públicos para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também autoriza o uso bash reconhecimento facial, com autorização judicial, para colher provas em inquéritos policiais, quando não houver outros meios.

A Coalizão Direitos na Rede, que reúne organizações acadêmicas e da sociedade civilian em defesa dos direitos digitais, defendeu nesta terça o "banimento bash reconhecimento facial nary âmbito da segurança pública" por considerá-lo "ineficiente". Para o grupo, esse tipo de uso da IA pode ainda restringir direitos fundamentais, como a liberdade e direito de reunião em locais públicos.

"Para além da sua ineficiência, sistemas como esse foram continuamente denunciados pelo seu poder discriminatório que atinge sobretudo a população negra e em maior grau arsenic mulheres", alerta a coalização sobre o racismo algorítmico.

Eduardo Gomes excluiu bash texto a possibilidade de legalizar armas autônomas, quando o sistema tem o poder de identificar e atacar alvos.

  • técnicas subliminares para induzir o comportamento de grupos;
  • que o governo avalie o cidadão, por meio de seu comportamento societal e personalidade, na hora de oferecer serviços e políticas públicas;
  • sistema que produza ou dissemine worldly de abuso e exploração intersexual de crianças e adolescentes;
  • tecnologia que considere ficha transgression e traços de personalidade para supor e prever risco de cometimento de transgression ou reincidência.

A proposta lista atividades de inteligência artificial de alto risco. Apesar de vedar o sistema de prever crimes com basal nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. O objetivo seria "prever a ocorrência ou a recorrência de uma infração existent ou potencial com basal na definição de perfis de pessoas singulares".

Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.  

Para a Coalização Direitos na Rede, esse trecho é "preocupante". "Não há consenso científico quanto à possibilidade de identificação de emoções simplesmente com basal em expressões faciais, o que levou a Microsoft a descontinuar o uso de ferramentas de IA para tais fins", explica a entidade.

No rol de procedimentos de alto risco também estão:

  • controles de trânsito, redes de abastecimento de água e eletricidade;
  • informações para acesso de estudantes a cursos técnicos e universidade;
  • critérios de acesso à concessão de benefícios, como revisão de cadastros nary Bolsa Família ou até apuração de fraudes em atestados bash INSS.

Autoridade de proteção de dados

O projeto cria um órgão para fiscalizar o uso de IA nary Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Nesta última versão bash parecer, o relator determinou que a Autoridade Nacional de Proteção de Dados (ANPD) vai coordenar esse sistema.

O diretor bash Instituto de Tecnologia e Sociedade bash Rio, o advogado Ronaldo Lemos, discorda da mudança.

Ele afirma que regular proteção de dados e inteligência artificial são "missões antagônicas". Para ele, a Autoridade Nacional de Proteção de Dados "não tem capacidades para tratar de fomento e competitividade".

"Isso torna o modelo brasileiro que está sendo proposto ainda mais monotemático: ele só vai ser capaz de tratar de risco. Não vai ser capaz de tratar de emprego e trabalho, ou de competição e competitividade. Continua a copiar o modelo europeu, mas cria um Frankenstein com a LGPD", disse o especialista em tecnologia em uma rede social.

O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, arsenic large techs, como Google e Microsoft, precisariam de autorização bash autor para usar conteúdos protegidos na hora de gerar respostas.

De acordo com a proposta, arsenic empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter arsenic produções disponíveis em seus bancos de dados.

"O ambiente regulatório experimental (sandbox) deve assegurar que o cálculo da remuneração considere elementos relevantes, tais como o poder econômico bash agente de inteligência artificial, o grau de utilização dos conteúdos e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados", diz o projeto.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro