Essa é uma abordagem chamada 'Red Team', que vem da área de cibersegurança e começa a ser utilizada em projetos de IA. Um time de profissionais especializados é escalado para adotar um papel de 'adversário' do sistema e explora tudo o que pode dar errado com ele, como falhas, brechas e possíveis usos indevidos.
O relatório publicado nesta semana pelos organizadores do 'Red Team' que rolou durante a DefCon no ano passado mostra a importância da estratégia para trazer testes em larga escala para sistemas sensíveis como os de IA. Mais de 2.000 pessoas participaram do desafio e encontraram problemas em diferentes categorias que certamente não seriam identificados apenas pelos engenheiros e cientistas das empresas desenvolvedoras.
É por isso que as principais empresas de tecnologia estão investindo na formação de equipes de 'Red Team' para testar e validar os novos modelos de IA antes de serem disponibilizados ao público. A OpenAI, por exemplo, criou o "Red Teaming Network", que envolve especialistas de diferentes áreas e países para encontrar erros, falhas e desvios de comportamentos da IA antes que os novos modelos sejam liberados.
A prática está ganhando tanta importância como um requisito de segurança que a "Ordem Executiva" de IA do presidente Biden pede que os resultados dos testes feitos pelos 'Red Teams' das empresas sejam compartilhados com o governo federal.
"as empresas que desenvolvem qualquer modelo fundacional que represente um risco sério à segurança nacional, à segurança econômica nacional ou à saúde pública nacional e segurança devem notificar o governo federal ao treinar o modelo e devem compartilhar os resultados de todos os testes de segurança do 'Red Team'. Essas medidas garantirão que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os tornem públicos."
Esse é um ponto que estamos deixando passar quando discutimos sobre regulação de IA no Brasil - e em muitos outros países. A prática de 'Red Team' não precisa estar restrita às empresas e pode ser um instrumento adequado quando estamos falando de políticas públicas para tecnologias emergentes.
De maneira prática, precisamos incorporar nas propostas de regulação a ideia de 'Red Team públicos' como mecanismo que nos ajuda a criar um corpo independente e interdisciplinar de pessoas para testar as capacidades, vulnerabilidades e riscos dos modelos de IA a partir da nossa perspectiva linguística e cultural.
A prática de 'Red Team' pode coexistir e ser instrumentos de outras propostas já existentes, como Avaliação de Impacto, mas atua em diferentes níveis e traz uma participação maior da sociedade. É o caminho mais fácil para gerar evidências empíricas sobre os resultados e comportamentos das tecnologias de IA (desenvolvidas no Brasil e no exterior) para que possamos identificar riscos e demandar melhorias de acordo com a realidade brasileira.
Opinião
Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
** Este texto não reflete, necessariamente, a opinião do UOL.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 ano atrás
93
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/1/t/67BEWASUiobHVEztfFRw/imagem-2025-04-25-190713036.png)
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/e/f/iIkLLUSRSBUxEBY2wZFw/capas-5-.png)
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/Y/U/jtOAVqSo6DygUs4DtM6A/8o-aniversario-free-fire-divulgacao-garena-free-fire.png)
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/g/a/cpzq75TUiDeRRicaKjuA/117-watch6-watch-hands-on-targetpersona-watch6classic-5-hi.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro