"IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o US AI Safety Institute alavanca sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada", disse Jack Clark, cofundador e chefe de política da Anthropic, apoiada pela Amazon e pela Alphabet.
Pelos acordos, o Instituto de Segurança de IA terá acesso aos principais novos modelos da OpenAI e da Anthropic antes e depois de seu lançamento público.
Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.
"Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial, e esperamos que nosso trabalho conjunto ofereça uma estrutura na qual o resto do mundo possa se basear", disse Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT.
"Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA", disse Elizabeth Kelly, diretora do instituto.
O instituto, parte do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e dará retorno às empresas sobre possíveis melhorias de segurança.

                                German (DE)                
                                English (US)                
                                Spanish (ES)                
                                French (FR)                
                                Hindi (IN)                
                                Italian (IT)                
                                Portuguese (BR)                
                                Russian (RU)                
         
            1 ano atrás
                        47
                    
:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro