Os sistemas são superestimados e ainda não conseguem cumprir tarefas de forma confiável e autônoma. Karpathy reiterou que a chance de um agente completar corretamente uma tarefa de cinco passos é de apenas 32%, pois os erros se acumulam.

Para o especialista, os agentes não devem trabalhar somente por meio de suposições e nem substituir humanos. Deve haver colaboração entre as duas partes, o que evitaria a proliferação de AI slop, conteúdo de baixa qualidade gerado por IA.
Experiências mal-sucedidas
O pesquisador relatou experiências pessoais que não deram certo. A primeira ocorreu ao tentar implementar uma abordagem que ele mesmo cunhou, chamada vibe coding.
Nessa abordagem, o programador descreve um comando em linguagem natural para que a IA escreva o código. No entanto, Karpathy encontrou problemas. Para o executivo, além de ser um sistema limitado, a geração de código pode se tornar incontrolável ou gerar vulnerabilidades de segurança.
Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro