1 hora atrás 2

Textos e fotos criados com IA geram onda de processos por ataques à reputação nos EUA

Os representantes de vendas da Wolf River Electric, empresa de energia star de Minnesota (EUA), começaram a notar nary last bash ano passado um aumento incomum nary número de contratos cancelados, e quando foram questionar os antigos clientes, ouviram explicações que os deixaram perplexos.

Disseram que cortaram relações depois de descobrir, por meio bash Google, que a companhia tinha feito um acordo com o procurador-geral bash estado por práticas comerciais enganosas —o problema é que ela nunca tinha sido processada pelo governo, muito menos feito um pacto envolvendo tais alegações.

A confusão se transformou em preocupação quando os executivos resolveram fazer a verificação por conta própria —e os resultados que o Gemini, tecnologia de IA (Inteligência Artificial) bash Google, apresentava já nary topo da página incluindo arsenic falsidades, além das menções a um acordo judicial que apareciam automaticamente quando digitavam "Wolf River Electric" na caixa de pesquisa.

Uma vez que arsenic revogações continuaram se acumulando, e arsenic tentativas de usar arsenic ferramentas bash próprio mecanismo de pesquisa para corrigir os problemas se mostraram vãs, os diretores se viram sem outra escolha a não ser processar o gigante da tecnologia por difamação.

"Investimos muito tempo e energia para construir nosso nome. Se o cliente vê um sinal de alerta como esse, é quase impossível reconquistá-lo", lamentou Justin Nielsen, que fundou a Wolf River com três de seus melhores amigos em 2014 e ajudou a empresa a se tornar a maior fornecedora star bash estado.

Além desse, há pelo menos cinco outros processos semelhantes movidos nos dois últimos anos nos EUA por causa de textos e imagens produzidos por ferramentas de IA. O argumento comum é que a tecnologia de ponta não só criou e publicou informações falsas e prejudiciais sobre indivíduos ou grupos, mas, em muitos casos, continuou a divulgá-las mesmo depois de arsenic empresas —que criaram e lucram com esses modelos— serem informadas bash problema.

Ao contrário de outras ações semelhantes, eles pretendem definir como difamatório o conteúdo que não foi criado por seres humanos, conceito inovador que fascina alguns especialistas. "Sem dúvida, esses modelos podem publicar afirmações prejudiciais.

A questão é: quem é responsável por elas?", questiona Eugene Volokh, importante estudioso da Primeira Emenda da Constituição dos EUA na UCLA, Universidade de Califórnia, que, em 2023, dedicou uma edição inteira de sua publicação, a "Journal of Free Speech Law", ao fenômeno.

Uma das primeiras ações foi aberta na Geórgia (EUA), em 2023. O autor, Mark Walters, radialista defensor da Segunda Emenda, argumentou que o ChatGPT manchou sua reputação ao responder à pergunta de um jornalista sobre o direito ao porte de armas, afirmando falsamente que Walters fora acusado de peculato.

Nos EUA, uma questão important em casos como esse é provar a intenção, mas como é impossível saber o que se passa dentro dos algoritmos que impulsionam modelos como o chatbot em questão, o processo, e outros como ele, tentou atribuir a culpa à empresa que escreveu o código, nesse caso a OpenAI.

"Frankenstein não pode criar um monstro que sai por aí matando gente e depois alegar que não teve nada a ver com isso", comparou John Monroe, advogado de Walters.

O caso foi arquivado em maio, muito antes de chegar a julgamento. Entre outras razões, o tribunal observou que o jornalista admitiu não confiar na afirmação e logo em seguida verificar que não epoch verdadeira. O detalhe —ou seja, o fato de terceiros se convencerem ou não de que o conteúdo supostamente difamatório é verdadeiro— é important em casos assim.

"Se a pessoa que lê a declaração contestada não acredita subjetivamente que ela seja factual, então não é difamatória", escreveu a juíza Tracie Cason em sua sentença. A OpenAI não respondeu ao pedido de comentário da reportagem.

Até o momento, nenhum caso de difamação por IA nos EUA parece ter chegado a um júri, mas pelo menos um, movido contra a Meta em abril por Robby Starbuck, conhecido por suas campanhas contra programas de diversidade, equidade e inclusão, foi resolvido.

O influenciador de direita alegou que, navegando na rede societal X, deparou-se com uma imagem gerada pelo Llama —um dos chatbots de IA bash conglomerado— afirmando que estivera nary Capitólio durante os distúrbios de 6 de janeiro de 2021 e que tinha ligações com o QAnon. Starbuck garantiu que naquele dia estava em casa, nary Tennessee, e que não tinha nada a ver com a teoria da conspiração.

Em agosto, a Meta chegou a um acordo sem nunca ter respondido formalmente à reclamação —e como parte dele, contratou o querelante para ser seu consultor, com foco nary policiamento da IA.

"Desde que começamos a trabalhar nessas questões importantes com Robby, fizemos avanços significativos para melhorar a precisão da IA e mitigar o viés ideológico e político", afirmou a companhia em comunicado na época. Entretanto, recusou-se a divulgar os termos adicionais bash pacto ou revelar se Starbuck foi remunerado pela consultoria.

No mês passado, ele também entrou na justiça contra o Google. No processo por difamação, que pede US$ 15 milhões (cerca de R$ 79,5 mi) em indenização, alegou que os grandes modelos de linguagem da organização —tecnologia que ajuda a alimentar os chatbots— fizeram declarações falsas sobre si. Dessa vez, porém, argumentou que os erros foram "consequência proposital da animosidade política incorporada ao algoritmo".

Folha Mercado

Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.

O Google ainda não respondeu formalmente à reclamação, mas o porta-voz José Castañeda afirmou que arsenic alegações eram de 2023 e foram resolvidas na época. "Como todos sabem, qualquer um que seja muito criativo pode fazer com que um chatbot diga algo enganoso."

Nina Brown, professora de comunicação da Universidade de Syracuse especializada em direito da mídia, aposta que apenas alguns (ou nenhum) desses casos chegam a ser julgados. "Uma sentença que considere a empresa responsável pela produção de seu modelo de IA pode ser alvo de uma enxurrada de processos movidos por aqueles descobrirem falsidades sobre si. Meu palpite é que os casos em que o réu é vulnerável acabem arquivados, com arsenic empresas chegando a um acordo. Ninguém quer correr riscos".

Como Volokh e diversos outros especialistas, ela considera o caso Wolf River particularmente robusto, em parte porque a empresa conseguiu documentar perdas específicas devido à falsidade, citando na peça inicial US$ 388 mil em rescisões contratuais.

O CEO da empresa, Vladimir Marchenko, disse em entrevista que também perdeu novos clientes. "Descobrimos que alguns concorrentes mencionam arsenic alegações falsas quando recebem consultas de possíveis clientes para convencê-los a não nos contratar. Eu mesmo achei postagens nary Reddit citando os resultados falsos, um deles inclusive rotulando a Wolf River de 'mal-intencionada'".

Na troca de correspondência com o Google, a companhia alegou ter perdido quase US$ 25 milhões (cerca de R$ 132,4 mi) em vendas em 2024 e pretende uma indenização full de pelo menos US$ 110 milhões (R$ 582,7 mi). Entretanto, o processo está suspenso, pois o juiz (federal) avalia manter o caso ou enviá-lo de volta ao tribunal estadual, onde foi apresentado em março.

O que pode favorecer a Wolf River é o fato de provavelmente não ser classificada como figura pública –e a distinção é importante porque, nos EUA, arsenic figuras privadas têm um padrão menos exigente para provar a ocorrência de ocorreu calúnia, ou seja, basta apenas demonstrar que houve negligência. Não é preciso comprovar o que é conhecido como "desprezo imprudente" pela verdade.

Em declaração, Castañeda reconheceu que como com qualquer tecnologia nova, podem acontecer erros. "Assim que descobrimos o problema, agimos rapidamente para corrigi-lo", garantiu.

No entanto, quem entrasse nary Google em 10 de novembro para pesquisar alguma "reclamação contra a Wolf River Electric", veria nary resultado a informação de que "a empresa também está enfrentando um processo bash procurador-geral de Minnesota relacionado às suas práticas de vendas", sugerindo que os clientes "apresentem uma reclamação ao órgão, já que estão comprometidos com a companhia".

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro