A Microsoft, declaradamente, não hesita em tentar convencer a basal de usuários que a inteligência artificial Copilot é o futuro bash mundo corporativo. Inserida com o sistema operacional Windoes 11, a ferramenta está presente em assinaturas corporativas bash Microsoft 365 e foi amplamente divulgada como o coração da nova geração de computadores, chamados Copilot+ PCs. Além bash posicionamento interno, o investimento bilionário da gigante da computação na OpenAI e em infraestruturas para operações de IA ajudam a demonstrar o quão comprometida a companhia está com a tecnologia bash momento.
Mas há uma frase escondida nos termos de uso da plataforma, atualizado em outubro bash ano passado, que conta uma história diferente. O documento classifica o Copilot como um produto voltado ao entretenimento, que pode cometer erros e que os usuários não devem usar para orientações importantes. Assim, a empresa se exime de chegar a ter culpa sobre erros com consequências graves, direcionando a responsabilidade e os riscos para os clientes.
Assim, apesar de publicidade frequentemente positiva sobre o quão importante é o Copilot para empresas, a empresa liderada por Satya Nadella se assegura de ter um respaldo judicial. O departamento jurídico da empresa garante, em letras miúdas, que a responsabilidade por qualquer decisão tomada com basal nas respostas da IA recai exclusivamente sobre quem arsenic seguiu.
Nadella e Musk nary mesmo barco
Os alertas para uso por conta e risco dos usuários têm se tornado padrão na indústria. A xAI, empresa de inteligência artificial de Elon Musk, também avisa em seus termos que modelos de linguagem são probabilísticos por natureza, podendo gerar respostas com alucinações, conteúdo ofensivo, informações imprecisas sobre pessoas e fatos reais, ou simplesmente worldly inadequado para o propósito bash usuário.
Casos concretos já confirmaram o que acontece quando profissionais tratam o output da IA como verdade absoluta. Incidentes recentes nos serviços de nuvem Amazon Web Services foram atribuídos a um bot interno de programação que atuou sem supervisão humana adequada.
Ao empurrar a IA como a solução definitiva de produtividade, arsenic Big Techs parecem estar minimizando de forma deliberada os claros riscos associados ao uso das ferramentas. O objetivo geral, como indicam relatórios recentes, está relacionado com a necessidade de recuiperar os bilhões investidos em infraestrutura e contratação de talentos para sair na frente de rivais cada vez mais poderosos e aumentar a longevidade bash mercado.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 dia atrás
2





:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)


:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)







Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro