Anthropic busca ser a única empresa de AI confiável na cultura tech

São Paulo — InkDesign News — A Anthropic, companhia de inteligência artificial por trás do chatbot Claude, busca se estabelecer como a protagonista ética no ramo de IA, destacando-se por sua recente postura contrária à utilização de suas tecnologias para vigilância.
Contexto e lançamento
Recentemente, a Anthropic posicionou-se como a única grande empresa de IA a apoiar um projeto de lei de segurança em IA na Califórnia, visando garantir requisitos mais rígidos para a operação de modelos de inteligência artificial. Sua política de uso proíbe explicitamente a aplicação de suas tecnologias em “Justiça Criminal, Censura, Vigilância ou Propósitos Proibidos de Aplicação da Lei”. Essa abordagem tem gerado tensões com a administração Trump, que se vê limitada em suas operações de vigilância.
Design e especificações
A tecnologia Claude é projetada para atender a variados setores, incluindo a segurança nacional, onde é utilizada em cibersegurança. A Anthropic desenvolveu o serviço ClaudeGov, especificamente voltado para a comunidade de inteligência, recebendo autorização “Alta” do Programa Federal de Gerenciamento de Risco e Autorização (FedRAMP), permitindo sua utilização em tarefas sensíveis relacionadas ao governo.
Repercussão e aplicações
As restrições de uso da Anthropic têm suscitado debates sobre a ética de vigilância estatal, uma vez que agências como o FBI e a Imigração e Controle de Fronteiras se sentem inibidas em suas operações. Um funcionário da administração comentou que a política da empresa “faz um julgamento moral sobre como as agências de aplicação da lei realizam seu trabalho”.
“A decisão de uma empresa em não participar disso, enquanto puder resistir, é uma maneira de proteger seus próprios interesses, assim como é uma tomada de posição ética.”
(“A decision of a company to not participate in that, to the extent that it can resist, is protecting its own interests just as much as it is staking out an ethical stance.”)— Funcionário, Administração
A postura da Anthropic, embora considerada teórica, se alinha com um movimento mais amplo na indústria em busca de um equilíbrio ético na aplicação de tecnologias de IA. A empresa, em sua defesa, busca demonstrar um compromisso com a segurança nas operações e uma crítica à vigilância em larga escala.
“Estamos apoiando um projeto de lei que exigirá requisitos de segurança mais rigorosos para modelos de IA.”
(“We are backing a bill that would require stricter safety requirements for AI models.”)— Representante da Anthropic
À medida que a conversa sobre o uso ético de inteligência artificial evolui, as decisões e políticas da Anthropic podem moldar o futuro do setor, especialmente em tempos onde a vigilância estatal e a privacidade se tornam questões centrais na sociedade contemporânea.
Fonte: (Gizmodo – Cultura Tech & Geek)