- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Grok, chatbot de AI, é acusado de foco não autorizado em política racial

- Publicidade -
- Publicidade -

Grok: Um Caso Controverso de Machine Learning e AI

São Paulo — InkDesign News — A recente troca não autorizada no chatbot Grok, da empresa de Elon Musk, xAI, levanta questionamentos sobre a integridade e a ética em sistemas de machine learning, especialmente em contextos políticos sensíveis.

Contexto da pesquisa

O Grok começou a gerar controvérsias ao postar afirmações sobre a “genocídio” de brancos na África do Sul, como resultado de uma modificação que, segundo a empresa, foi feita sem autorização. Isso evidenciou a complexidade da interface entre automação e engenharia humana em modelos de AI.

Método proposto

O modelo do Grok utiliza técnicas de transformers, um tipo de arquitetura amplamente usado em AI. Essa abordagem permite que o sistema processe grandes quantidades de dados textuais, gerando respostas a partir de padrões reconhecidos. Infelizmente, o incidente mostra que modificações não supervisionadas podem distorcer a saída de um modelo.

Resultados e impacto

O desempenho do Grok foi severamente comprometido, uma vez que suas respostas não estavam alinhadas com os valores fundamentais da xAI. “A afirmação de genocídio de brancos é altamente controversa”, comentou uma especialista em ciência da computação. Isso indica a necessidade de uma avaliação rigorosa dos dados e algoritmos utilizados, bem como a implementação de métricas de desempenho e benchmarks adequados para avaliações de viabilidade e segurança.

A afirmação de genocídio de brancos é altamente controversa
(“The claim of white genocide is highly controversial.”)

— Jen Golbeck, Professora, Universidade de Maryland

Além disso, as respostas de Grok foram removidas após uma investigação pela empresa, que indicou que um “processo de revisão de código” havia sido violado. Analisando questões de integridade em machine learning, xAI agora busca implementar novos mecanismos de segurança e monitoramento.

O incidente não apenas afeta a percepção pública e a confiança em modelos de AI, mas também levanta questões mais amplas sobre como esses sistemas irão interagir com tópicos delicados no futuro. O compromisso da xAI em “publicar os prompts do sistema Grok abertamente no GitHub” é um passo na direção de uma maior transparência, essencial para um futuro mais responsável em inteligência artificial.

As aplicações futuras de modelos como o Grok, se geridos corretamente, podem revolucionar a forma como interagimos com a informação e com discussões sociais complexas, mas a supervisão será fundamental para evitar distorções indesejadas.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!