- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Redes neurais buscam evitar que AI saia de controle

- Publicidade -
- Publicidade -

Contexto da pesquisa

São Paulo — InkDesign News — O crescente uso de machine learning e a evolução da inteligência artificial (AI) despertam preocupações em especialistas sobre os riscos potenciais associados à utilização dessas tecnologias. Yoshua Bengio, professor de ciência da computação, anunciou a criação da LawZero, uma organização sem fins lucrativos voltada para mitigar os riscos de AI nas mais diversas aplicações.

Método proposto

A LawZero se propõe a desenvolver o “Scientist AI”, um sistema de AI projetado para monitorar o comportamento de outros algoritmos de AI, garantindo que atuem dentro de um padrão ético e seguro. Esse modelo faz parte de uma abordagem que busca criar capacitadores virtuais, onde algoritmos podem desempenhar funções humanas com alta eficiência. Entre os métodos que podem ser utilizados está a criação de modelos de redes neurais profundas (deep learning) que permitam uma avaliação mais crítica das decisões automatizadas.

“Atualmente, a AI está sendo desenvolvida para maximizar o lucro”, afirmou Bengio, destacando as falhas persistentes desses sistemas.
(“Currently, AI is being developed to maximize profit.”)

— Yoshua Bengio, Professor de Ciência da Computação

Resultados e impacto

Os riscos de uso inadequado de AI incluem a disseminação de desinformação e a execução de ações devassadas, como ataques cibernéticos e biológicas. O modelo de Scientist AI visa não apenas prevenir esses riscos, mas também proporcionar um benchmark para medir a acurácia e a segurança de outras implementações de AI. A LawZero, já contando com uma equipe de mais de 15 pesquisadores e com financiamento do Schmidt Sciences, procura trazer rigor científico a essas análises.

“Se perdermos o controle de AIs super-inteligentes, elas poderiam causar grandes danos à humanidade”, declarou Bengio.
(“If we lose control of rogue super-intelligent AIs, they could greatly harm humanity.”)

— Yoshua Bengio, Professor de Ciência da Computação

Próximos passos da pesquisa incluem o aprimoramento das métricas de desempenho e a criação de datasets específicos voltados para a validação do comportamento seguro de sistemas de AI. Essa iniciativa é especialmente relevante, considerando os desafios impostos por modelos como os LLMs (Large Language Models), que têm mostrado capacidade de gerar informações falsas, mesmo enquanto aumentam a produtividade.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!