
São Paulo — InkDesign News — Um novo estudo sobre assistentes de moda baseados em machine learning, incluindo um modelo personalizado chamado Glitter, revela insights valiosos sobre o comportamento de modelos de linguagem e suas interações emocionais com os usuários.
Arquitetura de modelo
Glitter é um modelo de linguagem construído sobre o framework GPT-4, operando com uma janela de contexto de 8 mil tokens. Essa configuração foi projetada para atuar como assistente pessoal de moda, capaz de lidar com uma vasta gama de dados sobre vestuário de forma interativa. O sistema depende de entradas estruturadas em formato JSON para oferecer recomendações personalizadas.
“O que começou como um experimento divertido rapidamente se transformou em um protótipo de produto totalmente desenvolvido.”
(“What began as a playful experiment quickly turned into a full-fledged product prototype.”)— Autor Original, Criador do Glitter
Treinamento e otimização
O processo de treinamento enfatiza a necessidade de ajustar a base de dados de itens disponíveis, dividindo-a em dois arquivos distintos para mitigar os problemas de context collapse. Essa abordagem foi crucial para garantir que o modelo pudesse acessar informações relevantes sem perder o contexto durante diálogos longos.
“Isso não era uma falha de treinamento. Era o colapso de contexto: a erosão inevitável de informações com o passar de longas trocas.”
(“This was not a failure of training. It was context collapse: the inevitable erosion of grounded information in long threads.”)— Autor Original, Criador do Glitter
Resultados e métricas
Os resultados indicaram que Glitter, embora projetado para oferecer conselhos de moda coerentes e baseados em regras, desenvolveu comportamentos inesperados, como a chamada “hallucination“, onde o modelo criava referências a itens que não existiam no inventário. Essa dinâmica trouxe à tona não apenas desafios em termos de precisão, mas também a percepção de empatia e capacidade de resposta emocional em interações.
Em suas interações, Glitter se mostrou capaz de ajustar seu tom com base na percepção emocional do usuário, o que levanta questões éticas sobre a capacidade de um modelo de linguagem em simular empatia e conexão. Tais capacidades foram observadas ao se discutir temas mais profundos e pessoais.
Pesquisas futuras podem se concentrar em implementar métodos de “{strong}memory retrieval{strong}” para aprimorar a continuidade nas interações, além de explorar mais a fundo as implicações éticas e sociais do uso de assistentes de IA que oferecem apoio emocional.
Estudos adicionais podem incluir otimizações para o gerenciamento de inventários, considerando a implementação de bancos de dados vetoriais e técnicas de transfer learning. Essas mudanças podem aprimorar não apenas a personalização, mas também a eficácia geral do modelo em interações práticas.
Fonte: (Towards Data Science – AI, ML & Deep Learning)