
São Paulo — InkDesign News —
A pesquisa em machine learning e inteligência artificial (AI) continua a avançar rapidamente, com novos métodos sendo desenvolvidos para lidar com complexidades em dados e melhorar a acurácia em tarefas desafiadoras.
Contexto da pesquisa
Recentes críticos, como advogados representando várias publicações, argumentam que modelos de machine learning podem estar explorando conteúdos protegidos por direitos autorais. Em um processo judicial, uma corte federal decidiu que a OpenAI deve preservar dados que, segundo os demandantes, podem conter evidências de infrações de direitos autorais. Os editores alegam que essa utilização se dá sem consentimento ou pagamento, o que eleva questões éticas no uso de AI.
Método proposto
A OpenAI defende que seu treinamento de modelos de linguagem, como o ChatGPT, se ampara nas diretrizes de “uso justo”. Essa defesa é baseada na ideia de que a aplicação de machine learning pode transformar conteúdos de maneira que não concorram diretamente com os materiais originais. No entanto, os advogados ressaltam que o teste de uso justo requer que novos trabalhos não competam no mesmo mercado que os originais.
Resultados e impacto
A decisão judicial destaca que a OpenAI não apresentou evidências suficientes para apoiar sua argumentação de que o uso do ChatGPT não prejudica os meios tradicionais de informação. Por exemplo, a corte considerou que as publicações apresentaram argumentos convincentes de que os usuários podem optar por AI ao invés de assinar jornais, afetando diretamente a receita das organizações: “Eles apenas roubaram de jornais, revistas e autores de livros” afirmou Steven Lieberman, advogado.
“Essa é absolutamente falsa. O juiz deixou claro e os demandantes mostraram que não querem receber informações que identifiquem pessoalmente os usuários dessas conversas. Se os dados forem entregues, serão apenas entregues de forma anônima. Ninguém está colocando a privacidade em risco.”
(“That is absolutely false. The judge has made clear and plaintiffs have made clear that they don’t want to receive information that personally identifies the users of these conversations. If data is turned over, it will only be turned over anonymously. And OpenAI knows that. No one’s privacy is at risk.”)— Steven Lieberman, Advogado
Próximos passos podem envolver novos métodos de auto-regulação na coleta de dados e possíveis revisões das interpretações legais sobre o uso de conteúdo protegido por direitos autorais, assim como maior transparência na maneira como modelos de AI são treinados e utilizados.
Fonte: (TechXplore – Machine Learning & AI)