China desativa AI em exames para combater trapaças de estudantes

São Paulo — InkDesign News — O uso de ferramentas de inteligência artificial na educação levanta sérias questões sobre integridade acadêmica. Recentemente, empresas chinesas de tecnologia tomaram medidas drásticas ao desativar seus chatbots durante o período de exames finais, uma decisão que reflete a crescente preocupação com o uso antiético de tais recursos.
Contexto e lançamento
Na China, o exame conhecido como “gaokao” é a chave para o futuro acadêmico de milhões de estudantes. Em busca de garantir a justiça durante essa avaliação crucial, grandes empresas de tecnologia como Alibaba e Tencent optaram por desligar temporariamente suas ferramentas de IA, uma medida que visa coibir práticas de trapaça. Segundo a Bloomberg, os estudantes não podem mais acessar funções que permitem o reconhecimento de imagem, limitando o uso de chatbots como Qwen e Doubao.
Design e especificações
Os sistemas de AI, que anteriormente podiam ajudar os alunos a resolver questões complexas ou fornecer informações instantâneas, foram programados para se tornarem inoperantes durante as horas de exames. Quando questionados sobre a falta de funcionalidades, as ferramentas de IA informam que “para garantir a justiça das avaliações, essa função não pode ser utilizada durante o período de teste” (“To ensure the fairness of the college entrance examinations, this function cannot be used during the test period”). Essa rigidez operacional reflete o comprometimento das empresas em manter a integridade dos exames, apesar da função limitada dos sistemas durante a avaliação.
Repercussão e aplicações
A decisão de desabilitar as ferramentas de IA durante o gaokao não passou despercebida nas redes sociais. Os estudantes expressaram seu descontentamento, destacando a frustração com a perda de acesso às funções que costumam usar. Um post no Weibo expressou desdém: “Candidatos ao exame de ingresso à faculdade, vocês são todos uma decepção” (“College entrance exam candidates, you are all shit”). Para muitos, a incapacidade de utilizar assistentes digitais durante um exame tão crítico representa não apenas uma perda de recurso, mas também o aumento da pressão enfrentada por aqueles que competem por vagas limitadas em instituições de ensino superior.
À medida que as empresas de tecnologia se adaptam a um cenário regulatório mais rigoroso, a implementação de sistemas de vigilância por IA em alguns locais de prova evidencia a utilização dessa tecnologia como ferramenta de supervisão. Conforme relatado pelo China Daily, sistemas de vigilância são usados para detectar comportamentos irregulares, como sussurros entre alunos e olhares direcionados de forma suspeita, garantindo assim, a presença humana não exclusiva na supervisão.
Este movimento pode sinalizar o início de uma nova era de regulamentação no uso de tecnologias emergentes em ambientes educacionais. A atenção voltada para a ética dos sistemas de IA e seu papel na formação acadêmica levanta questões sobre o futuro e as próximas gerações de estudantes.
Fonte: (Gizmodo – Cultura Tech & Geek)