Acaba de ser publicado relatório crítico importante intitulado Time for a Pause: Without Effective Public Oversight, AI in Schools Will Do More Harm Than Good, de autoria de Ben Williamson, Alex Molnar, and Faith Boninger (link apra acesso do texto completo). No texto, os autores indicam as diversas qualidades das interfaces de IA generativa, mas alertam para a pressão mercadológica e para o modo aligeirado e pouco crítico com que empresas e setores dos poderes públicos tem promovido e praticado a introdução dessas tecnologias no contexto da escola formal: "O peso das evidências disponíveis sugere que a atual adoção generalizada de aplicações não regulamentadas de IA nas escolas representa um grave perigo para a sociedade civil democrática e para a liberdade e a liberdade individuais. Anos de alertas e precedentes realçaram os riscos colocados pela utilização generalizada de tecnologias digitais pré-IA na educação, que obscureceram a tomada de decisões e permitiram a exploração de dados dos alunos", alertam.
Os autores analisam que: "apesar dos riscos de levar tecnologia não testada às salas de aula e da falta de critérios de implementação ou controles regulatórios, as escolas enfrentam uma pressão implacável para “modernizar” adotando a inteligência artificial. Embora os aplicativos de IA sejam comercializados como formas de resolver problemas de ensino e aprendizagem e agilizar os processos administrativos escolares, eles carregam consigo todas as limitações, problemas e riscos inerentes aos modelos de IA utilizados para executá-los. Levar a IA às escolas aumenta a probabilidade de que essas tecnologias possam reproduzir ou intensificar muitos problemas, tornando qualquer benefício potencial menos significativo do que os danos potenciais.Duas aplicações fortemente promovidas ilustram os perigos da adoção acrítica da IA em escolas: tutoria de chatbots, baseados em grandes modelos de linguagem, que prometem personalizar e automatizar o ensino; e plataformas de aprendizagem adaptativas, que utilizam grandes quantidades de dados dos alunos para fazer previsões, personalizar recursos e atividades em sala de aula e auto-intervir automaticamente nos processos pedagógicos. Os perigos que tais produtos representam incluem demandar aos professores mais tempo do que poupam, restringindo artificialmente a definição de “aprendizagem”, marginalizando a experiência dos professores e o relacionamento com os alunos, introduzindo erros curriculares e aumentando o preconceito e a discriminação nas salas de aula e nas escolas".
Nenhum comentário:
Postar um comentário