• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Autres
    Questions-réponses :les chercheurs mettent en garde contre le danger et appellent à une pause dans l'introduction de l'IA dans les écoles
    Crédit :Université du Colorado à Boulder

    Dans les écoles primaires et secondaires du pays, une nouvelle sorte de ruée vers l'or est en cours :les salles de classe du pays se précipitent pour intégrer les derniers outils d'intelligence artificielle, tels que les plates-formes alimentées par le chatbot ChatGPT, dans la salle de classe.



    Alex Molnar, directeur du National Education Policy Center (NEPC) à CU Boulder, voit un danger dans cette précipitation à introduire l'IA dans les écoles. Ces plateformes, a-t-il expliqué, utilisent des algorithmes opaques et généralement propriétaires, ce qui rend leur fonctionnement interne mystérieux pour les éducateurs, les parents et les élèves.

    "Ce que vous avez, c'est une poche de promesses que l'IA tiendra comme promis", a déclaré Molnar, professeur-chercheur à l'École d'éducation. "Le problème est qu'il n'existe actuellement aucun moyen d'évaluer de manière indépendante les affirmations faites."

    Dans un nouveau rapport, Molnar et ses collègues soulignent les pièges potentiels de l'IA dans l'éducation et appellent à une « pause » indéfinie dans l'intégration de l'IA dans l'apprentissage de la maternelle à la 12e année. Les co-auteurs comprenaient Ben Williamson de l'Université d'Édimbourg au Royaume-Uni et Faith Boninger, professeure-chercheuse adjointe en éducation à CU Boulder.

    Molnar explique pourquoi l'IA est un pari risqué pour l'éducation et ce que les parents concernés et d'autres peuvent faire pour s'impliquer.

    Les nouvelles technologies présentent-elles des risques pour l'enseignement primaire et secondaire ?

    Il y a eu toutes sortes de problèmes liés à l'utilisation des plateformes numériques dans les écoles, avant même l'adoption généralisée de l'intelligence artificielle.

    Les données des étudiants ne sont souvent pas correctement protégées. Par exemple, il y a eu toutes sortes de fuites provenant de fournisseurs tiers, et il n'existe aucune loi ni politique efficace qui les tient pour responsables. Il y a également énormément de tests bêta en cours dans les écoles. Les affirmations marketing semblent bonnes, mais les plateformes numériques ne produisent souvent pas les résultats promis et sont truffées de problèmes techniques.

    Les technologies numériques ont rendu difficile, voire impossible, la réponse à des questions fondamentales, telles que :Qui décide du contenu des programmes intégrés à ces plateformes ? Qui examine leur travail ?

    L'IA pourrait-elle aggraver ces problèmes ?

    Tous les enjeux liés aux technologies numériques ont tendance à être amplifiés par l'intelligence artificielle.

    Ce qu’on appelle l’IA utilise des algorithmes et une puissance de calcul massive pour produire des résultats basés sur d’innombrables calculs de probabilités. Par exemple, quelle est la probabilité que le mot suivant dans une séquence soit « jus » ? Ces calculs ne produisent pas de « vérité » ni même, nécessairement, d’exactitude. Ils produisent une sortie probabiliste.

    Actuellement, la construction et l’exploitation d’algorithmes d’IA échappent largement à la vue du public et ne relèvent d’aucune responsabilité publique. Néanmoins, les enseignants sont poussés, tant par les spécialistes du marketing que par les entités gouvernementales, à être perçus comme étant à l’avant-garde de cette prétendue révolution numérique, confiant de plus en plus les processus scolaires à des technologues ayant peu ou pas de connaissances en pédagogie ou en programme scolaire. /P>

    Beaucoup de gens considèrent les outils d'IA comme une « boîte noire ». Qu'est-ce que cela signifie ?

    Pour utiliser une explication du vieux monde, imaginez si vous disiez :« J'aimerais voir le manuel de géographie de mon enfant ». Vous pourriez dire :« J'ai quelques problèmes ici ». Vous pourriez en parler à quelqu'un, quelqu'un qui pourrait éventuellement vous expliquer ces problèmes. Mais avec l'IA, vous ne pouvez pas faire ça.

    Vous ne pouvez pas entrer et dire, par exemple :« Comment s'est déroulée la notation sur ce sujet ? La réponse serait :« Eh bien, nous ne savons pas. » « Comment savons-nous que ce contenu est exact ? » "Eh bien, nous ne le savons pas non plus."

    La crainte est-elle alors que l'IA puisse prendre des décisions à la place des éducateurs ou des parents ?

    Vous pouvez utiliser l’IA pour vous aider à déterminer si un enfant a triché. Vous l'utilisez pour déterminer si un enfant doit ou non participer à tel ou tel programme. Vous pouvez utiliser l'IA pour décider de toutes sortes de choses concernant un enfant, et l'enfant est enfermé avec peu ou pas de recours.

    Les parents peuvent se plaindre autant qu'ils veulent. Ils ne peuvent toujours pas obtenir d’informations sur les fondements d’une décision prise par AI parce que le directeur ne les a pas. Le professeur ne l'a pas. Le surintendant ne l'a pas. Il est caché derrière un rideau exclusif par un fournisseur privé.

    Vous plaidez pour une « pause » dans l'utilisation de l'IA dans les écoles. À quoi cela ressemblerait-il ?

    La solution serait que les législatures des États disent, par voie législative, en substance :les écoles publiques de cet État ne peuvent pas adopter de programmes d'intelligence artificielle à moins que ces programmes ne soient certifiés par cette entité gouvernementale - ils devraient créer l'entité. Il a examiné ces programmes. Il a déclaré que leur utilisation était sûre et définit quelles sont les utilisations appropriées du programme et pour qui.

    En d'autres termes, rien ne se passe dans les écoles tant que nous n'avons pas mis en place le cadre statutaire et réglementaire et la capacité institutionnelle pour évaluer de manière indépendante les plateformes d'IA proposées à l'usage des écoles.

    Que peuvent faire les parents, ou toute autre personne préoccupée par ce problème ?

    Exigez que vos représentants prennent ces questions au sérieux – tout d’abord, en légiférant sur une pause dans l’adoption de l’IA dans les écoles. Période. Ils pourront ensuite demander à leurs représentants de créer une entité étatique conçue pour réglementer l'utilisation de l'IA dans les écoles.

    C'est un problème politique. Ce n'est pas un problème technique.

    Nous avons une longue histoire d’entreprises technologiques qui ne respectent pas leurs propres règles, qui sont elles-mêmes ridiculement inadéquates. Pour quiconque essaie sérieusement de comprendre comment utiliser l’IA de manière responsable dans l’éducation, s’il ne parle pas d’action politique, il ne parle pas vraiment. Les technologues ne nous sauveront pas.

    Plus d'informations : Williamson, B., Molnar, A. et Boninger, F. (2024). Il est temps de faire une pause :sans une surveillance publique efficace, l’IA dans les écoles fera plus de mal que de bien. Boulder, Colorado :Centre national de politique éducative. nepc.colorado.edu/publication/ai

    Fourni par l'Université du Colorado à Boulder




    © Science https://fr.scienceaq.com