Si vous recherchez dans Google Scholar l’expression « en tant que modèle de langage d’IA », vous trouverez de nombreux ouvrages de recherche sur l’IA ainsi que des résultats plutôt suspects. Par exemple, un article sur la technologie agricole dit :
"En tant que modèle de langage d'IA, je n'ai pas d'accès direct aux articles de recherche ou aux études en cours. Cependant, je peux vous donner un aperçu de certaines tendances et avancées récentes…"
Des gaffes évidentes comme celle-ci ne sont pas les seuls signes que les chercheurs se tournent de plus en plus vers les outils d’IA générative lorsqu’ils rédigent leurs recherches. Une étude récente a examiné la fréquence de certains mots dans les écrits universitaires (tels que « louable », « méticuleusement » et « complexe ») et a constaté qu'ils sont devenus beaucoup plus courants après le lancement de ChatGPT, à tel point que 1 % de tous les mots des journaux les articles publiés en 2023 pouvaient contenir du texte généré par l'IA.
(Pourquoi les modèles d'IA abusent-ils de ces mots ? Certains supposent que c'est parce qu'ils sont plus courants dans l'anglais parlé au Nigéria, où les éléments clés de la formation des modèles sont souvent utilisés.)
L’étude susmentionnée examine également des données préliminaires de 2024, qui indiquent que l’aide à l’écriture par l’IA est de plus en plus courante. S'agit-il d'une crise pour l'érudition moderne ou d'une aubaine pour la productivité académique ?
De nombreuses personnes s’inquiètent de l’utilisation de l’IA dans les articles universitaires. En effet, cette pratique a été décrite comme « contaminant » la littérature scientifique.
Certains soutiennent que l’utilisation des résultats de l’IA équivaut à du plagiat. Si vos idées sont copiées depuis ChatGPT, on peut se demander si vous méritez vraiment un crédit pour elles.
Mais il existe des différences importantes entre le texte « plagié » rédigé par des humains et le texte rédigé par l’IA. Ceux qui plagient le travail des humains reçoivent du crédit pour des idées qui auraient dû revenir à l'auteur original.
En revanche, on peut se demander si les systèmes d'IA comme ChatGPT peuvent avoir idées, et encore moins mériter du crédit pour elles. Un outil d'IA ressemble plus à la fonction de saisie semi-automatique de votre téléphone qu'à un chercheur humain.
Une autre préoccupation est que les résultats de l’IA pourraient être biaisés d’une manière qui pourrait s’infiltrer dans les archives scientifiques. Il est tristement célèbre que les modèles linguistiques plus anciens avaient tendance à représenter les personnes féminines, noires et/ou gays de manière nettement peu flatteuse, par rapport aux personnes masculines, blanches et/ou hétérosexuelles.
Ce type de biais est moins prononcé dans la version actuelle de ChatGPT.
Cependant, d'autres études ont découvert un autre type de biais dans ChatGPT et d'autres grands modèles linguistiques :une tendance à refléter une idéologie politique libérale de gauche.
Un tel biais pourrait subtilement déformer les écrits scientifiques produits à l’aide de ces outils.
L'inquiétude la plus sérieuse concerne une limitation bien connue des systèmes d'IA générative :ils commettent souvent de graves erreurs.
Par exemple, lorsque j'ai demandé à ChatGPT-4 de générer une image ASCII d'un champignon, il m'a fourni le résultat suivant.
Il m'a alors dit avec confiance que je pouvais utiliser cette image de "champignon" à mes propres fins.
Ce genre d’erreurs trop confiantes a été qualifié d’« hallucinations de l’IA » et de « conneries de l’IA ». S'il est facile de remarquer que l'image ASCII ci-dessus ne ressemble en rien à un champignon (et plutôt à un escargot), il peut être beaucoup plus difficile d'identifier les erreurs commises par ChatGPT lors de l'étude de la littérature scientifique ou de la description de l'état d'un débat philosophique.
Contrairement à (la plupart) des humains, les systèmes d’IA ne se soucient fondamentalement pas de la vérité de ce qu’ils disent. Si elles sont utilisées avec négligence, leurs hallucinations pourraient corrompre les archives scientifiques.
Une réponse à la montée en puissance des générateurs de texte a été de les interdire purement et simplement. Par exemple, Science, l'une des revues universitaires les plus influentes au monde, interdit toute utilisation de texte généré par l'IA.
Je vois deux problèmes avec cette approche.
Le premier problème est d’ordre pratique :les outils actuels de détection du texte généré par l’IA sont très peu fiables. Cela inclut le détecteur créé par les propres développeurs de ChatGPT, qui a été mis hors ligne après avoir constaté qu'il n'avait qu'un taux de précision de 26 % (et un taux de faux positifs de 9 %). Les humains font également des erreurs lorsqu'ils évaluent si quelque chose a été écrit par l'IA.
Il est également possible de contourner les détecteurs de texte AI. Les communautés en ligne explorent activement comment inviter ChatGPT de manière à permettre à l'utilisateur d'échapper à la détection. Les utilisateurs humains peuvent également réécrire superficiellement les résultats de l'IA, effaçant ainsi efficacement les traces de l'IA (comme l'utilisation excessive des mots « louable », « méticuleusement » et « complexe »).
Le deuxième problème est que l’interdiction pure et simple de l’IA générative nous empêche de profiter des avantages de ces technologies. Bien utilisée, l’IA générative peut augmenter la productivité académique en rationalisant le processus d’écriture. De cette façon, cela pourrait contribuer à approfondir les connaissances humaines. Idéalement, nous devrions essayer de récolter ces bénéfices tout en évitant les problèmes.
Le problème le plus grave de l’IA est le risque d’introduire des erreurs inaperçues, conduisant à des études bâclées. Au lieu d'interdire l'IA, nous devrions essayer de garantir que des affirmations erronées, invraisemblables ou biaisées ne puissent pas figurer dans les dossiers académiques.
Après tout, les humains peuvent également produire des écrits comportant de graves erreurs, et des mécanismes tels que l'examen par les pairs ne parviennent souvent pas à empêcher leur publication.
Nous devons faire en sorte que les articles universitaires soient exempts d’erreurs graves, que ces erreurs soient causées par une utilisation imprudente de l’IA ou par une recherche humaine bâclée. Non seulement c'est plus réalisable que contrôler l'utilisation de l'IA, mais cela améliorera les normes de la recherche universitaire dans son ensemble.
Ce serait (comme pourrait le dire ChatGPT) une solution louable et méticuleusement complexe.
Fourni par The Conversation
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.