• Email : contact@refbax.com

IA : Pourquoi les scientifiques doivent s’en méfier comme d’une réponse oraculaire ?

Facebook
Twitter
LinkedIn
Temps de lecture : 5 minutes

Voilà, on y est ! L’intelligence artificielle (IA) a bel et bien envahi le domaine de la recherche scientifique. Ces dernières années, de plus en plus de scientifiques ont commencé à utiliser les modèles d’IA pour les aider dans leurs travaux. Et pourquoi pas, après tout ? L’IA est un outil puissant qui peut grandement faciliter certaines tâches fastidieuses ou complexes. Mais attention, un vent de fronde souffle du côté de l’université de Princeton.

L’IA, un allié précieux… à condition de savoir l’utiliser

Selon une équipe de chercheurs menée par Arvind Narayanan, professeur d’informatique, et Sayash Kapoor, doctorant, l’engouement actuel pour l’IA pourrait bien conduire à des dérives inquiétantes dans le monde de la recherche. Eh oui, il semblerait que de plus en plus de scientifiques aient tendance à prendre pour argent comptant les résultats obtenus par l’IA, sans réellement les remettre en question ou chercher à les comprendre en profondeur.

Notre propos n’est pas de dire que l’IA est inutile aux scientifiques. Nous utilisons nous-mêmes fréquemment l’IA comme un outil, même dans le cadre de nos recherches qui ne portent pas sur l’IA. Le mot clé est « outil ». L’IA n’est pas une révolution. Elle ne remplace pas la compréhension humaine ; le penser, c’est passer à côté de l’objectif de la science.

Les chercheurs de Princeton soulignent que cette tendance à considérer l’IA comme un oracle infaillible est particulièrement problématique dans les domaines scientifiques reposant sur l’apprentissage automatique (machine learning). Pourquoi ? Tout simplement parce que les modèles d’IA sont des boîtes noires complexes dont le fonctionnement interne échappe souvent à la compréhension humaine. (Et on n’a même pas besoin d’invoquer Skynet pour se dire que ça craint, un peu.)

Quand l’IA se transforme en boule de cristal

Pour illustrer leur propos, les chercheurs de Princeton citent l’exemple de deux études publiées en décembre 2023, faisant état de la découverte de plus de 2,2 millions de nouveaux matériaux grâce à l’IA. Une avancée révolutionnaire, non ? Que nenni ! Après vérification, il s’est avéré que la plupart des 41 matériaux « découverts » par les scientifiques avaient été mal identifiés, et que les autres étaient déjà connus depuis belle lurette. Quant au fameux ensemble de 2,2 millions de données, un échantillon de 250 composés a révélé qu’il s’agissait essentiellement… de déchets.

Nous avons rencontré des versions extrêmes de ce phénomène dans la correspondance privée avec des chercheurs frustrés : étant donné que les recherches erronées ne sont pas corrigées, il devient littéralement impossible de publier de bonnes recherches puisqu’elles aboutiront à des modèles qui ne seront pas à la hauteur de « l’état de l’art ».

Selon Narayanan et Kapoor, cet exemple n’est malheureusement pas un cas isolé. Ces dernières années, de nombreuses études basées sur l’IA auraient présenté des résultats erronés, voire carrément fantaisistes, faute d’un esprit critique suffisant de la part des chercheurs.

Quand l’IA trompe l’IA (ou presque)

Mais alors, pourquoi les scientifiques ont-ils autant tendance à se laisser berner par les résultats de l’IA ? Selon les chercheurs de Princeton, plusieurs facteurs entrent en jeu :

  • D’abord, il y a ce qu’on pourrait appeler « l’effet boîte noire ». Comme les modèles d’IA sont extrêmement complexes, les scientifiques ont souvent du mal à comprendre comment ils arrivent à leurs résultats. Du coup, ils ont tendance à les prendre pour argent comptant, sans vraiment chercher à les remettre en question.
  • Ensuite, il y a le battage médiatique autour de l’IA qui crée une sorte d’effet d’aubaine. Quand un modèle d’IA donne des résultats meilleurs que prévu, les chercheurs ont vite fait de conclure qu’il a découvert des schémas invisibles à l’œil nu, renforçant ainsi le mythe de l’IA comme « intelligence extraterrestre ».
  • Enfin, il y a un phénomène de « prophétie auto-réalisatrice ». Comme les études erronées ne sont que rarement corrigées, les chercheurs finissent par se dire que, de toute façon, leurs bonnes recherches ne seront jamais publiées puisqu’elles ne correspondront pas à la norme (biaisée) de « l’état de l’art ». Une sorte de cercle vicieux, en somme.

Les dangers de l’illusion de compréhension

Au-delà des résultats erronés, l’utilisation aveugle de l’IA dans la recherche scientifique pose un autre problème de taille : celui de l’illusion de la compréhension. C’est du moins l’avertissement lancé par Lisa Messeri, anthropologue à Yale, et Molly J. Crockett, chercheuse en sciences cognitives à Princeton, dans un article publié le 6 mars.

Selon elles, le risque est de se retrouver dans une situation où l’on « produira plus, mais comprendra moins ». En d’autres termes, l’IA pourrait effectivement permettre de générer une quantité massive de données ou de résultats, mais sans que les chercheurs ne saisissent réellement les mécanismes sous-jacents. Une forme de déconnexion entre la production de connaissances et leur compréhension profonde, en somme.

L’importance de l’esprit critique (et pourquoi il ne faut pas s’en remettre aveuglément à l’IA)

Face à ces risques, que faire ? Pour Narayanan, Kapoor et leurs collègues, la solution passe par un changement de culture dans le monde de la recherche. Exit l’excès d’optimisme et la crédulité aveugle envers l’IA. Place à une saine dose de prudence et d’esprit critique !

Concrètement, cela signifie plusieurs choses :

  • Ne pas prendre pour argent comptant les résultats de l’IA, mais chercher à les comprendre en profondeur et à les remettre en question si nécessaire.
  • Encourager les études de reproductibilité, afin de s’assurer de la fiabilité des résultats obtenus.
  • Favoriser la transparence en publiant systématiquement les codes et les données utilisés, pour permettre aux autres chercheurs de vérifier le travail effectué.
  • Adopter une attitude prudente face aux modèles d’IA, en gardant à l’esprit leurs limites et leurs incertitudes inhérentes.

Bref, l’IA est certes un outil puissant, mais elle ne doit pas devenir un oracle infaillible auquel on s’en remettrait aveuglément. Comme le soulignent les chercheurs de Princeton, « l’IA n’offre pas de raccourci au dur labeur et à la frustration inhérents à la recherche ». Une mise en garde salutaire à l’heure où l’engouement pour l’IA ne semble pas près de retomber. (D’ailleurs, je me demande si ChatGPT aurait été d’accord avec cet article…)

L’IA, une révolution à double tranchant ?

Au final, faut-il pour autant rejeter complètement l’IA dans la recherche scientifique ? Bien sûr que non. Comme le soulignent Narayanan et Kapoor eux-mêmes, l’IA reste un outil précieux, à condition de l’utiliser à bon escient. Mais attention à ne pas tomber dans l’excès inverse en diabolisant tous les modèles d’IA.

La vérité, c’est que l’IA représente à la fois une opportunité et un défi pour la science. Une opportunité, car elle permet d’automatiser certaines tâches fastidieuses et d’explorer des pistes de recherche inédites. Mais aussi un défi, car elle nécessite de repenser nos méthodes de travail et d’adopter une posture réflexive et critique face aux résultats obtenus.

Comme souvent, la clé réside dans l’équilibre. Ni rejet aveugle, ni confiance aveugle non plus. L’IA doit rester ce qu’elle est : un outil puissant, certes, mais un outil parmi d’autres au service de la recherche scientifique. Et surtout pas un oracle infaillible auquel on s’en remettrait les yeux fermés.

Laisser un commentaire

Sur le même thème 🤩

Qui suis-je ! 👨‍💻

Enfilez-votre cape

Apprenez le webmarketing et le code grâce à nos différentes ressources et améliorez la visibilité de votre site internet, grâce à nos outils SEO.

refbax superhero bas