Sommaire
Eh oui, on ne plaisante pas avec les champignons. Pourtant, l’IA de Google semble avoir du mal à faire la différence entre les variétés toxiques et comestibles. Un comble pour un géant de la tech censé nous faciliter la vie, non ?
Une erreur qui pourrait vous coûter cher
Imaginez la scène (enfin, ne l’imaginez pas trop) : vous partez en forêt, un petit panier à la main, dans l’espoir de ramener de délicieux champignons pour agrémenter vos plats. Mais au lieu de suivre les conseils avisés d’un guide expérimenté, vous faites confiance à l’IA de Google pour vous aider à distinguer le bon grain de l’ivraie (façon de parler, hein). Grave erreur !
Selon de nombreux témoignages, l’IA de Google a la fâcheuse tendance à confondre certains champignons mortels avec des variétés parfaitement comestibles. L’un des exemples les plus choquants ? Le fameux « Ange destructeur » (Amanita virosa), un champignon hautement toxique, confondu avec le bon vieux « Champignon de Paris » (Agaricus bisporus), inoffensif et délicieux à la crème.
Un internaute n’a pas hésité à partager son expérience sur Twitter : « Je n’arrivais pas à croire que Google puisse faire une telle erreur avant de l’essayer moi-même. Ils doivent absolument corriger ça au plus vite. »
Pfiou, on a eu chaud ! Heureusement, cet internaute a su faire preuve de discernement et éviter le pire. Mais d’autres pourraient ne pas avoir cette chance…
Une fonctionnalité controversée qui fait tache
Cette mésaventure n’est malheureusement pas un cas isolé. Depuis son lancement, la fonctionnalité « AI Overviews » de Google, qui génère des résumés alimentés par l’IA, a multiplié les gaffes et les réponses étranges, voire dangereuses.
Dans un autre exemple devenu viral, l’IA de Google a affirmé de manière catégorique qu’Barack Obama était le premier président musulman des États-Unis, perpétuant ainsi une théorie du complot maintes fois démentie. Oups…
Selon Catherine Aime, porte-parole de Google, « les réponses générées par l’IA sont par nature aléatoires, et la nouvelle réponse était différente, mais toujours ‘problématique’. »
Face à cette pluie de critiques, Google a dû reconnaître les limites de sa technologie et promettre des améliorations. Mais pour l’heure, cette fonctionnalité semble plus nuire à l’image de marque de l’entreprise qu’autre chose.
Un outil prometteur mais encore perfectible
Derrière ces erreurs gênantes se cache pourtant une idée séduisante : fournir aux internautes des réponses fiables et synthétiques à leurs questions, sans avoir à cliquer sur une multitude de liens. Une démarche louable, mais qui se heurte encore aux limites de l’IA actuelle.
Comme l’explique Reid, ingénieur chez Google, dans un billet de blog, « lorsque AI Overviews se trompe, c’est généralement pour d’autres raisons : mauvaise interprétation des requêtes, mauvaise interprétation d’une nuance de langage sur le Web, ou manque d’informations de qualité disponibles ».
Les grands modèles de langage, une solution imparfaite
Au cœur du problème se trouvent les grands modèles de langage (LLM) sur lesquels repose l’IA de Google. Ces puissants algorithmes prédisent les mots les plus pertinents pour répondre aux questions posées, en se basant sur les données sur lesquelles ils ont été entraînés.
Mais voilà, ces modèles ont tendance à « halluciner », c’est-à-dire à inventer des informations qui n’existent pas, un problème bien connu des experts en IA. Un comble pour un outil censé nous guider vers la vérité !
Google face à un dilemme de taille
Avec cette fonctionnalité controversée, Google se retrouve face à un dilemme de taille. D’un côté, retirer temporairement « AI Overviews » pour la peaufiner pourrait être perçu comme un aveu de faiblesse face à la concurrence féroce dans la course à l’IA. De l’autre, la maintenir malgré ses erreurs récurrentes risque d’entacher durablement l’image de marque de l’entreprise.
Dans les deux cas, cette expérience met Google dans une position délicate. Mais n’ayez crainte, les équipes de développement sont sur le pied de guerre pour corriger le tir et rendre cette IA digne de confiance. En attendant, peut-être vaut-il mieux s’en remettre aux guides expérimentés pour différencier les champignons comestibles des poisons mortels. Une vie ne tient qu’à un fil (de crevaison).
Des mesures pour limiter la casse
Conscient des enjeux, Google a d’ores et déjà pris quelques mesures pour tenter de limiter les dégâts. Parmi elles :
- Une meilleure détection des « requêtes absurdes » auxquelles l’IA ne devrait pas répondre
- La limitation de l’utilisation de contenus générés par les internautes, comme les commentaires Reddit, sources potentielles de désinformation
- L’ajout de « restrictions de déclenchement » pour améliorer la qualité des réponses sur des sujets sensibles comme la santé
Des efforts louables, mais qui ne semblent pas encore suffire à enrayer totalement le phénomène. Preuve en est, lorsque l’Associated Press a de nouveau interrogé Google sur les champignons sauvages comestibles après la publication du billet de blog de Reid, la réponse générée était toujours « problématique ».
Résumé / TL;DR
- L’IA de Google a confondu des champignons mortels avec des variétés comestibles, une erreur potentiellement fatale
- La fonctionnalité « AI Overviews » de Google multiplie les gaffes et réponses étranges, entachant l’image de marque
- Les grands modèles de langage sur lesquels repose l’IA ont tendance à « halluciner » et inventer des informations
- Google doit choisir entre retirer temporairement la fonctionnalité ou la maintenir malgré les erreurs
- Des mesures sont prises pour limiter les dégâts, mais n’ont pas encore porté leurs fruits