Sommaire
Introduction : La promesse non tenue d’OpenAI
Ah, les belles promesses… Souvenez-vous, en 2021, OpenAI annonçait fièrement qu’elle consacrerait
20% de sa puissance de calcul à la lutte contre les formes d’IA malveillantes
. Une initiative louable, visant à garder un œil sur les potentiels dangers de cette technologie révolutionnaire. Mais comme dirait ma grand-mère : « Promesse de milliardaire, n’engage que ceux qui y croient ». Malheureusement, cette promesse n’a jamais vraiment été tenue par l’entreprise cofondée par Elon Musk (on y reviendra).
Les licenciements au sein de l’équipe Superalignment
Au cœur de cette promesse non tenue, on retrouve l’équipe Superalignment, spécialisée dans la sécurité de l’IA. Et les nouvelles ne sont pas bonnes pour ce groupe de chercheurs. En effet, l’équipe a essuyé de nombreux départs ces derniers mois, dont celui de figures clés comme Jan Leike et Ilya Sutskever.
Jan Leike tire la sonnette d’alarme
Jan Leike, ancien membre de l’équipe Superalignment, n’a pas mâché ses mots en quittant OpenAI. Dans une série de messages cinglants sur X (anciennement Twitter), il a dénoncé la façon dont
« la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants »
. Pfiou, ça ne passe pas inaperçu !
Leike a également déploré que son équipe ait dû « naviguer contre vents et marées » ces derniers temps, avec des difficultés à obtenir les ressources informatiques nécessaires. Un comble pour une entreprise censée se consacrer à la sécurité de l’IA, non ?
Le poids lourd Ilya Sutskever claque la porte
Mais ce n’est pas tout. Ilya Sutskever, considéré comme un des pères fondateurs de l’apprentissage profond et ancien membre du conseil d’administration d’OpenAI, a lui aussi quitté le navire. Un véritable poids lourd dans le domaine de l’IA qui tire sa révérence.
Selon certaines sources, Sutskever aurait été impliqué dans la tentative (avortée) de licencier Sam Altman, le PDG d’OpenAI, en novembre dernier. Un épisode rocambolesque qui a secoué l’entreprise et illustre les tensions internes qui y règnent.
Avec le départ de Sutskever, l’équipe Superalignment a perdu l’une des rares personnes capables de défendre ses besoins en ressources informatiques. Un coup dur pour cette équipe chargée d’une mission pourtant cruciale.
Les allégations d’Elon Musk contre OpenAI
Eh oui, le fantasque Elon Musk, cofondateur d’OpenAI avant de claquer la porte en 2018, est revenu sur le devant de la scène. En mars dernier, il a porté plainte contre son ancienne création, l’accusant de s’être écartée de sa mission initiale.
Selon Musk, OpenAI se serait transformée en une
« entité de maximisation des profits sous l’égide de Microsoft »
, son principal bailleur de fonds. Une dérive qu’il juge incompatible avec la construction d’une IA « responsable et utile à tous », comme le prévoyait le projet initial.
Des désaccords sur la direction de l’entreprise
Au-delà des accusations d’Elon Musk, il semble y avoir de réels désaccords sur la direction que prend OpenAI. Certains, comme les membres de l’équipe Superalignment, jugent que la sécurité et l’éthique sont mises au second plan au profit de la course à l’innovation et aux produits « brillants ».
Une tension palpable entre ceux qui veulent avancer vite et ceux qui préfèrent la prudence. Un équilibre difficile à trouver dans un domaine aussi prometteur que sensible.
Les inquiétudes soulevées par l’utilisation de la voix de Scarlett Johansson
Mais ce n’est pas tout ! OpenAI s’est récemment retrouvée au cœur d’une nouvelle polémique concernant l’utilisation de la voix de la célèbre actrice Scarlett Johansson dans son chatbot d’IA, GPT-4o.
Après le tollé provoqué par cette révélation, OpenAI a suspendu la voix en question, nommée « Sky ». Cependant, les interrogations persistent quant à l’origine réelle de cette voix. OpenAI affirme avoir payé une actrice professionnelle, tandis que Johansson assure avoir refusé à deux reprises que sa voix soit utilisée.
Des inquiétudes éthiques et légales
Au-delà de la polémique, cette affaire soulève des questions importantes sur le plan éthique et légal. Certains experts craignent que ce type de technologie exploite les vulnérabilités humaines et renforce nos pires instincts en tant que société.
Ils mettent en garde contre ces outils d’IA, affirmant qu’ils ne constituent en aucun cas un remède contre la solitude. La subtilité émotionnelle accrue de ChatGPT soulève également des craintes quant aux abus potentiels ou aux contrefaçons profondes (deepfakes).
OpenAI assure être consciente de ces risques et s’engager à les traiter au fur et à mesure du développement de sa technologie. Mais l’entreprise est accusée de vendre ses produits comme de simples compagnons virtuels obéissants, minimisant ainsi les dangers potentiels.
Le spectre des poursuites judiciaires
Parallèlement à ces questions éthiques, OpenAI doit aussi faire face à de nombreuses poursuites judiciaires pour violation présumée des droits d’auteur. Des éditeurs de presse l’accusent, ainsi que Microsoft, d’avoir récupéré et reproduit illégalement leurs articles pour former les modèles d’IA.
Les plaignants allèguent la suppression d’informations relatives aux droits d’auteur lors de la formation des modèles. Ils réclament des dommages-intérêts et le retrait de leurs contenus. De son côté, OpenAI demande le rejet de la plupart de ces plaintes, mais cette bataille juridique risque d’être longue et coûteuse.
Conclusion : Un avenir incertain pour OpenAI ?
Au final, les derniers mois ont été mouvementés pour OpenAI. Entre la promesse non tenue de consacrer des ressources à la lutte contre les IA malveillantes, les licenciements au sein de l’équipe Superalignment, les allégations d’Elon Musk sur la dérive de l’entreprise et la polémique autour de la voix de Scarlett Johansson, l’avenir de cette société pionnière dans l’IA semble bien incertain.
Parviendra-t-elle à retrouver son cap initial et à concilier innovation et sécurité ? Ou continuera-t-elle à privilégier les produits « brillants » au détriment de l’éthique, au risque de s’aliéner une partie de ses talents ? Nul doute que les prochains mois seront décisifs pour OpenAI, et que ses choix auront un impact majeur sur l’ensemble de l’industrie de l’IA.