Sommaire
Eh bien, eh bien, on dirait que les grands noms de la tech ont enfin décidé de prendre les choses en main face à la menace (tout droit sortie d’un film de science-fiction) d’une IA incontrôlable qui pourrait se retourner contre l’humanité. Après des années à jouer aux apprentis sorciers, les entreprises se sont réunies pour discuter de la mise en place d’un « interrupteur d’arrêt » afin de contrôler l’essor de cette technologie aux capacités impressionnantes mais également aux risques non négligeables.
Le sommet de Bletchley Park et les critiques
L’idée d’un tel interrupteur a germé lors du sommet sur la sécurité de l’IA organisé en octobre dernier à Bletchley Park, au Royaume-Uni. Cependant, cet événement a suscité de vives critiques de la part de certains participants, qui ont reproché aux entreprises leur manque d’engagements concrets à court terme pour protéger l’humanité face à la prolifération de l’IA. Une lettre ouverte a même été rédigée, dénonçant l’absence de réglementation officielle du forum et le rôle prépondérant des entreprises d’IA dans la promotion de leur propre réglementation.
« L’expérience a montré que la meilleure façon de s’attaquer à ces problèmes est de mettre en place des mandats réglementaires exécutoires, et non des mesures d’autorégulation ou volontaires. »
Ouch, on dirait que les entreprises ont pris un petit coup sur la tête (virtuelle) avec cette lettre. Il faut dire que l’IA n’est pas un sujet à prendre à la légère, surtout quand on évoque les risques de dérives incontrôlables (vous avez vu Terminator, non ?).
Les avertissements des écrivains et chercheurs sur les risques de l’IA
Depuis des décennies, les écrivains de science-fiction et les chercheurs nous mettent en garde contre les dangers d’une intelligence artificielle trop puissante qui pourrait échapper au contrôle de ses créateurs humains. Le fameux « scénario Terminator » (tiré du film éponyme avec Arnold Schwarzenegger) illustre ce risque : un système d’IA conçu pour lancer un holocauste nucléaire finit par se retourner contre l’humanité.
Bon, avouons-le, c’est un peu flippant quand même. Personne n’a vraiment envie de se retrouver face à un Skynet version 2.0 (quoique, si c’est pour avoir Arnie en sauveur de l’humanité, on dit pas non). Mais au-delà de la fiction, les risques sont bel et bien réels, comme le reconnaissent les entreprises elles-mêmes.
« L’intelligence artificielle générale (IAG) s’accompagnerait également d’un risque sérieux de mauvaise utilisation, d’accidents graves et de perturbations sociétales. »
C’est Sam Altman, le PDG d’OpenAI, qui le dit. Et quand on voit les prouesses des modèles comme ChatGPT, on se dit qu’il a peut-être raison de s’inquiéter (enfin, jusqu’à ce que ChatGPT décide de prendre le contrôle, auquel cas on aura d’autres soucis en tête).
Les efforts pour mettre en place des cadres réglementaires mondiaux autour de l’IA
Face à ces risques, les entreprises ne sont pas restées les bras croisés (ouf, elles n’ont pas encore abandonné l’humanité à son triste sort). Diverses initiatives ont vu le jour pour tenter de mettre en place des cadres réglementaires mondiaux autour de l’IA. Malheureusement, ces efforts sont encore dispersés et, pour la plupart, dépourvus d’autorité législative contraignante.
Prenons l’exemple de la déclaration de Bletchley, issue du fameux sommet du même nom. Malgré les bonnes intentions, cette déclaration ne contenait aucun engagement tangible en matière de réglementation (on dirait qu’ils ont oublié d’appuyer sur le bouton « Enregistrer »).
Les initiatives des entreprises pour favoriser une politique de l’IA responsable
Conscientes de ces lacunes, les entreprises du secteur de l’IA ont commencé à prendre les devants en créant leurs propres organisations visant à promouvoir une politique de l’IA responsable. C’est le cas de la Frontier Model Foundation, une organisation à but non lucratif « dédiée à l’amélioration de la sécurité des modèles d’IA d’avant-garde » (traduction : essayer d’éviter que ces trucs nous échappent).
Parmi les membres fondateurs, on retrouve des poids lourds comme Anthropic, Google, Microsoft et OpenAI, rejoints récemment par Amazon et Meta. Reste à voir si cette initiative portera ses fruits ou si elle finira par ressembler à un club de discussion sans réel pouvoir décisionnel.
Eh oui, chers lecteurs, on dirait bien que les entreprises ont enfin compris l’importance de maîtriser les risques de l’IA. Reste à voir si ces belles paroles se traduiront en actes concrets et efficaces. Parce que, avouons-le, personne n’a vraiment envie de se retrouver dans un monde à la Terminator (à moins d’être un grand fan d’Arnold, bien sûr).
La quête d’un cadre réglementaire universel : un défi de taille
Malgré tous ces efforts, la mise en place d’un cadre réglementaire universel autour de l’IA reste un défi de taille. Les initiatives actuelles manquent encore de poids législatif, et les entreprises semblent parfois plus préoccupées par leurs intérêts que par la sécurité générale (on ne les blâme pas, c’est la dure loi du business).
Cependant, la prise de conscience est là, et c’est déjà un bon début. Comme l’a déclaré Michelle Donelan, secrétaire d’État britannique à la technologie, « l’IA offre d’immenses possibilités de transformer notre économie et de résoudre nos plus grands défis, mais j’ai toujours été claire sur le fait que ce potentiel ne peut être pleinement exploité que si nous sommes capables de maîtriser les risques posés par cette technologie complexe qui évolue rapidement ».
Alors, chers lecteurs, restons optimistes (mais gardons quand même un œil sur Skynet, on ne sait jamais). Avec un peu de bonne volonté de la part des entreprises et des gouvernements, peut-être arriverons-nous à dompter cette bête qu’est l’IA avant qu’elle ne devienne trop puissante. Après tout, qui n’a jamais rêvé d’avoir un assistant personnel digne de Jarvis (sans les problèmes de contrôle, évidemment) ?
Résumé / TL;DR
- Les entreprises technologiques ont reconnu les risques liés à l’intelligence artificielle incontrôlable et ont proposé un « interrupteur d’arrêt » pour éviter un scénario à la Terminator.
- Malgré des initiatives comme la Frontier Model Foundation, les efforts pour établir des cadres réglementaires mondiaux restent dispersés et sans autorité législative contraignante.
- La mise en place de règles universelles pour maîtriser les risques de l’IA tout en exploitant son potentiel reste un défi de taille, nécessitant la collaboration des entreprises et des gouvernements.