Sommaire
Eh bien, les résultats d’une récente enquête menée par l’AI Policy Institute risquent de soulever quelques sourcils. Il s’avère que
83% des Américains pensent que l’intelligence artificielle pourrait accidentellement provoquer un événement catastrophique.
Vous avez bien lu, près de 9 Américains sur 10 ont des craintes concernant les potentiels risques liés à l’IA. Un chiffre qui ne manque pas d’interpeller, surtout dans un pays réputé pour son appétit pour l’innovation technologique.
Les préoccupations du public : Risques perçus et méfiance envers l’autorégulation
Au-delà de cette statistique marquante, l’enquête révèle d’autres données tout aussi frappantes. Ainsi,
82% des Américains ne font pas confiance aux responsables de la technologie de l’IA pour autoréguler cette dernière.
Une forme de défiance qui reflète les inquiétudes grandissantes vis-à-vis de l’absence de contrôle externe sur le développement de l’IA.
Du coup, on comprend mieux pourquoi 62% des Américains se disent préoccupés par l’IA , tandis que seulement 21% se montrent enthousiastes à son égard. Pis encore, 82% préfèrent ralentir le développement de l’IA , contre à peine 8% qui souhaiteraient accélérer le mouvement. Une véritable défiance qui tranche avec l’image souvent associée à l’IA, celle d’un progrès technologique révolutionnaire.
Un manque de transparence qui alimente les craintes
Alors, d’où viennent ces peurs et cette méfiance ? Selon Steve Trush, directeur de l’AI Policy Institute, « la frontière de l’IA est repoussée rapidement par les entreprises qui consacrent des milliards à l’entraînement de puissants modèles d’IA. La vitesse de ces progrès a dépassé notre compréhension de ces systèmes, nous laissant dans l’ignorance de leurs capacités, de leur comportement et des risques qu’ils posent. »
Un constat partagé par de nombreux leaders de l’IA eux-mêmes. Sam Altman (PDG, OpenAI), Demis Hassabis (PDG, Deepmind) et Dario Amodei (PDG, Anthropic) ont tous signé une lettre ouverte affirmant que « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale ». Un signal d’alarme fort qui montre à quel point les enjeux liés à la sécurité de l’IA sont pris au sérieux, même par ses propres artisans.
Les initiatives pour atténuer les risques
Face à ces inquiétudes légitimes, l’AI Policy Institute explore des pistes pour encadrer le développement de l’IA et renforcer la sécurité. Voilà, leur approche se décompose en deux axes principaux :
Réglementation des centres de données et démonstration de sécurité
Leur idée ? Imposer une réglementation sur les centres de données nécessaires au développement de modèles d’IA de pointe. Oui, car ce sont ces infrastructures massives qui permettent d’entraîner les systèmes d’IA les plus avancés. En encadrant leur fonctionnement, on pourrait mieux contrôler l’évolution de ces technologies disruptives.
Parallèlement, ils proposent de rendre obligatoire la démonstration de la sécurité d’un modèle d’IA avant son déploiement. Une sorte de test de sécurité grandeur nature, histoire de s’assurer que le système ne présente pas de risques majeurs avant de le lâcher dans la nature (si je puis dire). Une approche pragmatique qui permettrait d’atténuer considérablement les menaces potentielles.
Vers une régulation internationale ?
Mais l’AI Policy Institute ne s’arrête pas là. Pfiou, ils prônent également le dialogue et la collaboration avec les législateurs, les journalistes et les technologues, pour trouver une voie plus sûre pour la révolution de l’IA. Une approche inclusive qui vise à rassembler tous les acteurs concernés autour de la table.
Et certaines voix influentes vont encore plus loin. Par exemple, Sam Altman, le PDG d’OpenAI, estime qu’une agence internationale devrait surveiller les IA « les plus puissantes » pour garantir une « sécurité raisonnable », car ces systèmes peuvent « causer d’importants dommages ». Une prise de position qui montre bien que les enjeux de sécurité liés à l’IA sont désormais pris très au sérieux, y compris par les géants du secteur.
Bref, si l’on veut que l’IA reste une révolution bénéfique pour l’humanité, il semble indispensable de mettre en place des garde-fous solides. Et cela passe par une collaboration étroite entre tous les acteurs concernés, qu’ils soient publics ou privés, technologiques ou politiques. Une tâche ardue, certes, mais essentielle pour préserver notre avenir face à cette technologie à la puissance grandissante.
Résumé / TL;DR
- 83% des Américains pensent que l’IA pourrait causer un événement catastrophique
- 82% ne font pas confiance à l’autorégulation de l’IA par les entreprises technologiques
- Des initiatives sont explorées pour réglementer les centres de données d’IA et imposer des tests de sécurité
- Une agence internationale de surveillance des IA puissantes est proposée
- Un dialogue et une collaboration entre tous les acteurs sont essentiels pour une IA sûre