Sommaire
Ah, l’intelligence artificielle ! Ce sujet qui fait couler tant d’encre ces derniers temps. Alors que les progrès technologiques s’accélèrent à un rythme effréné, une étude récente vient jeter un pavé dans la mare en révélant l’inquiétude grandissante du public américain face à l’avènement d’une IA superintelligente.
Des chiffres qui donnent froid dans le dos
Pfiou, quand on regarde les résultats de cette enquête menée auprès des Américains, difficile de rester de marbre. Les chiffres parlent d’eux-mêmes :
63% des Américains souhaitent qu’une réglementation empêche activement l’avènement d’une IA superintelligente (AGI).
Et ce n’est pas tout ! Ils sont également
83% à penser que l’IA pourrait accidentellement provoquer un événement catastrophique.
Autrement dit, l’IA fait sérieusement flipper la majorité des Américains (et probablement pas qu’eux).
Une inquiétude qui se reflète dans d’autres statistiques
Mais attendez, il y a plus ! Cette méfiance envers l’IA se traduit également dans d’autres chiffres révélateurs :
- 62% des Américains sont préoccupés par l’intelligence artificielle, tandis que seulement 21% sont enthousiastes à ce sujet.
- 82% préfèrent ralentir le développement de l’IA, contre seulement 8% qui préfèrent l’accélérer.
- 54% pensent qu’une IA de niveau humain (AGI) sera développée d’ici 5 ans (espérons qu’ils se trompent !).
- Et pour couronner le tout, 82% ne font pas confiance aux responsables de la technologie de l’IA pour autoréguler l’IA (on les comprend).
Bref, on peut dire que les Américains sont loin d’être sereins face à l’essor de l’IA. Et vous savez quoi ? Ils ne sont pas les seuls à tirer la sonnette d’alarme.
Les leaders de l’IA eux-mêmes inquiets
Eh oui, même les grands pontes de l’IA commencent à s’agiter face aux risques potentiels de cette technologie. Sam Altman (PDG d’OpenAI), Demis Hassabis (PDG de DeepMind) et Dario Amodei (PDG d’Anthropic) ont tous signé une lettre ouverte affirmant que « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale ».
Voilà qui donne le ton ! Quand les propres créateurs de l’IA tirent la sonnette d’alarme, c’est qu’il y a vraiment de quoi s’inquiéter (ou alors ils cherchent juste à se faire un peu de pub, qui sait ?).
Des solutions envisagées par l’AI Policy Institute
Face à ces préoccupations grandissantes, l’AI Policy Institute n’est pas resté les bras croisés. Selon eux, « la frontière de l’IA est repoussée rapidement par les entreprises qui consacrent des milliards à l’entraînement de puissants modèles d’IA. La vitesse de ces progrès a dépassé notre compréhension de ces systèmes, nous laissant dans l’ignorance de leurs capacités, de leur comportement et des risques qu’ils posent. »
Pour y remédier, l’institut propose deux solutions intéressantes :
Des mesures qui pourraient effectivement permettre d’atténuer les menaces potentielles de l’IA superintelligente. Reste à voir si les législateurs et les entreprises du secteur seront prêts à jouer le jeu (on en doute un peu, mais qui ne tente rien n’a rien, n’est-ce pas ?).
En attendant, l’AI Policy Institute compte bien poursuivre son engagement en faveur d’un dialogue et d’une collaboration entre législateurs, journalistes et technologues. Une voie plus sûre pour la révolution de l’IA, ça ne se refuse pas !
Vers un encadrement raisonnable de l’IA ?
Au final, cette étude met en lumière une véritable inquiétude du public face à l’essor incontrôlé de l’IA superintelligente. Une inquiétude partagée, semble-t-il, par certains acteurs majeurs du secteur eux-mêmes.
Reste à voir si ces signaux d’alarme seront entendus et si des mesures concrètes seront mises en place pour encadrer le développement de cette technologie à haut risque. En attendant, il ne nous reste plus qu’à croiser les doigts pour que l’IA ne décide pas de prendre les commandes toute seule (blague, blague… ou pas ?).