Sommaire
Voilà, l’intelligence artificielle générative (GenAI) n’a pas fini de faire parler d’elle. Selon une récente enquête menée par ClubCISO en collaboration avec Telstra Purple, plus de la moitié des responsables de la sécurité des systèmes d’information (RSSI) estiment que la GenAI représente une force pour le bien et un facilitateur de sécurité au sein de leurs organisations. Surprenant, non ?
L’enquête auprès des RSSI : confiance et préoccupations
Les résultats de cette enquête soulignent un revirement de situation plutôt inattendu. Alors qu’au lancement de ChatGPT, les préoccupations concernant la confidentialité et la sécurité des données étaient la priorité numéro un,
seuls 25% des RSSI interrogés considèrent aujourd’hui la GenAI comme un risque pour la sécurité.
Une vision pour le moins optimiste, n’est-ce pas ?
Mieux encore, cette confiance se traduit dans les faits puisque
45% des répondants autorisent désormais les outils d’IA générative pour des applications spécifiques, le service du RSSI prenant la décision finale quant à leur utilisation.
Une ouverture qui montre bien le changement de mentalité à l’égard de ces technologies.
Des règles pour encadrer l’utilisation
Cependant, cette confiance n’est pas aveugle. Eh oui, les RSSI ne sont pas des imprudents (qui l’eût cru ?). Ainsi, 23% d’entre eux disposent de règles spécifiques par région ou fonction pour régir l’utilisation de l’IA générative. Une façon de garder un œil sur ces outils puissants mais potentiellement risqués.
De plus, 41% des RSSI interrogés affirment avoir une politique couvrant l’IA et son utilisation. Quant à ceux qui n’en ont pas encore, rassure-toi, ils ne sont que 9%. Une goutte d’eau dans l’océan de la prudence, n’est-ce pas ?
La confidentialité des données : un risque connu mais maîtrisé
Bien sûr, la question de la confidentialité des données reste un sujet sensible. Après tout, on ne rigole pas avec les données d’entreprise (sauf peut-être avec les notes de frais des commerciaux, mais chut ! 🤫). Cependant,
54% des RSSI affirment savoir comment les outils d’IA utiliseront ou partageront les données qui leur sont transmises.
Une connaissance essentielle pour éviter les fuites embarrassantes.
Prise de conscience et éducation
Au-delà des politiques, l’éducation et la sensibilisation jouent un rôle clé. Eh oui, pas question de lâcher les troupes dans la nature génératrice sans un petit briefing. D’ailleurs, 57% des RSSI estiment que leur personnel est conscient et attentif aux implications de l’utilisation des outils d’IA en matière de protection des données et de propriété intellectuelle. Une prise de conscience cruciale pour éviter les bévues.
Une rupture par rapport à la vision traditionnelle de la sécurité
Bref, cette enquête semble marquer une rupture par rapport à la vision traditionnelle de la sécurité comme un frein à l’innovation. Les RSSI semblent avoir compris l’importance de s’adapter à ces nouvelles technologies prometteuses tout en restant vigilants sur les risques potentiels.
En fin de compte, l’IA générative reste une opportunité pour les organisations. Sa force disruptive se déchaîne dans tous les secteurs et toutes les fonctions, et plutôt que de ralentir le rythme d’adoption, les RSSI ont pris le temps de comprendre et d’éduquer leurs organisations sur les risques associés à l’utilisation de tels outils. Une approche équilibrée et responsable qui devrait permettre de tirer le meilleur parti de ces nouvelles technologies tout en limitant les dégâts potentiels.
Résumé / TL;DR
- Plus de la moitié des RSSI voient l’IA générative comme une force pour le bien et un facilitateur de sécurité
- Seuls 25% considèrent la GenAI comme un risque pour la sécurité
- 45% autorisent les outils d’IA générative pour des applications spécifiques
- 23% ont des règles spécifiques pour encadrer l’utilisation de la GenAI
- 54% affirment savoir comment les outils d’IA utiliseront les données transmises
- 57% estiment que leur personnel est sensibilisé aux implications de l’IA sur la protection des données