Sommaire
La découverte qui a mis le feu aux poudres
Eh bien, voilà qui risque de faire couler beaucoup d’encre ! Il y a quelques jours, Corey Quinn, un cadre de chez DuckBill Group (une entreprise spécialisée dans la facturation de services cloud), a fait une découverte pour le moins surprenante concernant Slack. Dans un message rageur posté sur X (l’ancien Twitter), il a révélé que la populaire plateforme de messagerie utilisait discrètement les données de ses utilisateurs (DM, messages, fichiers, etc.) pour former ses modèles d’IA, et ce, sans leur consentement explicite.
« Je suis désolé Slack, vous faites QUOI avec les DM des utilisateurs, les messages, les fichiers, etc. Je suis certain de ne pas lire correctement. »
Oui, vous avez bien lu ! Slack a mis en place une fonction par défaut qui permet à l’entreprise de collecter et d’exploiter les informations personnelles de ses utilisateurs pour entraîner ses modèles d’intelligence artificielle. Et le pire dans tout ça ? Les clients n’étaient même pas au courant !
Un manque de transparence criant
La révélation de cette pratique a suscité un véritable tollé sur les réseaux sociaux, et les critiques n’ont pas tardé à fuser. Les utilisateurs se sont sentis trahis par le manque de transparence de Slack. Pfiou, on peut les comprendre !
Selon de nombreux internautes, Slack aurait dû informer ses clients de cette collecte de données et leur laisser le choix d’accepter ou non, plutôt que de les inscrire automatiquement. Certains vont même jusqu’à qualifier cette décision de « gâchis en matière de protection de la vie privée ».
Une simple case à cocher, c’était trop demander ?
La colère des utilisateurs est d’autant plus vive que Slack n’a pas prévu de moyen simple pour se désinscrire de cette collecte de données. Pour s’en exclure, il faut envoyer un email à l’équipe d’assistance, en précisant l’URL de votre espace de travail et en indiquant en objet « Demande d’exclusion du modèle global de Slack ». Pas très pratique, vous en conviendrez. (Mais bon, au moins, ils ne demandent pas d’envoyer un pigeon voyageur !)
Un utilisateur mécontent a même ironisé : « Je viens d’envoyer les emails à tous les employés que je gère. C’est horrible ! ». Un autre a carrément menacé de retirer son entreprise de Slack si c’était avéré.
Les explications de Slack
Face à la fronde, Slack a tenté de se justifier en réitérant ses politiques de collecte de données et de confidentialité. L’entreprise a assuré que le contenu des utilisateurs n’était utilisé que pour former « certains de ses outils d’application pilotés par l’IA », et non son outil d’IA générative payant.
« Pour tout modèle qui sera utilisé largement par l’ensemble de nos clients, nous ne construisons ni n’entraînons ces modèles de manière à ce qu’ils puissent apprendre, mémoriser ou être en mesure de reproduire une partie des données des clients. »
Slack a également précisé que les données des clients étaient regroupées et dissociées, de sorte que leur utilisation « n’identifiera jamais l’un de nos clients ou l’une de nos personnes comme étant la source de ces améliorations auprès d’un tiers ».
Des garanties qui peinent à convaincre
Malgré ces explications, les utilisateurs restent sceptiques. Certains pointent du doigt une incohérence flagrante : sur son site Web, Slack affirme que « vos données sont vos données. Nous ne les utilisons pas pour entraîner l’IA de Slack ». Une affirmation qui semble contredire la réalité.
D’autres critiques soulignent que, même si Slack assure ne pas utiliser les données des clients pour son outil d’IA générative payant, elle entraîne bel et bien d’autres modèles avec ces informations. Une nuance qui n’a pas vraiment convaincu les internautes, plutôt remontés contre cette « tromperie ».
Un cas loin d’être isolé
Bien que choquante, la pratique de Slack n’est malheureusement pas un cas isolé dans le monde de la tech. L’année dernière, Squarespace (une plateforme d’hébergement et de conception de sites Web) a discrètement activé une fonctionnalité permettant l’exploration des données des utilisateurs par ses outils d’IA, suscitant là aussi de vives critiques.
Pire encore, Zoom a carrément modifié ses conditions d’utilisation en août 2023 pour s’octroyer le droit d’utiliser les données personnelles à des fins d’entraînement de ses algorithmes et modèles d’IA, sans possibilité pour les utilisateurs de s’y opposer. Une décision jugée scandaleuse par de nombreux experts en matière de vie privée.
La recherche effrénée de données pour l’IA
Ce type de pratiques interroge sur les motivations réelles des entreprises. Selon certains observateurs, le besoin croissant de données pour former les modèles d’IA pousserait les sociétés à explorer de nouvelles sources, quitte à franchir certaines lignes rouges en matière de respect de la vie privée.
Une hypothèse qui soulève une question fondamentale : les entreprises peuvent-elles réellement utiliser les données de leurs clients pour entraîner leurs modèles d’IA tout en préservant leur confidentialité ? Un défi de taille qui risque d’alimenter les débats dans les années à venir.
Slack doit-elle revoir sa copie ?
Au final, cette polémique soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des données personnelles. Slack devra-t-elle revoir sa politique de confidentialité et instaurer un système de consentement explicite pour l’utilisation des données de ses clients ? Rien n’est moins sûr, mais une chose est certaine : les entreprises qui souhaitent préserver la confiance de leurs utilisateurs auraient tout intérêt à faire preuve de plus de transparence sur ces sujets sensibles.
Résumé / TL;DR
- Slack a secrètement utilisé les messages et fichiers de ses utilisateurs pour entraîner ses modèles d’IA, déclenchant une vive polémique
- Les clients dénoncent un manque de transparence et de consentement de la part de Slack
- Slack affirme ne pas utiliser ces données pour son outil d’IA générative payant, mais les explications peinent à convaincre
- D’autres entreprises comme Squarespace et Zoom ont adopté des pratiques similaires, suscitant l’indignation des experts en vie privée
- Le besoin croissant de données pour l’IA pourrait pousser les entreprises à franchir certaines lignes rouges éthiques