Sommaire
Bon, les amis, on dirait bien que la plateforme de communication collaborative Slack est dans l’eau chaude. Récemment, l’entreprise a été accusée d’utiliser les données de ses utilisateurs, telles que les messages et les fichiers, pour entraîner ses modèles d’intelligence artificielle (IA). Et comme vous pouvez l’imaginer, ça a fait un sacré remous dans la mare aux canards ! (Enfin, dans la mare aux utilisateurs de Slack, quoi.)
Qu’est-ce qui a déclenché cette polémique ?
Eh bien, tout a commencé lorsque certains utilisateurs ont découvert un extrait plutôt douteux dans la politique de confidentialité de Slack. L’entreprise y affirme que ses « systèmes analysent les données des clients (par exemple, les messages, les contenus et les fichiers) envoyés sur Slack, ainsi que d’autres informations » dans le but de « développer des modèles d’IA/ML non-génératifs pour des fonctionnalités comme les suggestions de canaux et d’emojis ».
Slack affirme dans sa politique de confidentialité que ses « systèmes analysent les données des clients (par exemple, les messages, les contenus et les fichiers) envoyés sur Slack, ainsi que d’autres informations » pour « développer des modèles d’IA/ML non-génératifs ».
Aïe, aïe, aïe ! Ça fait un peu mal au cœur de lire ça, non ? (Surtout pour ceux d’entre nous qui ont l’habitude de partager des secrets de famille sur les canaux Slack de leur entreprise. Hum, j’espère que personne n’a fait ça…)
La réponse de Slack
Bien sûr, Slack n’est pas resté les bras croisés face à ces accusations. L’entreprise a rapidement réagi en assurant qu’elle ne scanne pas le contenu des messages pour entraîner ses modèles d’IA. Selon un porte-parole cité par Neowin, « Depuis 2017, Slack utilise l’apprentissage automatique pour d’autres fonctionnalités intelligentes (comme la pertinence des résultats de recherche, le placement, etc.). Cela est alimenté par des données agrégées et anonymisées sur le comportement des utilisateurs. Ces pratiques sont standard dans l’industrie, et ces modèles d’apprentissage automatique n’accèdent pas au contenu des messages originaux dans les DM, les canaux privés ou les canaux publics pour fournir ces suggestions. »
Ouf, on respire un peu mieux ! (Enfin, pas trop quand même, il reste encore quelques points à éclaircir.)
Les données utilisées par Slack pour l’IA
Slack a également précisé le type de données qui pourraient être utilisées pour entraîner ses « modèles globaux ». Parmi elles, on trouve l’horodatage du dernier message envoyé dans un canal, le nombre d’interactions entre deux utilisateurs ou encore le nombre de mots similaires entre le nom d’un canal et d’autres canaux.
Slack a précisé que les données potentiellement utilisées pour entraîner ses « modèles globaux » incluent les horodatages des derniers messages, le nombre d’interactions entre utilisateurs et le nombre de mots similaires entre les noms de canaux.
Bon, on est d’accord, ça ne semble pas trop pire que les données déjà collectées par d’autres services en ligne. Cependant, ce qui a particulièrement agacé certains utilisateurs, c’est le fait que Slack utilise ces données sur une base « opt-out ». En d’autres termes, si vous n’avez pas explicitement refusé le partage de vos données, l’entreprise considère que vous êtes d’accord pour qu’elles soient utilisées à des fins d’entraînement de ses modèles d’IA.
Slack AI, un produit séparé
Pour ajouter un peu (beaucoup) de confusion à cette histoire, Slack propose également un composant additionnel appelé « Slack AI ». Celui-ci, contrairement aux fonctionnalités intégrées mentionnées précédemment, est basé sur des modèles de langage de grande taille (LLM) développés par des tiers, et non sur les données des utilisateurs de Slack.
Pfiou, c’est un sacré bazar, n’est-ce pas ? D’un côté, Slack affirme ne pas utiliser le contenu des messages pour entraîner ses modèles d’IA, mais d’un autre côté, elle reconnaît collecter et exploiter certaines données des utilisateurs à cette fin. Et pour couronner le tout, elle propose un produit d’IA générative séparé basé sur des modèles tiers.
La transparence, clé de la confiance
Au final, cette affaire souligne l’importance cruciale de la transparence pour les entreprises qui traitent des données personnelles. Les utilisateurs ont le droit de savoir comment leurs informations sont utilisées, et les entreprises doivent être claires et honnêtes à ce sujet. Une politique de confidentialité floue ou ambiguë ne fera que semer la méfiance et alimenter les controverses.
Alors, Slack, écoutez-moi bien : si vous voulez regagner la confiance de vos utilisateurs, il va falloir être plus transparent sur vos pratiques d’utilisation des données. Expliquez-nous clairement ce que vous faites et ce que vous ne faites pas, sans laisser place à l’interprétation. Parce que là, franchement, on nage un peu en pleine confusion. (Et personne n’a envie de se noyer dans un océan de données personnelles mal gérées, n’est-ce pas ?)
En attendant que Slack clarifie sa position, on ne peut que spéculer sur l’utilisation réelle des données des utilisateurs pour l’entraînement de ses modèles d’IA. Espérons que cette affaire servira de leçon à d’autres entreprises technologiques et les incitera à être plus transparentes dès le départ. Parce que franchement, personne n’a envie de se retrouver au cœur d’une polémique sur la vie privée, n’est-ce pas ? (Surtout quand on sait à quel point les internautes peuvent être vindicatifs envers les entreprises qui abusent de leur confiance.)
Résumé / TL;DR
- Slack a été accusé d’utiliser les données des utilisateurs, comme les messages et les fichiers, pour entraîner ses modèles d’IA.
- Ces allégations sont basées sur un extrait de la politique de confidentialité de Slack mentionnant l’analyse des données des clients.
- Slack affirme ne pas scanner le contenu des messages pour l’IA, mais utiliser des données agrégées et anonymisées sur le comportement des utilisateurs.
- L’entreprise précise les types de données potentiellement utilisées, comme les horodatages des messages et les interactions entre utilisateurs.
- Cependant, l’utilisation des données par Slack sur une base « opt-out » a suscité des critiques.
- Slack propose également un produit d’IA générative séparé basé sur des modèles de tiers, ajoutant à la confusion.
- Cette affaire souligne l’importance de la transparence de la part des entreprises sur l’utilisation des données personnelles.