Sommaire
Un outil d’OpenAI pour détecter les deepfakes
Eh oui, les deepfakes, ces images créées par l’intelligence artificielle, sont devenus un véritable casse-tête pour tout le monde. Heureusement, OpenAI a annoncé qu’ils travaillent sur un nouvel outil capable d’identifier ces fameuses images générées par leur propre technologie DALL-E .
Mais avant d’entrer dans les détails, faisons un petit rappel.
Qu’est-ce qu’un deepfake ?
En bref, c’est une image, une vidéo ou un enregistrement audio qui a été créé par une IA en combinant et en superposant des éléments existants. Le résultat ? Des contenus extrêmement réalistes et trompeurs au point qu’il devient difficile de les distinguer du vrai. C’est un peu comme si vous mixiez le sourire de Tata Jacqueline avec les yeux de Bob l’Éponge pour créer une nouvelle entité improbable. Flippant, non ?
Selon OpenAI, leur outil a identifié avec succès plus de 98% des images générées par DALL-E et n’a identifié à tort que moins de 0,5% des images comme étant issues de DALL-E.
Pour faire simple, OpenAI affirme que leur outil a réussi à identifier plus de 98% des images générées par DALL-E. Et cerise sur le gâteau, il n’a confondu que moins de 0,5% des images avec des deepfakes. Bref, le taux de fiabilité semble plutôt convaincant .
Comment fonctionne l’outil de détection de deepfakes ?
Alors, par quel miracle cet outil arrive-t-il à démasquer les images trompeuses ? Eh bien, selon les informations d’OpenAI, il utilise des techniques d’apprentissage automatique pour analyser les caractéristiques spécifiques des images générées par DALL-E . Un peu comme un flic qui scrute les moindres détails pour identifier un faux billet, l’outil repère les petites anomalies, les artefacts et les imperfections qui trahissent la main de l’IA.
Bon après, on ne connait pas tous les détails techniques de cet outil. Après tout, un magicien ne révèle jamais tous ses tours (comprenez par là que les détails techniques ne sont pas encore publics). Mais une chose est sûre, il ouvre la voie à une meilleure détection des deepfakes , ce qui est crucial à l’ère de la désinformation massive.
Tu veux en savoir plus sur "tata,bob" ? 😎
Ah, le judo ! Cet art martial nippon nous a non seulement offert une discipline sportive captivante, mais aussi un champ lexical complet et fascinant.…
Media Manager : Protéger le droit d’auteur avec OpenAI
Mais ce n’est pas tout ! OpenAI a également annoncé le développement de Media Manager , un outil qui permettra aux créateurs de contenu de signaler à OpenAI les contenus protégés par le droit d’auteur.
Media Manager est encore dans ses phases initiales et ne sera pas lancé officiellement avant 2025.
Concrètement, les créateurs pourront informer OpenAI des œuvres qui leur appartiennent et indiquer s’ils souhaitent ou non que ces contenus soient utilisés pour entraîner les modèles d’IA de l’entreprise. Une façon de reprendre le contrôle sur leurs créations, en quelque sorte.
Comment fonctionne Media Manager ?
Selon OpenAI, « cela nécessitera des recherches de pointe en apprentissage automatique pour créer un outil unique en son genre capable d’identifier le texte, les images, l’audio et la vidéo protégés par le droit d’auteur à partir de plusieurs sources, et de refléter les préférences des créateurs » . En clair, Media Manager utilisera des techniques d’IA avancées pour détecter les contenus protégés et respecter les souhaits des ayants droit.
Il faut dire qu’OpenAI fait face à de nombreuses poursuites judiciaires concernant les violations de droits d’auteur. Media Manager pourrait donc être une première étape pour tenter d’apaiser les tensions avec les créateurs de contenu. Cependant, comme le souligne OpenAI, « cela représente un défi technique et juridique complexe » . Autrement dit, le chemin sera encore long avant que ce outil ne soit pleinement opérationnel.
OpenAI s’engage pour une IA plus responsable
Au-delà de ces deux annonces, OpenAI semble vouloir s’engager davantage dans la voie d’une IA plus responsable et éthique. L’entreprise a en effet annoncé son intention de rejoindre le comité directeur de la Coalition for Content Provenance and Authenticity (C2PA) , un consortium qui établit des normes pour la certification des contenus numériques.
De plus, OpenAI et son principal partenaire Microsoft ont décidé de financer à hauteur de 2 millions de dollars le Societal Resilience Fund , un fonds destiné à soutenir des organisations œuvrant pour l’éducation et la compréhension de l’IA.
Voilà, vous savez à peu près tout sur les dernières nouveautés d’OpenAI ! Que vous soyez créateur, journaliste ou simple utilisateur, ces outils promettent de faciliter la détection des deepfakes et de mieux protéger le droit d’auteur. Bien entendu, il reste encore du chemin à parcourir, mais c’est un pas dans la bonne direction. (À condition bien sûr que ces outils soient réellement efficaces et accessibles à tous, mais ça, seul l’avenir nous le dira !)
Tu veux en savoir plus sur "content,microsoft" ? 😎
ChatGPT Entreprise ou Copilot 365 : qui gagne le match ?
La flemme de lire l'article ? Eh oui, la guerre des IA fait rage entre les géants de la tech ! Dernièrement, c'est OpenAI qui…
En Résumé
- OpenAI développe un outil capable d’identifier les deepfakes générés par DALL-E avec un taux de réussite de 98%.
- L’entreprise prépare également Media Manager, qui permettra aux créateurs de signaler leurs contenus protégés par le droit d’auteur.
- OpenAI rejoint le consortium C2PA et finance un fonds pour promouvoir une IA plus responsable.