Contenu de l'IA : l'UE demande aux grandes technologies de lutter contre la désinformation
La Commission européenne a appelé les plateformes en ligne à détecter et à étiqueter le contenu généré par l'IA pour lutter contre la désinformation. L'UE peut-elle suivre le rythme des développements technologiques ?
L'organe exécutif de l'Union européenne a demandé aux plates-formes technologiques telles que Google, Facebook, YouTube et TikTok de détecter les photos, vidéos et textes générés par l'intelligence artificielle (IA) et de les étiqueter clairement pour les utilisateurs. Cela fait partie de la tentative de la Commission européenne de réprimer la désinformation, qui, selon les responsables de l'UE, prospère depuis le début de la guerre de la Russie en Ukraine.
Aujourd'hui, Bruxelles craint que les technologies d'IA génératives ne créent un terrain encore plus fertile pour la diffusion de fausses nouvelles et de fausses informations.
"Les chatbots avancés comme ChatGPT sont capables de créer du contenu et des visuels complexes et apparemment bien étayés en quelques secondes", a déclaré lundi à la presse la vice-présidente de la Commission européenne, Vera Jourova.
"Les générateurs d'images peuvent créer des images authentiques d'événements qui ne se sont jamais produits", a déclaré Jourova. "Un logiciel de génération de voix peut imiter la voix d'une personne sur la base d'un échantillon de quelques secondes."
Mettant en garde contre la désinformation russe généralisée en Europe centrale et orientale, Jourova a déclaré que les machines n'avaient "aucun droit" à la liberté d'expression. Elle a chargé les 44 signataires du code de bonnes pratiques de l'Union européenne contre la désinformation d'aider les utilisateurs à mieux identifier le contenu généré par l'IA.
"L'étiquetage devrait être fait maintenant - immédiatement", a-t-elle déclaré.
Il n'y a aucune obligation pour les entreprises technologiques de se conformer à la dernière demande de Bruxelles et aucune sanction si elles ne le font pas, car le code de pratique est purement volontaire. Andrea Renda, chercheur principal sur l'économie numérique au Centre d'études politiques européennes, pense qu'il peut également y avoir des obstacles techniques.
"Rien ne garantit qu'ils seront capables de détecter en temps réel que quelque chose est généré par l'IA", a-t-il déclaré à DW. Renda pense que la plupart des entreprises travailleront "au mieux", mais a déclaré que le résultat serait probablement "loin d'être à 100%".
Mais Jourova s'est dite rassurée par le PDG de Google, Sundar Pichai. "Je lui ai demandé : avez-vous développé une technologie assez rapide pour détecter la production de l'IA et l'étiqueter afin que les gens puissent voir qu'ils ne lisent pas le texte produit par de vraies personnes ? Et sa réponse a été : oui, mais nous développons, nous améliorent encore les technologies », a-t-elle déclaré.
Il y a une lacune flagrante sur la liste des invités du club anti-désinformation bruxellois : Twitter. En mai, la plateforme détenue par le milliardaire Elon Musk s'est retirée du code de conduite de l'UE. Jourova n'a pas été impressionnée : en se retirant, a-t-elle dit, Twitter "a choisi la confrontation".
"Twitter a attiré beaucoup d'attention, et ses actions et sa conformité avec le droit de l'UE seront examinées de près et de toute urgence", a déclaré Jourova aux journalistes lundi.
Pour visionner cette vidéo, veuillez activer JavaScript et envisager de passer à un navigateur Web prenant en charge la vidéo HTML5
En août, les principales obligations de modération de contenu sur les grandes plateformes en ligne, dont Twitter, entreront en vigueur dans le cadre de la nouvelle législation de l'UE.
La réglementation, surnommée la loi sur les services numériques, obligera les entreprises à être plus transparentes sur leurs algorithmes, à renforcer les processus pour bloquer la propagation des publications nuisibles et à interdire la publicité ciblée basée sur des données sensibles telles que la religion ou l'orientation sexuelle.
Renda a déclaré que le nouveau livre de règles était "révolutionnaire". Les entreprises seraient passibles d'amendes pouvant atteindre 6 % du chiffre d'affaires annuel mondial si elles enfreignaient la nouvelle législation, et pourraient même se voir interdire d'opérer dans l'Union européenne.
Cela signifie que, bien que Twitter puisse esquiver la dernière demande de Bruxelles de signaler immédiatement les images ou les vidéos générées par l'IA, la plate-forme sera obligée de se conformer aux règles européennes plus larges plus tard cette année.
Bruxelles prépare également d'autres lois pour réglementer l'intelligence artificielle, connues sous le nom de loi AI. Selon les plans, certaines utilisations de l'IA seraient purement et simplement interdites, telles que la "notation sociale" et la plupart des reconnaissances faciales dans les espaces publics. Les propositions prévoient également de restreindre l'IA dans les domaines jugés "à haut risque", y compris le recrutement - où l'IA pourrait conduire à la discrimination - ou dans les transports publics.
Mais ces règles sont encore en train de parcourir le long processus législatif de l'UE et n'entreront probablement pas en vigueur avant au moins deux ans. Sans parler du fait qu'ils ont été rédigés avant le dernier boom de l'IA générative. Aujourd'hui, Bruxelles fait la course pour rattraper son retard.
Il poursuit plusieurs mesures palliatives, notamment un nouveau code de conduite volontaire sur l'IA générative et un "pacte sur l'IA", en vertu duquel les entreprises pourraient choisir de respecter les futures règles avant qu'elles ne s'appliquent pleinement.
Pour visionner cette vidéo, veuillez activer JavaScript et envisager de passer à un navigateur Web prenant en charge la vidéo HTML5
Catelijne Muller conseille l'Union européenne sur la législation en matière d'IA depuis 2017 et a cofondé le groupe de recherche et de politique "ALLAI". Elle a déclaré à DW que, malgré ce qui ressemble à une bousculade pour suivre le rythme, Bruxelles est bien placée pour réglementer.
"Les derniers développements dont nous entendons tant parler - ChatGPT et tous les modèles d'IA générative et modèles de base - ceux-ci se situent en plein milieu du processus législatif de la loi sur l'IA. Et ils tombent à un moment où les législateurs peuvent encore les prendre en compte. compte », a-t-elle déclaré.
Muller pense que les défis lancés par les derniers outils d'IA ne sont "pas intrinsèquement nouveaux".
"Vous voyez toujours les mêmes problèmes de préjugés et de discrimination, vous voyez toujours les mêmes problèmes de surveillance et d'action humaines, et d'impacts sur les droits fondamentaux", a-t-elle déclaré. Muller pense que les législateurs n'ont pas besoin de "jeter par-dessus bord ce qu'ils avaient et d'écrire quelque chose de complètement nouveau" - au lieu de cela, ils peuvent travailler pour incorporer les développements dans les propositions existantes.
Édité par : Milan Gagnon
