Les très grandes plateformes en ligne et les moteurs de recherche comptant plus de 45 millions d’utilisateurs actifs dans l’Union européenne, comme TikTok, Facebook, Google ou X sont concernées par ces recommandations.
Dans ses lignes directrices, présentées le 26 mars 2024, la Commission européenne demande aux très grandes plateformes de réduire les risques de diffusion de désinformation électorale par des mesures adaptées au scrutin européen, ainsi qu'aux différentes élections à venir. Les lignes directrices se placent dans le cadre du règlement sur les services numériques (Digital Services Act - DSA).
Des mesures pour protéger les élections européennes
Les grandes plateformes sont appelées à mettre en place des dispositifs spéciaux pour les élections européennes qui sont particulièrement vulnérables :
leurs ressources doivent être déployées dans les 27 États membres. Chaque plateforme doit prévoir assez de modérateurs, avec une connaissance locale suffisante, pour chaque scrutin ;
les plateformes doivent contribuer à l’information sur le processus de scrutin et entrer en contact avec les autorités nationales (médias ou autorités électorales) en amont ;
la publicité à caractère politique doit être clairement étiquetée en tant que telle, en prévision du nouveau règlement sur la transparence et le ciblage de la publicité à caractère politique.
Le respect de ces lignes directrices entrera en compte dans l’analyse de leur respect du règlement sur les services numériques (DSA). La Commission prévoit un exercice de crise avec les plateformes à la fin du mois d'avril 2024.
Mieux identifier les "deepfakes" générés par l'intelligence artificielle
La Commission européenne demande que les très grandes plateformes et les très grands moteurs en ligne qui pourraient être utilisés pour générer ou diffuser des contenus issus de l’intelligence artificielle générative, évaluent et traitent les risques liés à cette usage de l’IA.
Il s’agit notamment d’étiqueter les contenus générés par l’IA comme étant des "deepfakes" (sons, vidéos, photos manipulées), d’adapter les conditions d’utilisation en conséquence et de veiller à ce que des mesures d’exécution appropriées soient mises en place.