Les plateformes internationales doivent assumer leurs responsabilités

Pour investigativ.ch, la nouvelle loi fédérale sur les plateformes de communication et les moteurs de recherche (LPCom) constitue une première étape dans la régulation des plateformes – mais d’autres projets législatifs seront nécessaires afin de rendre ces plateformes compatibles avec les exigences démocratiques et de tenir pleinement compte du rôle des médias.

Les plateformes et les moteurs de recherche jouent un rôle central tant dans l’élaboration des contenus médiatiques que dans leur diffusion. Contrairement aux médias de masse, ils n’ont jusqu’à présent guère été tenus responsables de leurs actes. Avec le nouveau projet de loi fédérale sur les plateformes de communication et les moteurs de recherche (AP-LPCom), le Conseil fédéral entend désormais édicter des règles fondamentales applicables à ces acteurs.

Le réseau d’enquête investigativ.ch salue expressément cette initiative. Nous proposons toutefois certains ajustements afin que l’importance démocratique des médias et des contenus journalistiques soit prise en considération de manière adéquate. Nous nous sommes exprimés en ce sens dans le cadre de la procédure de consultation. Nos principaux points sont les suivants:

  • Elargir le champ d’application aux systèmes d’IA: Les systèmes d’intelligence artificielle générative ont déjà aujourd’hui des effets considérables sur les individus et la société ainsi que sur la diffusion des contenus médiatiques. Les contenus peu fiables ou trompeurs générés par l’IA peuvent influencer la formation de l’opinion ou nuire à des personnes et à des entités. Les grands moteurs de recherche fondés sur l’IA ou les applications d’IA intégrées dans des moteurs de recherche ou utilisées par ceux-ci devraient donc également être soumis à la loi prévue. Cela pourrait être appliqué par voie d’ordonnance.
  • Analyse et réduction des risques: Nous saluons l’obligation faite aux plateformes et aux moteurs de recherche de procéder à des analyses des risques systémiques. Nous regrettons toutefois vivement qu’ils ne soient pas également tenus de prendre des mesures concrètes pour réduire effectivement ces risques et d’en rendre compte. Sans une telle obligation, la régulation risque de rester lettre morte. A l’instar de l’UE, une obligation de mesures d’atténuation des risques devrait être inscrite dans la loi (voir art. 35 Digital Service Act, DSA).
  • Modération des contenus médiatiques: Les contenus produits par les médias journalistiques sont élaborés dans le respect de règles professionnelles et soumis à une autorégulation par le Conseil suisse de la presse. Lorsque des plateformes de communication modèrent des contenus médiatiques, elles devraient donc faire preuve d’une diligence particulière. Il convient également d’empêcher que des reportages critiques sur les plateformes puissent être supprimés par celles-ci. Certes, le DSA a renoncé à une exception générale en faveur des médias pour de bonnes raisons. En revanche, l’art. 18 du règlement européen sur la liberté des médias (EMFA) prévoit une procédure spécifique pour la modération des contenus médiatiques. Celle-ci devrait également être reprise dans la LPCom.
  • Systèmes de recommandation algorithmique: Les dispositions relatives aux systèmes de recommandation algorithmique (art. 18 AP-LPCom) sont pertinentes, mais devraient être complétées. Les plateformes de communication et les moteurs de recherche devraient permettre aux utilisatrices et utilisateurs d’influencer ou de pondérer les paramètres intégrés dans les systèmes de recommandation et/ou de s’abonner à des systèmes alternatifs (par exemple proposés par des tiers). Des plateformes telles que Bluesky démontrent que cela est techniquement possible. En outre, un système de recommandation fondé sur le profilage ne devrait pas être activé par défaut (opt-in plutôt qu’opt-out). Les utilisatrices et utilisateurs pourraient ainsi assumer davantage de responsabilité quant aux contenus qui leur sont présentés; les médias auraient la possibilité de proposer leurs propres algorithmes de recommandation.
  • Accès aux données: Il est juste et important que les plateformes soient tenues d’accorder un accès aux données à la recherche et aux ONG (art. 26 AP-LPCom). Toutefois, cet accès ne devrait pas être géré de manière trop restrictive. En particulier, les organisations de la société civile dont l’activité principale n’est pas la recherche devraient également pouvoir y accéder. Les journalistes devraient eux aussi pouvoir bénéficier d’un tel accès.

Pour investigativ.ch, la LPCom constitue une première étape dans la régulation des plateformes – mais d’autres projets législatifs sont nécessaires afin de rendre les plateformes compatibles avec la démocratie et de garantir pleinement le rôle des médias. Nous souhaitons formuler les propositions suivantes:

>> Pouvoir d’influence sur l’opinion: Au-delà du pouvoir de marché, les intermédiaires disposent également d’un pouvoir d’influence sur l’opinion en déterminant quels contenus sont effectivement présentés aux utilisatrices et utilisateurs. D’une part, les plateformes et les fournisseurs d’IA pourraient être tenus d’intégrer des valeurs sociétales, démocratiques ou journalistiques dans la programmation de leurs algorithmes. D’autre part, il conviendrait de promouvoir le développement d’alternatives aux plateformes existantes, notamment par un renforcement et une évolution du service public des médias.

>> Régulation de l’IA: Il est réjouissant que le Conseil fédéral ait l’intention de ratifier la Convention du Conseil de l’Europe sur l’IA et les droits humains, la démocratie et l’Etat de droit. Dans la perspective de l’utilisation de l’IA dans les domaines des médias, de la communication et de l’espace public, une approche fondée sur les droits humains devrait être prioritaire. Il apparaît en particulier nécessaire de tenir responsables les fournisseurs d’applications d’IA générative qui ne relèvent pas du LPCom.

>> Internet «zero-click»: Compte tenu du rôle croissant des intermédiaires dans la consommation d’informations et de médias, de nouveaux modèles de rémunération pour les entreprises médiatiques sont nécessaires. Cela d’autant plus que les contenus médiatiques sont utilisés pour l’entraînement des systèmes. A défaut, il existe un risque que les contenus journalistiques ne puissent plus être financés – ou seulement de manière très limitée – par les mécanismes du marché.