« Fake News », I.A. et production de contenu

Je peux me tromper, mais je pense que l’offensive contre les « Fake News » va durablement affecter les producteurs de contenus et qu’il faudra s’y adapter.

Mais tout d’abord…

Évacuons le problème de la validité du concept de «Fake News»

Pour être tout à fait honnête avec vous, le terme « Fake News », bien qu’utile à certains égards,  m’apparaît comme flou, douteux et dangereux. J’ai peur que ce concept soit utilisé principalement pour discréditer des adversaire idéologiques et nous fasse glisser toujours un peu plus vers une dictature molle, gluante et barbante. Voilà, on ne pourra pas me taxer d’hypocrisie.

Problème évacué rapidement car en fait, on s’en tape de ce que je pense des « fake news ». Voyons plutôt en quoi l’emballement autour des « fake news » concerne les producteurs de contenus et ce qu’il doivent faire pour se conformer aux futurs standards.

fake news

Attaquons ce sujet par un cas pratique : les extensions pour Chrome qui analysent le contenu des sites d’information.

Les extensions anti « fake news »

Vous connaissez sans doute le « Decodex » du Monde, une extension pour Chrome, qui signale les sites considérés comme douteux et qui est le premier de son genre en France. Le concept du Decodex a été sévèrement critiqué, y compris sur le site du très respectable Figaro (dans cet article) mais il n’en demeure pas moins  symptomatique de notre époque. Pour les sites anglophones plusieurs extensions sont disponibles : «Fake News Blocker », «Fake News Monitor », «B.S. Detector ».

Ces extensions rudimentaires n’analysent pas le contenu d’un article, mais interrogent des listes préexistantes qui classent les sites en fonction de critères teintés de subjectivité.

L’extension suivante est beaucoup plus intéressante :

Unpartial, une extension « intelligente »

unpartial pour chrome

Cette extension pour Chrome (cf. la page et le site d’Unpartial) proposée par Recognant, une société spécialisée dans l’analyse de contenu, évalue la façon dont un article est rédigé à l’aide d’une intelligence artificielle. L’extension ne se contente pas de se référer à une liste mais analyse en outre différents facteurs :

  • Le ton de l’article (sérieux, satirique, etc.)
  • La nature des titres (sont-ils pertinents ou plutôt rédigés pour être des appâts à clic)
  • La tendance à prendre parti pour une opinion plutôt qu’une autre
  • Le caractère évasif des affirmations
  • Le nombre de faits cités en référence

J’ai testé cette extension  sur plusieurs sites et je l’ai trouvée est assez sévère. Je vous laisse faire vos propres tests.

Pour en savoir plus sur sa tolérance à la subjectivité, j’ai effectué un test sur un article de blog de Mark Schaefer (que j’apprécie et que vous connaissez si vous avez lu l’article précédent) très critique à l’encontre de Facebook. Voilà le résultat :

test extension unpartial
Exemple de résultat affiché par l’extension Unpartial

Malgré les 7 liens vers des sites à forte autorité, l’intelligence artificielle (I.A.) n’a pas du tout apprécié cet article où l’auteur fait preuve d’un parti-pris assumé. Le fait que le site de Mark Schaefer ne soit pas un site d’actualité à proprement parler n’est à mon avis pas un problème pour ce test, car cet article aurait tout à fait pu être publié sur un tel site.

J’espère que les I.A. deviendront plus tolérante car cette extension préfigure à mon avis l’avenir du contrôle de la qualité des contenus.

Il me semble qu’à moyen terme, le développement de ces technologies posera un sérieux problème aux producteurs de contenu en ce qui concerne  leurs ressources publicitaires. Voyons pourquoi dans la section qui suit.

Les annonceurs veulent évaluer les contenus avant de placer leurs annonces

Vous vous souvenez sans doute du retrait massif des annonceurs de YouTube (cf. par exemple La Tribune du 24/03/2017) qui ne souhaitaient plus que des publicités apparaissent au sens de contenu offensant, « incitant à la  haine », etc. YouTube avait annoncé dans la foulée un contrôle accru de ses contenus (source : CNBC) par des êtres humains mais également par des intelligences artificielles.

En 2018 Facebook annonçait un blocage des publicités des pages qui partagent des « histoires » ayant été identifiées comme de « fake news » par des tierces parties.

D’après une étude de Brightroll publiée en mai 2017 :

  • 96% des annonceurs sont préoccupés par le problème des « fake news » dans le contexte des publicités insérées automatiquement par des logiciels (programmatic advertising).
  • 31% vont réduire les dépenses avec les partenaires dont le catalogue inclut des marques associées avec les « fake news »
  • 43% des annonceurs vont blacklister les éditeurs de « fake news »
Graphique sur les 43%
Source : Brightroll

Je m’arrête là. Vous voyez la tendance qui se dessine ?

Petit délire prospectiviste

Nous sommes en 2021 :

Des intelligences artificielles secondées par des humains traitres à leur espèce parcourent le Web à la recherche des « fake news »et des contenus déviants, tendancieux, controversés, imprécis, biaisés, satiriques, etc.

Deux nouveaux indice font leur apparition : le PT Page Trustworthyness et le ST Site Trustworthyness (encore plus fort que le page Trust de Moz). Pour les sites d’information francophones, l’indice tient compte du classement du Decodex du Monde (qui est comme chacun le sait en 2021  le seul site dont les journalistes soient objectifs grâce à la puce fabriquée par Facebook implantée dans leur cortex).

Ces indices  sont intégrés aux algorithmes de Facebook et des principaux moteurs de recherche : les pages et les sites mal notés ne peuvent plus générer de revenus publicitaires et ils sont automatiquement rétrogradés, voire supprimés des résultats de recherche de Google.

Pour limiter les pertes financières, les éditeurs prennent une décision radicale : les contenus seront désormais rédigés puis validés par des intelligences artificielles,  puis analysés par d’autres I.A. qui gèreront l’insertion de la publicité dans les articles.

Les annonceurs sont désormais contraints de rémunérer les humains pour les inciter à lire ces contenus abominablement ennuyeux, jusqu’à la mise au point de nouvelles I.A. capables d’émuler le comportement d’un lecteur humain.

Vous auriez préféré que le futur ressemble à ça ? :

Raté !

Bon mais qu’est-ce qu’on fait ?

Pour survivre aux I.A., adoptons des règles de publication plus strictes

La section précédente est sans doute légèrement pessimiste, mais  quoiqu’il en soit, il faudra s’entourer de précautions pour mettre toutes les chances de notre côté d’ici 2021, en adoptant notamment des règles éditoriales plus strictes, susceptibles de plaire aux intelligences artificielles. Par exemple :

  • Toujours citer les sources des informations
  • Présenter un/des points de vue contradictoires
  • Signaler les articles sponsorisés
  • Écrire à la première personne pour exprimer une opinion

Je développerai sans doute ces thème dans un autre article.

L’affaire des « fake news » aura joué un rôle positif, si elle débouche sur une amélioration globale de la qualité des articles tout en ne nuisant pas trop à la liberté d’expression et au droit à la subjectivité (j’essaie d’être optimiste à la fin de l’article afin de présenter un point de vue contradictoire avec moi-même). Elle nous incite en tout cas à plus de rigueur.

 

Articles similaires :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *