/news/society
Navigation

Facebook censure des informations scientifiques

L’intelligence artificielle a aussi de la difficulté à reconnaître l’ironie

Coup d'oeil sur cet article

Facebook préfère censurer pour un certain temps de l’information scientifique provenant de sources très crédibles plutôt que de tolérer trop longtemps des publications nuisibles, tout en cherchant à améliorer ses algorithmes incapables de déceler le sarcasme.

• À lire aussi: Une fausse Une relayée par le Parti conservateur du Québec

L’Agence Science-Presse est un média sans but lucratif qui existe depuis 43 ans. Elle a notamment donné naissance au magazine et à l’émission de télé Les Débrouillards.

L’Agence a publié sur son compte Facebook à la fin mars l’article Arguments et les stratégies du mouvement antivaccin.

L’explication obtenue à l’Agence de Science-Presse à la suite du 2e retrait de sa publication.
Capture d’écran Facebook
L’explication obtenue à l’Agence de Science-Presse à la suite du 2e retrait de sa publication.

L’article a cependant été supprimé le 28 mars «pour non-respect des standards de la communauté» et la page a été «restreinte pour 90 jours, car elle a partagé de fausses informations à plusieurs reprises», disent les messages que Facebook a placés sur la page de l’Agence.

Elle a par la suite multiplié les efforts pour corriger la situation, ce qui a pris plus de trois semaines (voir tableau).

«C’est frustrant sur le coup, mais c’est tellement absurde qu’on essaie d’en rire finalement», dénonce Pascal Lapointe, rédacteur en chef de l’Agence.

  • Écoutez l'entrevue de Benoît Dutrizac avec Pascal Lapointe sur QUB Radio:

Dans le néant

«Avec un journal, une station de télé ou une radio, on aurait communiqué avec le rédacteur en chef et réglé le problème en 15 minutes. Mais là on est dans le brouillard le plus total. On ne sait pas à qui déposer une plainte, on n’arrive pas à parler à un responsable. On pèse sur un bouton et on ne sait pas si ça se rend quelque part. Et quand à la fin le problème se règle, on ne sait pas sur quoi ils se sont basés», ajoute-t-il.

Sur le fonctionnement de Facebook, M. Lapointe ne voit que deux possibilités.

«Quelque part dans l’algorithme, après avoir reçu un certain nombre de plaintes, le robot réagit et bloque le site. Je ne serais pas étonné que des anti-vaccins aient pesé sur un bouton prétendant qu’on publie de fausses nouvelles», pense-t-il.

L’autre possibilité selon lui est que l’algorithme analyse certains mots.

«L’article mentionnait que depuis un siècle, ce sont toujours les mêmes arguments qui sont mentionnés par les anti-vaccins. On y disait par exemple ‘la première fausseté : les vaccins sont dangereux’. Est-ce que le robot a automatiquement qualifié cela de fausse nouvelle?», se questionne-t-il.

Organisme à but non lucratif, l’Agence n’a pas perdu d’argent «mais ça a eu un impact sur l’achalandage. Un paquet de petits sites comme nous sont trop dépendants de Facebook. Ça en est plate, on aimerait bien ne pas l’être», affirme M. Lapointe.

Explications

L’exemple de l’Agence Science-Presse n’est pas unique dans la communauté de vulgarisation scientifique.

«Nous avons publié une vidéo sur l’immunité naturelle, avec des références vers des publications scientifiques. Facebook a bloqué la publication et nous a donné un avertissement. À la prochaine "infraction" nous perdrons la page», déplore le Dr Mathieu Nadeau-Vallée.

La maison mère de Facebook dit comprendre «l’ironie» de voir un site dédié à lutter contre la désinformation être bloqué pour cette raison.

«Nous sommes désolés que ce soit arrivé. Nos systèmes ne sont pas parfaits, on le sait. On continue d’y travailler», a expliqué un porte-parole de Meta.

«Meta préfère enlever une publication qui n’est pas nuisible et la réinstaurer deux jours ou deux semaines plus tard, plutôt qu’en laisser une (nuisible) trop longtemps», a-t-il ajouté, expliquant que la multinationale doit gérer trois milliards d’utilisateurs et une centaine de langues.

L’explication laisse le rédacteur de l’Agence sceptique, «considérant la quantité de comptes de fausses nouvelles qui ont été dénoncées au fil des années à travers le monde et sont restées en ligne», avance Pascal Lapointe.

Le Dr Vadeboncoeur a récemment vu quatre de ses messages censurés par Facebook. « Les deux premiers étaient légèrement ironiques. Ce serait intéressant de savoir comment ils suspendent des gens qui ont toujours un discours on ne peut plus droit dans le sens de la science », lance le Dr Vadeboncoeur.

« L’enjeu pour l’intelligence artificielle est souvent d’être capable de déceler le sarcasme. Les algorithmes ne sont pas encore suffisamment forts pour comprendre que le Dr Vadeboncoeur fait de l’humour ou du sarcasme. C’est pour ça que l’humain arrive au deuxième niveau de vérification », a répondu le porte-parole de Meta.

Le Dr Vadeboncoeur reconnaît que l’ironie peut être difficile à déceler. Mais cette faille aurait un impact majeur sur la chasse aux fausses nouvelles. « Ça revient à ne plus pouvoir dénoncer une image ou une publication erronée », pense-t-il.

Le message du 1er mai du Dr Alain Vadeboncoeur.
Capture d’écran Facebook
Le message du 1er mai du Dr Alain Vadeboncoeur.

Fonctionnement

La première ligne de vérification des publications sur Facebook utilise un algorithme ayant recours à l’intelligence artificielle. Les cas contestés sont ensuite révisés par un employé.

«Chacun des employés a une spécialité et si ça touche la COVID, par exemple, ça va dans la même file d’attente. C’est peut-être la raison pour laquelle ça a été plus long», a indiqué Meta, pour expliquer le délai de trois semaines pour la résolution du problème de l’Agence.

Meta n’a pas voulu dévoiler le fonctionnement de sa première ligne de vérification utilisant l’intelligence artificielle.

«Nous ne donnons pas la recette, ce serait facile de la détourner ensuite», a-t-elle indiqué.

Il ne faut pas rigoler!

Lui aussi vulgarisateur scientifique, le Dr Alain Vadeboncoeur a récemment vu quatre de ses messages censurés par Facebook.

«Les deux étaient premières étaient légèrement ironique. Le troisième (en février) faisait suite à texte qui comparait le taux de mortalité de la COVID à celui de l’influenza qui avait soulevé beaucoup de réactions. J’avais fait une mise en contexte qui insistait sur certains points tout à fait fondés», rappelle-t-il.

«Je n’ai pas eu accès à mon compte durant 24 à 48 heures, ensuite j’ai une interdiction de publication sur d’autres pages. Mon interprétation c’est qu’il y a eu pas mal de signalements sur cette publication qui ont fait réagir les algorithmes de Facebook. Ce serait intéressant de savoir comment ils suspendent des gens qui ont toujours un discours on ne peut plus droit dans le sens de la science», lance le Dr Vadeboncoeur.

Pour le quatrième, lundi, M. Vadeboncoeur avait bien indiqué dans le haut de sa publication qu’il s’agissait d’ironie en publiant une image donnant une recette absurde pour se «dévaxiner».

«L’enjeu pour l’intelligence artificielle est souvent d’être capable de déceler le sarcasme. Les algorithmes ne sont pas encore suffisamment forts pour comprendre que le Dr Vadeboncoeur fait de l’humour ou du sarcasme. C’est pour ça que l’humain arrive au deuxième niveau de vérification», a répondu le porte-parole de Meta.

Contre-productif

Le Dr Vadeboncoeur reconnaît que ce n’est pas «toujours évident» de déceler l’ironie. Mais cette faille aurait aussi un impact majeur sur la chasse aux fausses nouvelles.

«Dans le cas le plus récent, j’avais explicitement dit que c’en était (de l’ironie), et cela n’a rien changé. Ça revient à ne plus pouvoir dénoncer une image ou une publication erronée», pense-t-il.

Et s’il comprend le principe de précaution évoqué par Facebook pour d’abord bloquer des publications et les analyser ensuite, celui qui est suivi par 50 000 personnes estime que la multinationale pourrait agir autrement.

«À partir du moment où Facebook reconnaît une identité réelle (badge de vérification bleu) et qu’il s’agit d’un compte très suivi, il me semble qu’il est absurde de suspendre des gens qui passent leur vie à lutter contre la désinformation pour un trait d’ironie ou même un mauvaise lecture de la situation», regrette M. Vadeboncoeur.

L’avis de blocage de Facebook le 3 mai.
Capture d’écran Facebook
L’avis de blocage de Facebook le 3 mai.

Solutions

Pascal Lapointe de l’Agence Science-Presse plaide pour une réglementation des algorithmes.

«C’est un exemple de plus. On ne sait pas qui gère ça et comment c’est géré. C’est opaque et anormal que nous, le Dr Vadeboncoeur, le Dr Nadeau-Vallée et plein d’autres soyons bloqués sans que l’on comprenne pourquoi. Ces compagnies ont atteint un pouvoir sur l’information dans le monde entier qui n’a aucun équivalent dans l’histoire», estime-t-il.

Sur internet, l’Agence indique que son travail en éducation à l’information lui a valu en 2019 «un prix de la Fondation canadienne pour le journalisme prix financé par... Facebook !»

Le Dr Mathieu Nadeau-Vallée suggère une autre solution. «Facebook devrait donner un sceau officiel à certaines pages scientifiques», propose-t-il.

Réglementation

Simon Thibault, professeur adjoint en sciences politiques à l’Université de Montréal, n’a pas voulu commenter directement ces cas, mais il estime qu’ils illustrent «le défi technique de s’assurer que les algorithmes soient plus vigilants.»

«Facebook, par exemple, a voulu être plus intransigeant avec la désinformation dans un contexte de pandémie. Mais le volume d’information (à traiter) est assez spectaculaire. Ces plateformes ont été critiquées, elles tentent de faire le nettoyage de leur plateforme et, bien évidemment, il va y avoir des situations incongrues comme celles-ci», croit-il.

Un comité de 12 experts a été créé le 30 mars pour aider le gouvernement canadien à élaborer une mesure législative pour lutter contre le contenu préjudiciable en ligne.

«Des gens disent que l’autorégulation de ces plateformes ne fonctionne pas. Qu’il doit y avoir une intervention des législations des états pour s’assurer que ces entreprises mettent vraiment les ressources et les efforts nécessaires pour que les vrais contenus problématiques soient retirés», analyse M. Thibault.

3 SEMAINES D'ATTENTE

28 mars : Facebook retire la nouvelle de l’Agence Science-Presse. L’Agence contacte Facebook dont l’employé ne peut rien faire.

29 mars : L’Agence republie sa nouvelle.

31 mars : la nouvelle est retirée à nouveau.

1er avril : l’Agence contacte un dirigeant de Facebook, Kevin Chan, et lui explique la situation.

4 avril : Le dirigeant transfère l’agence au directeur des partenariats médiatiques.

8 avril : Sans nouvelles, l’Agence insiste auprès du service client qui accepte « exceptionnellement » d’en référer à son supérieur. 

14 avril : L’agence contacte à nouveau Facebook et les deux dirigeants.

20 avril : La situation est rétablie.

Vous avez un scoop à nous transmettre?

Vous avez des informations à nous partager à propos de cette histoire?

Vous avez un scoop qui pourrait intéresser nos lecteurs?

Écrivez-nous à l'adresse jdm-scoop@quebecormedia.com ou appelez-nous directement au 1 800-63SCOOP.

Commentaires

Vous devez être connecté pour commenter. Se connecter

Bienvenue dans la section commentaires! Notre objectif est de créer un espace pour un discours réfléchi et productif. En publiant un commentaire, vous acceptez de vous conformer aux Conditions d'utilisation.