Un poing dans la figure. C’est à peu près l’image la plus vue en Belgique ce mardi 8 octobre sur les réseaux sociaux et dans les médias. En effet, la société belge Bicky Burger s’est illustrée, non pas par le goût de ses produits, mais bien en diffusant sur le réseau social Facebook une image publicitaire représentant une scène de violence conjugale. Les signalements de ladite publicité ont été nombreux, mais ni Facebook ni Bicky Burger n’a jugé bon de réagir rapidement, laissant le temps à cet image de circuler très largement.

Depuis 2017, ce sont 97 femmes qui ont perdu la vie parce qu’elles étaient des femmes et 18 000 plaintes qui ont enregistrée en Wallonie et à Bruxelles pour violences conjugales. Autant dire qu’une telle représentation de la violence entre un homme et une femme n’a pas sa place dans notre société.

Cet évènement ramène avec lui sur le devant de la scène la question de la publicité sexiste et véhiculant des stéréotypes. On le sait, nos représentations sont construites par notre environnement. La conception que les femmes ont d’elles-mêmes, mais aussi la conception que les hommes ont des femmes sont conditionnées par l’image qu’on en donne dans les médias, la cultures, mais aussi … dans la publicité.

Mais comment une telle image peut-être restée en ligne plus de 7 heures ?

A la différence de la publicité dans les médias, qui est soumise à l’autorité du JEP, le Jury d’Ethique Publicitaire, la publicité et les contenus présents sur les réseaux sociaux sont soumis à leurs propres règles. C’est ainsi Facebook qui décide lui-même du contenu qui peut, ou pas, figurer sur sa plateforme.

Et, croyez-mois, Facebook a les moyens de savoir ce que vous publiez …

Lorsque vous publié une annonce publicitaire, Facebook analyse votre contenu pour voir s’il est en phase avec son règlement. Et l’image ou l’illustration ne peut contenir trop de texte, un contenu soumis au copyright, ou encore un contenu qualifié de pornographique. Tout ça est automatique, évidemment, et utilise des algorithmes complexes pour interpréter chaque pixel de votre contenu.

Autre exemple : la reconnaissance automatique de visages. Vous l’aurez vu, désormais, lorsque vous publiez une photo de vos amis, Facebook est capable de vous suggérer leurs noms. Big brother is watching you. Ou en tous cas, il vous reconnait.

Enfin, Facebook s’est lancé en 2016 dans la description automatique de photos grâce à l’intelligence artificielle. Cela signifie qu’une base de données de millions de photos lui permet de deviner le contenu précis d’une image.

Reconnaître des seins, oui. Reconnaître un poing dans la figure, non.

Mais alors, pourquoi Facebook ne lutte-il pas proactivement contre ce genre de contenu sexiste et violent, et préfère les supprimer à posteriori ? Telle est la question.

Ma réflexion, en tant que spécialiste en communication digitale, est que Facebook est et reste une régie publicitaire. Cela signifie que son intérêt est économique. Or tout contenu publié sur sa plateforme génère de l’interaction. Et toute interaction génère … de l’argent. Un contenu suscitant l’émotion et donc beaucoup de commentaires, de réactions et de partages est un contenu qui fait passer à l’utilisateur un peu plus de temps sur le réseau social. Et qui dit plus de temps passer sur sa plateforme, dit plus de publicité affichée. CQFD.

Un jury indépendant

Et si, comme le Jury d’Ethique Publicitaire, l’espace virtuel voyait émerger une instance neutre pour légiférer sur son terrain. Facebook a la capacité technique d’interprêter les contenus avec plus ou moins de précision. Ce qu’il fait ensuite de l’information a des conséquences sur notre paysage virtuel. Choisir ou pas de montrer la violence ou la pornographie sont des enjeux de société, qui construisent notre vision du monde et façonne notre imaginaire. Politiquement, il est problématique que ces choix soient dans les mains de société qui réfléchissent avec une logique économique sur le sujet.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *