Brand safety : la parole aux régies

Brand safety first

À l’heure où les opportunités de prises de parole sur les réseaux se multiplient, la brand safety est un sujet qui préoccupe de plus en plus les annonceurs. Pour vous présenter les enjeux essentiels, nous avons interrogé les quatre principales régies digitales sur la question : Snapchat, Meta, TikTok et Twitter. Découvrez leurs réponses.

L’analyse de Mathilde Buche, Head of Social Media chez Keyade

Mathilde

Notre rôle d’agence consiste accompagner nos clients dans leur stratégie social media, tout en veillant à garantir leur image de marque ou l’expression de leurs valeurs.

Ces sujets sont primordiaux pour nos clients et par conséquent centraux dans notre approche.

Bien entendu, le risque zéro n’existe pas, mais nos partenaires Meta, Snapchat, TikTok ou encore Twitter se montrent très conscients de leurs responsabilités, aussi bien auprès des marques que des utilisateurs.

Chez Snapchat, la stratégie de brand safety s’appuie sur une notion structurelle, avec des espaces publicitaires ouverts aux marques uniquement sur les contenus de médias partenaires certifiés et vérifiés. Chez Meta et TikTok, on valorise particulièrement les dynamiques de prévention auprès des utilisateurs, mais tous nos partenaires s’appuient bien sur des organismes de modération/fact checking externes et indépendants.

Les régies continuent chaque année de muscler leurs équipes de modération et d’investir massivement dans leur politique de brand safety (Meta l’illustre particulièrement bien en communiquant même de manière chiffrée). De façon générale, nous travaillons en étroite collaboration avec les régies pour identifier et mettre en place les meilleures pratiques de brand safety, et il est également possible de s’entourer de partenaires tiers spécialisés pour explorer de nouveaux territoires de communication le plus sécuritairement possible.

Chez Keyade, nous connaissons nos clients et restons alertes et critiques sur ces sujets afin de les accompagner au mieux sur les plateformes sociales.

La parole aux régies

Quelle est votre conception de la Brand Safety ?

Snapchat : Chez Snapchat, la sécurité de nos utilisateurs et de nos partenaires est une priorité. Nous avons conscience de notre responsabilité et de l’impact de nos produits sur la vie des personnes et des marques qui les utilisent, et nous nous efforçons de concevoir notre plateforme comme un environnement sain, sûr, amusant, mais surtout respectueux de la vie privée de nos utilisateurs et des lois des pays dans lesquels nous opérons. Ce principe étant notre moteur, nous nous assurons que toute diffusion de contenus publics soit en lien avec nos valeurs afin de protéger nos utilisateurs de tout âge, mais aussi nos annonceurs et leur communication. Les marques peuvent également nous faire remonter des informations et leurs objectifs afin que nous puissions agir en conséquence. 

Meta : La sécurité est une priorité absolue pour Meta et pour nos plateformes :

  • D’un point de vue utilisateur : garantir que Facebook, Instagram, WhatsApp et Messenger sont des environnements sûrs pour s’informer, se divertir, échanger.
  • D’un point de vue clients : leur offrir un environnement de diffusion de leurs publicités sans risque de mauvaise association entre leurs entreprises, leurs produits, leurs services, et des contenus qui ne correspondent pas à leurs valeurs.

Pour protéger nos utilisateurs et nos clients, nous avons massivement investi dans cet enjeu de brand safety. Nos équipes expertes de ces sujets sont passées de 10 000 à 40 000 en 5 ans. Nos investissements en Brand Safety sur les cinq dernières années sont de 13 Mds$, dont 5 Mds$ en 2021. 

TikTok : Chez TikTok, la sécurité et la protection tant de nos utilisateurs que des marques est une priorité absolue. Aussi, la sécurité des marques ne peut être envisagée sans une politique de protection des utilisateurs forte et pertinente. L’un ne va pas sans l’autre.

Pour cela, nous avons créé un environnement sûr et bienveillant, où chacun est libre d’exprimer sa créativité, de partager ses histoires, de découvrir, se divertir, d’interagir les uns avec les autres. Sur TikTok, les marques peuvent ainsi s’exprimer elles aussi en toute confiance et engager avec une communauté d’une grande diversité.

Twitter : La Brand Safety est une priorité pour Twitter au même titre que la User Safety. Elle repose sur 3 piliers : 

  • Des politiques qui ouvrent la voie : par exemple, Twitter a été pionnier vis-à-vis de la publicité politique, que nous avons choisi d’interdire dès octobre 2019. 
  • Des produits qui protègent : par exemple, le contrôle des conversations permet à tous les utilisateurs, dont les marques, de choisir qui pourra répondre à leurs Tweets et ainsi restreindre d’éventuels commentaires négatifs. 
  • Des partenariats qui créent de nouveaux standards pour l’industrie : Twitter est membre fondateur de la Global Alliance for Responsible Media (GARM), travaille avec MRC pour obtenir leurs 4 accréditations, et de nombreux autres organismes. Nous sommes également partenaires de IAS et DoubleVerify pour mesurer l’impact des campagnes publicitaires. 

Pour en savoir plus, téléchargez notre Brand Safety Playbook. 

Comment garantissez-vous aux marques un contexte Brand Safe pour diffuser leurs contenus publicitaires ?

Snapchat : Snapchat a été fondé sur les principes de confidentialité et de sûreté par défaut (“privacy and safety by design”). La plateforme a été pensée afin de communiquer avec ses véritables amis et proches, plutôt qu’un espace de communication publique. Cette conception nous permet de lutter efficacement contre tout risque ou phénomène de viralité sur notre plateforme. 

Plus concrètement, les communications des marques ne sont disponibles que depuis nos parties publiques et font l’objet d’une modération exacerbée. En effet, les contenus publics sur Snapchat sont soumis à l’examen approfondi de nos équipes afin de s’assurer qu’ils ne sont contraires ni à nos règles communautaires ni à nos valeurs. En cas d’incident, nous nous tenons à la disposition des utilisateurs et de nos partenaires afin d’agir au plus vite et de garantir une expérience optimale. 

Meta : Pour proposer une expérience sécurisée et sur mesure, il est de notre responsabilité d’exprimer nos règles clairement afin qu’elles soient mises en application par les utilisateurs. Nous disposons ainsi de ressources telles que les Standards de la communauté, un Conseil de Surveillance Indépendant, un Centre de Transparence, des Rapports de Transparence et une Bibliothèque publicitaire. Nous mettons aussi à disposition des outils de contrôle pour personnaliser les expériences, avec la possibilité de signaler des contenus, gérer les commentaires, sensibiliser les auteurs de messages offensants, ainsi qu’un contrôle parental.

Enfin, nous permettons aux entreprises et aux utilisateurs de s’assurer que leurs contenus sont en sécurité sur nos applications, à travers différentes ressources et réseaux de partenaires publics : Commission Européenne, e-Enfance et des organismes indépendants tels que la Licra, Internet Sans Crainte, Génération Numérique et bien d’autres.

TikTok : Nos formats publicitaires sont conçus avec la sécurité des marques pour priorité. Nous travaillons avec des partenaires externes pour développer des solutions spécifiques et adaptées à TikTok. Notre objectif est de permettre aux marques de réduire les risques d’exposition aux côtés d’un contenu qui ne serait pas adapté à son image de marque ou qui impacterait la compréhension et la portée de son contenu. Des tests sont menés avec Integral Ad Science ou encore OpenSlate. Dans le cadre de la diffusion de leur campagne, les marques ont ainsi la possibilité de travailler avec un partenaire tiers de confiance, pour s’assurer que leur investissement est adjacent au contenu vérifié, protégeant ainsi la réputation de la marque.

Twitter :

  • Certaines mesures sont automatiques : nos algorithmes sont capables d’identifier des contenus sensibles, et ainsi éviter d’afficher des Tweets Sponsorisés immédiatement autour de ces contenus. 
  • Les annonceurs peuvent également contrôler l’affichage de leurs campagnes, par exemple choisir de ne pas s’afficher dans les résultats de recherche ou sur les profils, mais aussi exclure des mots ou expressions.  
  • Enfin, dans le cadre de notre programme Amplify, nous ne travaillons qu’avec des éditeurs professionnels, et leurs contenus sont vérifiés algorithmiquement et manuellement afin de garantir une brand safety maximale aux pre-rolls des annonceurs. Une étude d’OpenSlate de 2021 a affirmé que 100% des 455000 contenus Amplify étudiés respectaient les standards de Brand Safety de la GARM. 

Quels mécanismes ou outils mettez-vous en place pour lutter contre la fraude ou la diffusion de fausses informations ? Quel délai de traitement garantissez-vous ?

Snapchat : Nous proposons un outil de signalement de contenu permettant à quiconque, utilisateurs ou partenaires, de signaler les contenus illicites ou inappropriés. Cet outil de signalement est disponible sur l’ensemble de l’application, et sur notre page support, ou les marques peuvent également signaler des contenus indésirables, touchant leur intégrité ou leur image. Lorsqu’un utilisateur signale un contenu, il lui est proposé d’apporter plus de contexte et d’informations afin de guider notre équipe de modérateurs. Tous les signalements sont envoyés à une équipe spécialisée qui évalue et supprime le contenu problématique très rapidement – généralement dans les heures qui suivent le signalement. En complément, nous appliquons également une politique relative aux contrevenants récidivistes afin de s’assurer que les mauvais acteurs soient rapidement radiés de notre plateforme.  

Meta : Nous travaillons avec des médias de vérification tiers et certifiés par l’organisme indépendant IFCN. Notre programme vise à :

  • Identifier les fausses actualités.
  • Examiner les contenus : les médias de vérification évaluent la véracité/l’exactitude des faits, indépendamment de Meta.
  • Étiqueter clairement les fausses informations et en informer les utilisateurs, information des utilisateurs 1/ qui essaient de partager ces contenus, 2/ qui les ont déjà partagés.
  • S’assurer que moins de personnes voient ces contenus : une fois qu’un contenu est identifié comme étant faux, altéré ou partiellement faux, la publication apparaît plus bas dans le fil d’actualité, est retirée de l’onglet Explorer sur Instagram et rétrogradée dans le fil d’actualité et les stories.
  • Sanctionner les récidivistes : le partage régulier de fausses informations fait l’objet de restrictions pour les diffusions, la monétisation de contenus, la publicité ou la possibilité de s’enregistrer comme Page d’actualités.

TikTok : Nous combinons la technologie et la modération humaine pour protéger notre plateforme, et nos équipes couvrent plus de 60 langues et dialectes.

Nos Règles Communautaires sont très claires et interdisent la désinformation. Nous faisons appliquer strictement ces règles en supprimant tout contenu et compte qui les enfreindrait.

Nous collaborons également avec des organismes indépendants de vérification des faits – dont l’AFP en France – qui nous aident à évaluer l’exactitude du contenu publié afin de pouvoir rapidement supprimer toute infraction à nos Règles Communautaires.

Par précaution, les contenus qui sont en cours de vérification, et les contenus qui n’ont pas pu être corroborés, sont inéligibles au fil « Pour Toi ».

Twitter : Parmi les nombreuses mesures visant à lutter contre ces comportements, amenant certains contenus à être supprimés ou certains comptes à être suspendus (automatiquement ou suite à des signalements), nous avons mis en place d’autres mesures permettant au grand public de s’orienter vers les bonnes informations : 

  • Sur des sujets clés comme les élections ou la santé (covid, vaccins), nous pouvons apposer des labels donnant du contexte et de l’information sur des Tweets à forte visibilité dont le contenu serait trompeur, ou qui contiendrait un média synthétique ou manipulé.  
  • Nous proposons aussi un rappel aux utilisateurs qui retweeteraient un article de presse sans l’avoir ouvert, afin de les encourager à aller au-delà d’un simple titre, parfois limité par rapport au contenu développé dans l’article. 

Comment la politique de Brand Safety de votre plateforme a-t-elle évolué ? Quels sont les résultats de ces évolutions ?

Snapchat : Nos équipes travaillent main dans la main afin de répondre au mieux aux attentes et aux demandes de nos clients. Deuxièmement, nous nous efforçons d’offrir la plus grande transparence possible auprès de nos utilisateurs, en publiant notamment un rapport semestriel sur les contenus retirés de la plateforme ou encore une bibliothèque des publicités politiques de Snap accessible publiquement. Enfin, nous accordons une importance capitale au signalement, via la mise en place d’un bouton de signalement disponible sur l’ensemble de notre plateforme.

Meta : Notre stratégie brand safety se montre de plus en plus efficace. En 2017, nous étions en mesure de supprimer 23% des contenus ne respectant pas les standards de la communauté, avant qu’ils ne soient vus. En 2021, ce sont désormais 95,9% de ces contenus qui sont détectés avant d’être visibles. 

Nos recrutements se sont intensifiés pour garantir un environnement brand safe, ils sont désormais 40 000 chez Meta à travailler sur ces sujets.

TikTok : Pour que perdure et se renforce la relation de confiance construite avec notre communauté, partenaires et marques, et leur apporter toujours plus de clarté, nous nous engageons à faire preuve de transparence sur les mesures que nous prenons pour garantir la sécurité de notre plateforme. Chaque trimestre, nous diffusons notre Rapport sur l’application des Règles communautaires qui donne un aperçu du volume et de la nature des contenus supprimés pour avoir enfreint nos Règles Communautaires, ainsi qu’un éclairage sur les méthodes mises en œuvre pour lutter contre la diffusion de fausses informations. Sont inclus dans ce rapport une analyse des comptes supprimés, des vidéos remises en ligne à la suite d’un recours de créateur, un éclairage sur certaines politiques liées par exemple à une actualité particulière ou encore les publicités non acceptées pour infraction aux politiques publicitaires.

Twitter : Nos politiques évoluent constamment, afin de s’adapter aux nouveaux challenges rencontrés par les utilisateurs et les marques. L’amélioration des algorithmes et du machine learning permet d’aller toujours plus loin dans l’automatisation et la rapidité d’exécution. Par exemple, plus de 50% des Tweets sur lesquels nous agissons en cas d’abus sont traités de manière proactive à l’aide de la technologie. Nous publions les chiffres sur l’application de nos mesures dans le monde deux fois par an sur notre Centre de Transparence.  

Quelles sont vos recommandations ou best practices pour protéger une image de marque ?

Snapchat : Chez Snap, nous pensons qu’il est essentiel de penser nos produits et nos fonctionnalités sur les principes de confidentialité et de sûreté par défaut. Il en va de la protection de nos utilisateurs, mais aussi de nos partenaires. Ces solutions structurelles permettent d’éviter la prolifération de contenus indésirables, et de lutter efficacement contre tout détournement ou impact négatif pour les marques. À cet effet, il est essentiel d’assurer un dialogue continu avec ces dernières afin de comprendre leurs attentes, les accompagner et agir en conséquence. En effet, la Brand Safety est une collaboration renforcée entre la plateforme et le partenaire. Il est par conséquent essentiel de rester à la disposition des marques, en leur fournissant tous les outils nécessaires pour leur assurer une expérience sécurisée et optimale sur la plateforme. 

Meta : Nous préconisons à nos clients et leur partenaire médias d’utiliser les différentes fonctionnalités mise à leur disposition pour contrôler leurs environnements de diffusion. 

Ils peuvent notamment filtrer les inventaires pour des solutions type in-Stream, Reel overlay, Instant Article, Audience Network, en choisissant une diffusion sur un inventaire complet, standard ou limité.

Il est également possible de :

  • faire du PLACEMENT OPT-OUT, pour contrôler les zones où les publicités apparaissent sur nos plates-formes.
  • FILTRER LES INVENTAIRES pour empêcher les publicités d’apparaître à côté du contenu sensible.
  • constituer des LISTES DE BLOCAGE pour bloquer la diffusion d’annonces sur des pages, des sites Web et/ou des applications spécifiques.
  • Enfin, EXCLUSIONS DE SUJETS permet aux annonceurs in-stream de choisir des exclusions au niveau du contenu parmi quatre sujets différents : actualités, politique, jeux et contenu religieux/spirituel. 

TikTok : Sur TikTok, notre priorité est la protection et la sécurité tant de nos utilisateurs que des marques et partenaires. Chacun trouve sur TikTok un espace sûr et bienveillant où laisser libre court à sa créativité, s’exprimer tel que l’on est. Aussi, nous proposons à l’attention des marques, plusieurs solutions sur mesure, en complément des services proposés par des vérificateurs tiers comme Integral Ad Science et qui permettent d’assurer (et de mesurer) la bonne diffusion adjacente à des contenus vérifiés notamment. Par ailleurs, les marques peuvent également choisir de désactiver les commentaires sur leurs publicités notamment.

Twitter : Nos politiques, produits et partenariats en place permettent déjà de garantir la Brand Safety des marques quand elles font par exemple la promotion de leurs produits ou services, ou qu’elles cherchent à s’associer à un événement.  

En période de gestion de crise, il peut être pertinent d’utiliser des outils supplémentaires pour se prémunir d’un éventuel bruit : masquer certaines réponses, ou choisir de les restreindre totalement grâce aux paramètres de conversations, ou encore affiner le ciblage avec des mots négatifs pour éviter de s’afficher auprès d’individus et de conversations indésirables.