{{cm.viewsLeft}}articlesremaintenant

platforms
Créé avec Sketch.

{{c.showSubscribeText}}

S’ABONNER
Déjà membre ? Connexion

Les annonceurs numériques veulent des rapports fiables et dignes de confiance des grandes plateformes de médias sociaux pour protéger leurs marques des contenus nuisibles et peu recommandables publiés sur leurs sites et applications. À l’heure actuelle, deux grands organismes de l’industrie — GARM et MRC — travaillent ensemble et parallèlement à des efforts pour amener l’industrie à l’échelle mondiale vers des approches vérifiées et normalisées pour mesurer les objectifs de sécurité de la marque en matière de publicité sur les plateformes sociales.

Voici un aperçu de qui ils sont, pourquoi ils travaillent ensemble et où ils en sont dans ce processus lent.

Qui est GARM et quel est son lien avec la sécurité de la marque sur les plateformes ?

GARM signifie Alliance Mondiale pour les médias responsables. Instagram Facebook, Twitter, TikTok, Snap et Pinterest – de grands groupes mondiaux du commerce publicitaire tels que Interactive Advertising Bureau et the 4As et des marques de P& G et Unilever à Dell et Chanel. Créée en 2019 sous les auspices de la Fédération mondiale des annonceurs, l’organisation a pour objectif de résoudre les problèmes liés à la sécurité des marques qui émergent lorsque la publicité est adjacente et soutient financièrement, si elle est indirecte, des contenus préjudiciables impliquant des sujets tels que l’imagerie violente, l’exploitation sexuelle des enfants, la désinformation et les discours de haine ou les armes et drogues. En avril, GARM a publié son premier rapport montrant ce qui se passe selon les mesures de sécurité de la marque sur ces plateformes. Par exemple, le rapport — qui a montré plus de 5.3 milliards de contenus ont été supprimés par les plates—formes participantes au cours de l’année précédant la publication – y compris les données basées sur deux nouvelles mesures conçues par les partenaires de GARM, le Taux de Vision violative et le Taux d’erreur de sécurité publicitaire.

Qui est MRC?

Le Conseil de notation des médias, ou MRC, a été créé au début des années 1960, au début de la diffusion de la télévision. Un groupe financé par l’industrie avec beaucoup des mêmes types de membres que GARM, il a ses racines dans la vérification des métriques et des processus de mesure des médias auprès d’entreprises, y compris des fournisseurs de mesure indépendants ainsi que des plates-formes numériques. Au fil du temps, la vérification de MRC s’est étendue des cotes de télévision Nielsen à l’ancienne aux processus de sécurité de la marque au niveau du contenu pour les publicités vidéo ainsi qu’aux mesures d’impression des publicités qui n’ont rien à voir avec la sécurité de la marque.

Alors, pourquoi GARM veut-il travailler avec MRC en matière de sécurité de la marque?

Considérez GARM et MRC comme des partenaires dans une mission diplomatique délicate pour encourager doucement — et faire pression avec la force que seuls les dollars publicitaires peuvent appliquer – les plateformes à accepter une surveillance extérieure de la sécurité de leur marque et des rapports de transparence.

Tout d’abord, un peu de contexte: À l’heure actuelle, les données fournies par les plateformes pour les rapports de GARM montrant ce qui se passe selon les mesures de sécurité de la marque sur leurs sites ne sont pas vérifiées par une entité indépendante. Au lieu de cela, les plates-formes ont auto-rapporté les informations pour ce rapport inaugural de GARM. Et dans le cas de certaines plateformes telles que Facebook, qui publie déjà ses propres normes de contenu et rapports d’application, une grande partie des mêmes données fournies à GARM provient en fait de rapports de transparence que les entreprises publient déjà.

GARM souhaite que les données fournies par les plateformes pour les rapports GARM soient vérifiées par une organisation indépendante. Parce que la MRC supervise déjà ce genre de choses, c’est le choix naturel.

Mais les préoccupations de GARM concernent plus que les données des plates-formes, n’est-ce pas?

Oui. GARM pousse tous ses partenaires de la plateforme à s’engager à trois niveaux d’audits de sécurité de la marque:

  1. Contrôles et opérations de sécurité de la marque : Ce niveau d’audit permettrait d’évaluer s’il y a suffisamment de contrôles et de processus internes en place pour mesurer par rapport aux directives de sécurité de la marque.
  2. Intégrations de la sécurité de la marque avec des fournisseurs externes : Cet audit examinerait les processus mis en place par les plates-formes pour des domaines tels que le transfert de données approprié lors de l’intégration de sociétés de mesure publicitaire tierces telles que DoubleVerify, Moat ou IAS
  3. Rapports de transparence de la sécurité de la marque: Ce niveau d’audit porte sur les données de sécurité de la marque fournies par les plates-formes utilisées dans les rapports GARM

Il convient de noter que MRC intègre les contrôles et les opérations en tant que composants intégraux de tous ses audits, sécurité de la marque et autres, tandis que GARM considère les contrôles internes des entreprises de plateformes comme des composants d’audit de sécurité de la marque distincts des deux autres catégories. Ainsi, le MRC et le GARM utilisent parfois des termes différents pour divers aspects des audits, ce qui peut ajouter à la complexité de ces questions.

Alors, où en sont les plates-formes dans ce processus GARM-MRC?

La plupart des plateformes participant au GARM n’ont pas encore accepté un audit externe des mesures de sécurité de la marque GARM ou MRC. Mais voici où il y a du mouvement en ce qui concerne GARM:

Facebook: Bien que cette histoire ait initialement rapporté que Facebook avait accepté que la MRC effectue un audit de ses rapports de transparence sur la sécurité de la marque pour GARM, la société a déclaré à Digiday après la publication de cet article qu’elle ne s’était pas engagée à ce que la MRC effectue un audit de ses rapports de transparence sur la sécurité de la marque, qui pourrait devenir une composante d’un audit des paramètres de sécurité de la marque qui devrait être lancé avec la MRC plus tard en juin.

Et un autre processus est en cours en ce qui concerne les rapports sur les normes d’application des contenus plus axés sur les consommateurs et les médias que Facebook publie déjà. Le 19 mai, Facebook a annoncé avoir sélectionné EY (Ernst & Young) pour effectuer un audit afin de valider son évaluation des mesures utilisées pour ses rapports du CERVM auto-publiés. Cela est important car EY gère la plupart des audits des métriques publicitaires de la plate-forme supervisés par MRC. En effet, MRC embauche d’autres cabinets d’audit, dont Deloitte et EY, pour mener à bien ses audits.

YouTube: YouTube est également plus engagé dans le processus de mesure de la sécurité de la marque que d’autres plateformes, mais ne s’est pas encore engagé dans un audit des rapports de transparence de la sécurité de la marque qu’il fournit pour GARM. La société a cependant été accréditée par MRC pour les Processus de Sécurité de la marque YouTube au niveau du Contenu pour la Diffusion d’annonces Vidéo via les systèmes publicitaires Google et YouTube. L’année dernière, la plate-forme vidéo a commencé à mettre à jour ses processus de sécurité de la marque pour les aligner sur les normes de GARM.

En général, c’est un processus fragmenté et ces deux plates-formes en sont à des étapes différentes et l’abordent différemment. Pendant ce temps, aucune autre plate-forme ne s’est engagée publiquement à une quelconque forme de vérification indépendante des mesures de sécurité de la marque liées au GARM ou au MRC.

Alors, est-ce que quelque chose d’autre freine le processus?

La réticence générale à participer à des audits indépendants qui nécessitent une inspection du traitement des données et de la technologie est un obstacle majeur pour toutes les plateformes. Mais la bureaucratie pourrait aussi ralentir un peu les choses. Tant que les exigences de reporting de GARM ne sont pas finalisées, puis intégrées aux normes et audits de sécurité de la marque de MRC, MRC ne peut pas commencer d’audits pour vérifier les données fournies par les plates-formes de reporting GARM.

Cela n’a pas encore eu lieu selon le MRC.

Cet article a été mis à jour pour refléter le fait que Facebook ne s’est pas engagé à ce que le MRC effectue un audit de ses rapports de transparence sur la sécurité de la marque pour GARM. Facebook s’était engagé à un tel audit, mais après sa publication, un porte-parole de Facebook a déclaré à Digiday qu’il n’avait accepté qu’une composante de l’audit de la sécurité de la marque qui n’inclut pas les rapports de transparence qu’il fournit à GARM.

Vous avez lu le nombre maximum d’articles gratuits.

Créé avec Sketch.

Abonnement Digiday+

Abonnez-vous dès maintenant pour accéder à un contenu Digiday illimité, à des rapports de recherche premium, à des newsletters exclusives, à des invitations à des événements réservés aux membres et plus encore.
S’ABONNER
Déjà membre ?

Connexion

Ce contenu est disponible exclusivement pour les membres Digiday+.

Créé avec Sketch.

Abonnement Digiday+

Abonnez-vous dès maintenant pour accéder à un contenu Digiday illimité, à des rapports de recherche premium, à des newsletters exclusives, à des invitations à des événements réservés aux membres et plus encore.
S’ABONNER
Déjà membre ?

Connexion

Inscrivez-vous pour recevoir les meilleures histoires de la journée à 6h du matin, dans l’est.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.