Médias indépendants et plateformes, quand les algo rythment l’information

Pour Médianes, la Revue Far Ouest, Clit Révolution, la revue Gaze et Loopsider témoignent de leur présence sur les réseaux sociaux.

Quand les algo rythment l’information

— 13 mai 2022

Faire vivre son média sur Face­book et Insta­gram néces­site une con­nais­sance de ces out­ils pour gag­n­er en vis­i­bil­ité ou moné­tis­er son con­tenu. Face au flou imposé par les algo­rithmes, cer­tain·es par­lent de « cen­sure » de pub­li­ca­tions ou de « perte de la ligne édi­to­ri­ale ». Pour Médi­anes, la Revue Far Ouest, Clit Révo­lu­tion, la revue Gaze, et Loop­sider témoignent de leur présence sur les réseaux sociaux.

« Face­book était comme mon deal­er », assène Flo Laval, co-fon­da­teur de la Revue Far Ouest, un média indépen­dant qui cou­vre la région Nou­velle-Aquitaine. La métaphore de la drogue, il la file tout au long de notre échange. Lorsqu’un nou­veau média se lance, la présence sur les réseaux soci­aux est presque inévitable. Et pour l’équipe de la revue lancée en 2017, il a fal­lu appréhen­der ces usages. 

Entre 2016 et 2019 c’est l’extase : le média, présent égale­ment en vidéo sur Face­book, vient de créer sa page dans le but de gag­n­er en vis­i­bil­ité. « On a réus­si à tripler notre com­mu­nauté au fil des mois. On a bien vu que per­son­ne n’allait sur le site Inter­net. Donc on a émergé aus­si grâce à ça », recon­naît Flo. Pour émerg­er sur le réseau social, la revue se plie alors aux recom­man­da­tions de la plate­forme « il fal­lait pub­li­er du con­tenu des vidéos d’environ 5 min­utes. On abor­dait des sujets comme les gilets jaunes, le fémin­isme, l’environnement, qui plaisent aux algo­rithmes de Face­book donc cela générait de l’engagement ». La vidéo avec Cyril Dion cumule 180 000 vues et d’autres atteignent les 675 000 vues. 

Flo Laval - La Revue Far Ouest

Flo Laval — Revue Far Ouest

À en perdre la ligne éditoriale

Mais Flo se rend vite compte que Face­book « demande de pro­duire tou­jours plus. Puis il nous mon­tre com­ment pay­er encore plus pour gag­n­er davan­tage en vis­i­bil­ité »Et du jour au lende­main, tout s’arrête. La plate­forme exige des vidéos plus cour­tes. Far Ouest perd son audi­ence alors même que Face­book est devenu son prin­ci­pal canal de com­mu­ni­ca­tion. L’équipe a con­science qu’elle s’est enfer­mée dans un for­mat, au point de s’éloign­er de sa ligne édi­to­ri­ale ini­tiale : pren­dre le temps, ren­con­tr­er les acteur·ices de l’environnement, racon­ter la région Nou­velle-Aquitaine. « Nous pro­dui­sions du con­tenu pour faire plaisir à l’algorithme, per­son­nelle­ment j’étais dépen­dant d’un truc que je ne maîtri­sais plus ».

Et ce truc, c’est l’algorithme. « Aujourd’hui, plus c’est court, plus ça marche. Sauf que la revue va au fond des choses. Donc avec les algo­rithmes, ça n’al­lait plus ». En effet, en 2018, Face­book a changé son algo­rithme, ce qui a par­ti­c­ulière­ment impacté les médias. Aus­si, à ce moment-là, Face­book mise tout sur la vidéo et recom­mande des durées pré­cis­es pour gag­n­er en vis­i­bil­ité : entre 1 et 5 min. Par ailleurs, Face­book s’est doté d’un out­il en 2014 : Face­book for media. Un site à des­ti­na­tion des médias, conçu comme un kit ou comme un guide sur les bonnes pra­tiques afin d’être vis­i­ble sur la plate­forme. « Les invi­ta­tions que lance Face­book à pro­duire plus de vidéos sont néan­moins égale­ment assor­ties de con­seils de nature à influer sur leur con­tenu », assure le chercheur Tris­tan Mat­te­lart dans son arti­cle « Com­pren­dre la stratégie de Face­book à l’égard des médias d’information ».

Alors jeune média, l’équipe de la Revue Far Ouest a testé sa présence sur les réseaux soci­aux de manière empirique. « Il faut rester mod­este quand on débute : tu essayes, tu fais une erreur, tu changes. Il y a un écart entre la bonne manière de faire, et les moyens dont on dis­pose pour tra­vailler ».  

« La censure devient politique »

Ne plus com­pren­dre le fonc­tion­nement de son prin­ci­pal out­il de tra­vail, Elvire Duvelle-Charles le subit avec Insta­gram à tra­vers son compte Clit Révo­lu­tion. Son livre Fémin­isme et réseaux soci­aux : une his­toire d’amour et de haine est sor­ti aux édi­tions Hors d’atteinte en févri­er 2022. La veille de notre échange, elle était dans une librairie à la ren­con­tre de ses lecteur·rices : « c’était une bouf­fée d’air que de ren­con­tr­er sa com­mu­nauté hors ligne ». Cela en dit long sur le tour­nant qu’elle est en train de pren­dre con­cer­nant les réseaux soci­aux. Au cours des ren­con­tres, « la ques­tion du “shad­ow ban” et de la cen­sure à l’encontre des con­tenus fémin­istes revient sou­vent. Ma com­mu­nauté com­mence à avoir con­science de ces prob­lé­ma­tiques ». Le shad­ow ban est l’invisibilisation d’un compte dans le fil de celles et ceux qui nous suiv­ent. « Lorsqu’on est invis­i­bil­isé·e dans les algo­rithmes, on est moins mis en avant, sans savoir pourquoi. La cen­sure c’est plus rare, mais plus explicite ». Mais alors pourquoi des comptes fémin­istes seraient invis­i­bil­isés ? « Ma théorie, qui n’engage que moi, pour­suit Elvire Duvelle-Charles, soupçonne les sig­nale­ments en masse de nos comptes : celles et ceux qui ne sup­por­t­ent pas les fémin­istes font en sorte que nous soyons régulière­ment restreint·es »

Elvire Duvelle-Charles Crédits : Maya Mihindou

Elvire Duvelle-Charles — Crédits : Maya Mihindou

L’ambivalence se trou­ve dans le fait que le cyber­har­cèle­ment est « bon pour l’algorithme » puisque la valeur d’un post est cal­culée en fonc­tion du taux d’en­gage­ment que génère ce con­tenu. Ain­si, un post fémin­iste sur les réseaux soci­aux qui subi­rait un har­cèle­ment via une avalanche de com­men­taires haineux pour­rait « plaire » à l’al­go­rithme de la plate­forme. Mal­heureuse­ment, la cul­ture du clash provoque la mise en avant des con­tenus. Alors que le mil­i­tan­tisme s’ex­prime aujour­d’hui aus­si par le clic, des comptes fémin­istes exis­tent depuis plusieurs années et Meta (mai­son mère de Face­book, Insta­gram et What­sApp) a plutôt ten­dance à appréci­er la nou­veauté. Après cinq années d’existence, la vis­i­bil­ité baisse dras­tique­ment, « par­fois nous avons 78 likes pour 120 000 abonné·es. Le compte n’est plus mis en avant comme un nou­veau peut l’être ».

Selon Elvire Duvelle-Charles, Meta ne com­mu­nique pas sur ses pra­tiques de blocage de cer­tains con­tenus : « on les décou­vre en postant ».  Elle cite en exem­ple la Une de Téléra­ma avec l’ac­tiviste et mod­èle Leslie Bar­bara Butch posant nue. Le partage de la pho­to a été blo­qué sur les réseaux soci­aux pen­dant plusieurs heures. De son côté, Insta­gram partage ses pré­con­i­sa­tions pour gag­n­er en vis­i­bil­ité : la régu­lar­ité des posts, la pro­duc­tion de plusieurs con­tenus par jour, la pub­li­ca­tion de Reels est égale­ment recom­mandée. Meta veut rat­trap­er son retard sur l’in­stan­ta­néité de Tik­Tok, mais pour Elvire c’est surtout « pro­duire tou­jours plus, et c’est de la fatigue. Tenir le rythme devient infais­able et il y a le risque de per­dre sa ligne édi­to­ri­ale. Alors même que cer­tain·es suiv­ent ces recom­man­da­tions, leurs con­tenus sont blo­qués, la cen­sure devient poli­tique ».

En passer par la case justice

Sa manière d’appréhender les réseaux soci­aux a changé. « J’ai une rela­tion ambiguë avec les réseaux soci­aux. D’un côté, je ressens un dégoût et de l’autre je con­tin­ue à les utilis­er ». Il y a dix ans, Elvire était chargée des réseaux soci­aux dans le col­lec­tif des Femen. « Nous con­nais­sions mieux le fonc­tion­nement des algo­rithmes : le taux d’engagement du pub­lic dans les heures qui suiv­ent la pub­li­ca­tion. Nous étions blo­quées pen­dant un temps, car nous mon­tri­ons des pho­tos avec des tétons appar­ents puis la pub­li­ca­tion reve­nait. Main­tenant, c’est une cen­sure algo­rith­mique ».

Pour dénon­cer ces abus, Elvire Duvelle-Charles est co-sig­nataire, avec d’autres comptes fémin­istes, d’une tri­bune pub­liée dans Medi­a­part. Dans ce texte, ils et elles dénon­cent « la cen­sure gran­dis­sante de groupes mil­i­tants sur les réseaux soci­aux et l’ab­sence totale de mod­éra­tion des con­tenus sex­istes, racistes, appelant au cyber­har­cèle­ment, et une silen­ci­a­tion per­ma­nente de nos pro­pos » et deman­dent notam­ment « une mod­i­fi­ca­tion de l’algorithme pour une meilleure représen­ta­tion et vis­i­bil­ité des corps des minorités et la créa­tion d’un obser­va­toire indépen­dant des réseaux soci­aux, cofi­nancé par l’État et les plate­formes »

Tout est par­ti de la sup­pres­sion d’une pub­li­ca­tion, de la mil­i­tante fémin­iste et antiraciste Mélu­sine qui posait la ques­tion : « com­ment fait-on pour que les hommes cessent de vio­l­er ? ». Elvire Duvelle-Charles pré­cise que c’est aus­si le point de départ d’une assig­na­tion en référée portée con­tre Face­book par un col­lec­tif de 14 comptes fémin­istes dont Clit Révo­lu­tion. Le col­lec­tif s’est entouré des avo­cates Valen­tine Rebéri­oux et Louise Bouchain. L’objectif de cette assig­na­tion est d’avoir une solu­tion immé­di­ate pro­posée. Elles deman­dent à ce que Face­book soit plus trans­par­ent en ce qui con­cerne leurs algo­rithmes et leur poli­tique de modération. 

___________________________________________________________________________

Nikos Smyr­naios est maître de con­férences en Sci­ences de l’in­for­ma­tion et de la com­mu­ni­ca­tion à l’Université de Toulouse et auteur de Les GAFAM con­tre l’Internet, une économie poli­tique du numérique (INA, 2020).

Le mot « cen­sure » revient à plusieurs repris­es dans les témoignages recueil­lis, ce terme vous paraît-il adapté ? 

Pour moi, le mot cen­sure est de nature poli­tique et mil­i­taire. Je par­lerais plutôt de réduc­tion de vis­i­bil­ité et de posts sus­pendus ou de mise en invis­i­bil­i­sa­tion. Lorsque Face­book retire des pub­li­ca­tions, il y a tout un tas de raisons invo­quées, mais cela peut relever d’une infrac­tion aux con­di­tions d’utilisation. Lorsqu’un média poste du con­tenu, il accepte toutes les con­di­tions que pose le réseau, donc il doit se pli­er aux règles imposées. Mais il y a égale­ment l’enjeu de la mod­éra­tion. La mis­sion est en par­tie assurée par des sous-trai­tants à l’étranger. Le con­texte cul­turel et poli­tique des mod­éra­teurs n’est pas le même con­cer­nant la mod­éra­tion. Ain­si, Face­book invoque la rai­son de l’erreur après coup, et la faute repose sur la sous-trai­tance. Une bonne manière pour Face­book de ne pas avoir à se justifier. 

Des actions en jus­tice comme cette assig­na­tion en référé de Face­book par 14 comptes fémin­istes en 2021, peu­vent-elles faire bouger les lignes ? 

Je suis scep­tique. C’est une bonne ini­tia­tive que des médias enga­gent ces procé­dures, mais je ne suis pas cer­tain de l’aboutissement. Il faut plutôt miser sur une solu­tion poli­tique comme le Dig­i­tal Ser­vices Act engagé par l’Union européenne. Les plate­formes devront notam­ment ren­dre leurs algo­rithmes publics. L’accès aux solu­tions est asymétrique : on a bien vu que les droits voisins et les accords passés entre les édi­teurs et les plate­formes ont con­cerné unique­ment les grands médias tra­di­tion­nels. Face­book News va met­tre en avant ces médias et la con­cen­tra­tion sera encore plus forte. Les médias émer­gents sont con­traints de se pli­er à ces règles et doivent miser sur des solu­tions alter­na­tives, compter sur leur com­mu­nauté engagée. 

L’affaire des Face­book Files, pose la ques­tion : Face­book a‑t-il encore la main sur ses algorithmes ? 

Face­book con­trôle ses algo­rithmes. Ce qu’il ne con­trôle pas, ce sont les effets indi­rects. Pour la mod­éra­tion, des mots-clés sont spé­ci­fique­ment choi­sis alors que le dis­cours humain est com­plexe et les algo­rithmes ne com­pren­nent pas la satire. On observe que les GAFAM [Google, Apple, Face­book, Ama­zon et Microsoftet Tik­Tok met­tent la main sur l’évolution de l’usage de l’information. Par exem­ple, Face­book a changé son algo­rithme après l’élection améri­caine. De son côté, Google a longtemps mon­tré qu’il avait la main en Espagne

___________________________________________________________________________

 « Je n’ai aucune visibilité »

Être vis­i­ble sur les réseaux soci­aux, c’est aus­si assur­er une par­tie de ses revenus. Gaze, une revue fémin­iste indépen­dante qui célèbre la mul­ti­plic­ité des regards féminins en est un bon exem­ple. Pour met­tre en avant leur média et com­mu­ni­quer sur leur revue papi­er, l’équipe a recours à de la pub­lic­ité (spon­sori­sa­tion) sur Insta­gram et Face­book, via l’outil pub­lic­i­taire de la plate­forme : Busi­ness Man­ag­er. Prob­lème : ce compte est actuelle­ment blo­qué. « Là, je n’ai aucune vis­i­bil­ité con­cer­nant notre présence sur les réseaux soci­aux puisque nous sommes lit­térale­ment blo­quées, témoigne Clarence Edgard-Rosa la fon­da­trice, nos posts non pub­lic­i­taires con­tin­u­ent d’être pub­liés, mais on ne se sait jamais à quel moment on peut être cen­suré·es ». En clair, impos­si­ble de savoir ce qu’ac­ceptent ou non les algo­rithmes de Meta, impos­si­ble de spon­soris­er leurs con­tenus et d’assurer la vente de leur revue. 

 

Clarence Edgard-Rosa

Clarence Edgard-Rosa

 

Les blocages sont directe­ment liés à la ligne édi­to­ri­ale. Dans son troisième numéro, Gaze a vu plusieurs de ses con­tenus ban­nis sur Face­book. La cou­ver­ture représente une femme por­tant une robe couleur chair, prise de dos, en train de se regarder dans le miroir. « Les algo­rithmes de Face­book croient que l’on pub­lie du con­tenu inter­dit. Ce qui me met le plus en colère c’est que l’on me dise que la Une de ma revue est pornographique. Même la per­son­ne du ser­vice mar­ket­ing de Face­book que nous avons eue au télé­phone nous a dit que “oui objec­tive­ment il n’y avait rien de porno là- dedans”. Il faudrait presque deman­der à Meta sa val­i­da­tion pour savoir s’ils acceptent ou non notre prochaine cou­ver­ture »

Un ton cynique qui ne cache pas un ras-le-bol alors que c’est une énergie qui pour­rait être davan­tage con­sacrée à la ges­tion du mag­a­zine. À chaque sup­pres­sion de con­tenu, l’équipe tient à con­naître les raisons : essay­er de con­naître les argu­ments, atten­dre des ren­dez-vous télé­phoniques avec Meta et faire appel des blocages. 

« Des situations ubuesques »

Gaze en viendrait à con­tourn­er la « cen­sure » par l’autocensure.  « On est là-dedans. La créa­tion des posts se fait totale­ment en fonc­tion des algo­rithmes et des pos­si­bil­ités d’être cen­surés. Dans tous les cas, nous n’avons aucune idée de quel type de con­tenu peut être blo­qué. On garde notre lib­erté de ton et de con­tenu pour la revue ». En réponse, Face­book apporterait deux expli­ca­tions dif­férentes : celle d’une erreur ou bien la plate­forme recon­naît que ces pub­li­ca­tions n’ont rien de déplacé, mais il faut les sup­primer, car cela ne coïn­cide pas avec les algorithmes.

Pour la revue, le prob­lème devient aus­si économique : « si on ne com­mu­nique pas, il y aura des réper­cus­sions sur le nom­bre de ventes ». C’est tout un tas de sanc­tions que subit Gaze assure Clarence : du con­tenu qui saute, des per­son­nes qui reparta­gent, les pub­li­ca­tions per­dent de la vis­i­bil­ité, des fonc­tion­nal­ités qui dis­parais­sent. Lors du lance­ment de son pre­mier numéro, Gaze a organ­isé un live sur Insta­gram et Face­book. « C’était durant le pre­mier con­fine­ment, nous n’avions pas vrai­ment d’autres choix, mais nous voulions faire quelque chose de qual­ité. Deux jours avant, on fait des essais et l’on décou­vre que l’accès à la fonc­tion­nal­ité live était coupé. Des sit­u­a­tions ubuesques et des anec­dotes comme celle-ci j’en ai mal­heureuse­ment beau­coup en stock »

 

 

Ligne édi­to­ri­ale, réper­cus­sions économiques, Clarence Edgard-Rosa souligne aus­si la ques­tion poli­tique. « C’est un prob­lème de vision. Je ne sais même pas com­ment on a atteint 30 000 abonné·es sur Insta­gram avec tous ces obsta­cles ». Elle entend le fait que l’on puisse être lim­ité sur une plate­forme ouverte à toutes et tous, mais « par exem­ple, nous avons dû couper un por­trait dans notre pre­mier numéro, cela devient de l’autocensure. C’est un souci en par­ti­c­uli­er pour les artistes à qui nous faisons beau­coup appel. Finale­ment, la cen­sure accom­pa­gne notre démarche et notre engage­ment ».

La non-réponse de Facebook

À la suite de ces témoignages, nous avons con­tac­té Meta. Nous avons reçu cette réponse par mail : « Mal­heureuse­ment, nous n’avons actuelle­ment pas de porte-parole ou d’éléments autres que ceux pub­liés à vous partager sur ce sujet spé­ci­fique ». Edouard Braud, le respon­s­able des parte­nar­i­ats médias pour Méta en France, n’a pas souhaité répon­dre à nos ques­tions sans l’aval de sa direc­tion. Le géant entend con­naître les prob­lé­ma­tiques de ces comptes vic­times de blocages de con­tenus. Pour cela, Meta a notam­ment sol­lic­ité des ONG qui défend­ent des caus­es publiques. Ces organ­i­sa­tions sont aus­si amenées à pub­li­er du con­tenu qui a pour but de sen­si­bilis­er le pub­lic à des sujets comme la sex­u­al­ité ou la drogue, com­pa­ra­bles à celles des médias cités plus hauts. Pour­tant, ce con­tenu aus­si peut être blo­qué par l’al­go­rithme. En cause tou­jours, des images ou des mots qui ne peu­vent pas être util­isés. En 2020, soucieux ou par sim­ple com­mu­ni­ca­tion poli­tique, Meta a con­tac­té ces ONG. Le but : leur partager les bonnes pra­tiques afin de ne pas être blo­qués par Face­book et les autres plate­formes. Selon une source qui a assisté à l’une de ces ren­con­tres en visio­con­férence, « il s’agis­sait de sortes de for­ma­tions sur ce que l’on pou­vait pub­li­er ou non. Depuis, aucune réponse con­crète n’a été apportée au blocage de con­tenus visant à sen­si­bilis­er le pub­lic. Et c’est comme cela que des cam­pagnes entières de sen­si­bil­i­sa­tion ont été freinées ».

La fatigue et des solutions

« J’ai choisi la puni­tion, je ne veux pas faire du poli­tique­ment cor­rect, j’ai donc fait le deuil de la vis­i­bil­ité », con­fie Elvire Duvelle-Charles. Depuis un an, elle est présente sur la plate­forme Patre­on sur laque­lle elle partage les couliss­es de son éman­ci­pa­tion d’Instagram, des con­tenus bonus, « mais surtout il y a de la bien­veil­lance et de l’adhésion. J’ai 200 abonné·es. À présent, je mets un point d’honneur à ren­con­tr­er ma com­mu­nauté hors ligne, à dis­cuter avec elle et à organ­is­er des ren­con­tres ». Sans pour autant délaiss­er Insta­gram où elle con­tin­ue de poster du con­tenu informatif.

Comme Elvire, d’autres créateur·ices de con­tenus et de médias se lassent de la cadence et des vio­lences en ligne. Des alter­na­tives se dévelop­pent de plus en plus sur Dis­cord, Patre­on, Telegram ou encore dans la créa­tion d’une newslet­ter. « La ques­tion est aus­si finan­cière. Lorsque l’on fait des parte­nar­i­ats rémunérés sur Insta­gram, il faut savoir appréhen­der ce change­ment grâce à la diver­si­fi­ca­tion ». Et cela, elle l’entreprend à tra­vers le doc­u­men­taire Clit Révo­lu­tion sur Francetv Slash, la sor­tie de son livre et le pod­cast Hot Line pro­duit par Nou­velles Écoutes. « On trou­ve des alter­na­tives, je veux main­tenant met­tre ma vis­i­bil­ité au ser­vice des autres ».

De son côté, la Revue Far Ouest a choisi de faire une pause sur les réseaux soci­aux. « En ce moment, nous réfléchissons à une nou­velle stratégie de notre présence sur les plate­formes et cela créer du débat au sein de l’équipe », avance Flo Laval. Pour le moment, le média se recen­tre sur la for­mule papi­er et sur la newslet­ter. En effet, la revue peut compter sur sa com­mu­nauté plus restreinte, mais engagée, avec qui l’équipe peut avoir un lien direct et des retours sur le tra­vail journalistique.

Loopsider, aller là où va le public

Cepen­dant, tous les médias ne sont pas en con­fronta­tion avec les plate­formes et cer­tains mis­ent même sur eux. C’est le cas de Loop­sider qui, dès son lance­ment en 2018, a par­ié sur une vis­i­bil­ité 100% réseaux soci­aux et qui compte 2 mil­lions d’abonné·es sur sa page Face­book. Lancé notam­ment par Johan Huf­nagel avec qua­tre autres associé·es, le média entend aller là où va le pub­lic sur des sujets qui par­lent aux jeunes. « Notre mod­èle repose sur les réseaux soci­aux et du brand con­tent », explique Harold Grand, chef d’édition à Loop­sider.

Le média revendique qu’il n’y a pas de lien entre la plate­forme et la ligne édi­to­ri­ale. « On cherche à racon­ter de nou­veaux réc­its dans des vidéos cour­tes de 3 min et sur Face­book on peut moné­tis­er avec des vidéos de cette durée ». Con­stru­ire son mod­èle de média sur une plate­forme c’est aus­si con­stru­ire son audi­ence selon les algo­rithmes de Face­book. Mais alors, com­ment savoir si une vidéo va fonc­tion­ner ou non ? « Une fois pub­liée, on ne sait pas si une vidéo va fonc­tion­ner. Par exem­ple, un témoignage face caméra ou l’at­ter­ris­sage spec­tac­u­laire d’un avion ont car­ton­né. À l’in­verse, quand on se dit que tel sujet va trou­ver l’audience, cela peut ne pas être le cas et par­fois on a des sur­pris­es », pour­suit Harold Grand.

 

Loop­sider, égale­ment aux manettes de Peri­od, a lancé il y a quelques semaines une série sur l’éducation, l’artisanat et le loge­ment. Des sujets qui par­lent à leur audi­ence puisque « le pub­lic est au ren­dez-vous ». Con­traire­ment aux précé­dents témoignages, Loop­sider n’a con­nu que très peu de blocages de leurs con­tenus. « Ça peut arriv­er et dans ces cas-là on ne com­prend pas pourquoi. On ne met jamais de nudité ou de con­tenus vio­lents donc nous n’avons pas voca­tion à être blo­qués. Pour les images vio­lentes, on floute ce qui doit l’être et on met un badge de préven­tion ». Comme il n’y a pas d’abonné·es au sens pro­pre du terme, le média béné­fi­cie d’une équipe dédiée qui tra­vaille sur l’audience. Elle est chargée de regarder les chiffres des vidéos image par image, sec­onde par sec­onde. « Dans tous les cas, un média qui mise sur les réseaux soci­aux est en per­pétuel mou­ve­ment, nous devons tester de nou­velles choses. Actuelle­ment, nous essayons des for­mats sur Tik­Tok ».

Tik­Tok devient le nou­veau ter­rain de jeu des médias qui ten­tent de séduire les plus jeunes, que 7% des moins de 35 ans utilisent pour s’in­former (selon le Dig­i­tal News Reports 2021). Mais tout comme Meta, le réseau social est accusé de blo­quer cer­tains con­tenus LBGT ou  ceux com­por­tant le hash­tag Black Lives Mat­ter. Un cer­cle vicieux des réseaux soci­aux que com­bat­tent des médias engagés.

NDLR : Médi­anes, le stu­dioa col­laboré avec la Revue Far Ouest pour l’or­gan­i­sa­tion du Fes­ti­val Imprimé et les accom­pa­gne dans leur posi­tion­nement stratégique.

________________________________________________________________

Aller plus loin :

Vous pouvez réutiliser cet article

Tous nos contenus sont publiés sous licence Creative Commons (CC BY-NC-SA 3.0 FR), ce qui signifie que vous êtes libre de les réutiliser et les adapter, à la condition de ne pas en avoir une utilisation commerciale, de citer le contenu original et d'ajouter un lien vers celui-ci.

À propos de Médianes

Médianes est un centre de ressources à but non lucratif dédié aux médias, à celles et ceux qui les fondent, et à celles et ceux qui les font. Nous proposons gratuitement des articles et des ressources dédiés aux médias, de la création à la gestion quotidienne. Nous accompagnons également, via notre studio, de nombreux médias en France et en Europe dans le développement de leurs projets.

Découvrir Médianes, le studio

À lire aussi

Dévoiler ses coulisses

Les médias sont des projets entrepreneuriaux qui ont parfois du mal à communiquer sur eux-mêmes. Pourtant, c'est un sujet d'intérêt général et un levier marketing important. Booska-P, Les Jours ou encore Gimlet dévoilent leurs coulisses, et cette formule fonctionne.  ...