De la Syrie au Yémen, du Burkina Faso et du Myanmar au Mali et aux États-Unis, les conflits ont migré vers les espaces en ligne. Consciente de ce changement important, Helena Puig Larrauri, artisane de la paix et boursière d'Ashoka, a cofondé Build Up pour transformer la façon dont nous abordons les conflits à l'ère numérique.
Konstanze Frischen d'Ashoka a exploré de nouvelles idées avec Helena sur la manière de mesurer et de réduire la quantité de contenu viral polarisant diffusé sur les plateformes de médias sociaux (c'est-à-dire leur « empreinte de polarisation ») – un défi persistant pour les bâtisseurs de paix en particulier. Vous pouvez regarder la conversation complète ici . Voici quelques-uns des faits saillants :
La technologie pour la paix et les conflits numériques
En collaboration avec des ONG, des agences des Nations Unies, des dirigeants communautaires et des organisations multilatérales, Build Up développe des solutions technologiques innovantes aux conflits. Cela signifie utiliser la technologie pour, par exemple, accroître la participation des citoyens dans le contexte des processus de consolidation de la paix, rendant ainsi les résultats plus optimaux et plus durables. Cela implique également d’examiner la manière dont les technologies numériques exacerbent les conflits. Helena illustre cela avec quelques exemples.
Pourquoi la modération du contenu n'aide pas beaucoup
Au fil des années, lutter contre la croissance exponentielle des contenus viraux polarisants diffusés sur les réseaux sociaux est devenu un défi urgent pour les artisans de la paix. Helena prend soin de distinguer les divergences d'opinions, essentielles à toute démocratie, et la montée d'une polarisation identitaire, que l'équipe Build Up qualifie de « polarisation affective ».
La polarisation affective exacerbe les conflits hors ligne et est connue pour affecter les processus électoraux et de paix. C'est pourquoi Helena et son équipe s'efforcent de plus en plus de trouver des moyens de la réduire. Voici pourquoi la modération du contenu est appropriée pour lutter contre les discours de haine, mais ce n'est pas la solution sur laquelle Build Up se concentre pour réduire la polarisation.
Comment maximiser l’engagement nous a conduits ici
Si la modération du contenu à elle seule n’est pas la solution, quelle pourrait être la solution ? Pour trouver des réponses, Helena dit que nous devons examiner le modèle économique sous-jacent des plateformes de médias sociaux. En un mot, l'engagement est la mesure clé du succès des algorithmes des médias sociaux, car c'est ce qui permet aux plateformes de nous cibler avec des publicités et d'extraire plus de données de notre part, deux éléments qui constituent leurs principales sources de revenus. Et il est largement reconnu que les contenus polarisants sont très engageants.
Mesurer et taxer l'empreinte de polarisation des plateformes de médias sociaux
Même si les plateformes de médias sociaux ne cherchent pas à polluer nos vies par une polarisation en donnant la priorité aux clics avant tout, c’est l’une des conséquences négatives de leur modèle économique. Et si nous étions capables de mesurer la quantité de contenus viraux polarisants diffusés sur les réseaux sociaux – c’est-à-dire leur empreinte de polarisation – et d’exiger une compensation pour les dommages qu’ils produisent ? Imaginez une taxe sur la polarisation , semblable à une taxe carbone. En mettant un prix sur la polarisation, cela inciterait enfin les entreprises à nettoyer la pollution des données qu’elles produisent.
Concevoir de meilleurs algorithmes de médias sociaux
N'oublions pas que l'optimisation de l'engagement n'est qu'un modèle économique possible. Les plateformes pourraient concevoir des algorithmes qui optimisent d’autres choses, comme l’amélioration du contenu qui comble les divisions ou désamorce les conflits . Mais Helena affirme que ces alternatives ne peuvent prendre de l’ampleur que si les plateformes sont incitées à modifier leur modèle économique. Et c’est là qu’une taxe sur la polarisation s’avère utile !
. . .
Cette conversation fait partie d'une collaboration dans le cadre des Tech & Humanity Impact Labs d'Ashoka, atténuant les méfaits sociétaux et environnementaux de l'économie des données.