Artwork

Contenu fourni par Le Média. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Le Média ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Persécution des Rohingyas : Facebook sur le banc des accusés

8:26
 
Partager
 

Manage episode 342782033 series 2657752
Contenu fourni par Le Média. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Le Média ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Amnesty International publie aujourd’hui le Rapport Myanmar. Un rapport qui dénonce le rôle de Meta (entreprise qui détient Facebook) dans la persécution de la communauté des Rohingyas.

Un simple algorithme a fait basculer dans l’horreur toute une communauté. Au Myanmar, les Rohingyas subissent depuis de nombreuses années une campagne de discrimination des plus violentes. Cette dernière se traduit en grande partie sur les réseaux sociaux et plus précisément Facebook.

Alors que les publications discriminatoires ou prônant des appels à la haine se multiplient sur le réseau social, l'algorithme ne fait rien pour les masquer, bien au contraire. Il privilégie les publications qui génèrent du clic, de l’audience, et ce sont les contenus violents qui gagnent la palme.

“La diffusion de contenus incendiaires – notamment de contenus qui incitent à la haine ou constituent une incitation à la violence, à l’hostilité et à la discrimination – représente un moyen très efficace de retenir les gens le plus longtemps possible sur la plateforme. Ainsi, la promotion et l’amplification de ce type de contenu sont essentielles pour le modèle économique de Facebook qui est basé sur la surveillance.” explique Amnesty International dans sa synthèse du rapport.

Suite à ce constat, la Mission internationale indépendante d’établissement des faits sur le Myanmar (ONU) ne pouvait que confirmer le rôle de Meta dans la réalisation de la commission d’atrocités envers la communauté Rohingyas.

L’indignation ne s'arrête pas là. “Des études internes datant de 2012 indiquent pourtant que Meta savait que ses algorithmes pouvaient engendrer de graves dommages dans le monde réel. En 2016, les propres recherches de Meta l’ont amenée à reconnaître clairement que « [ses] systèmes de recommandation ont accru le problème » de l’extrémisme” relate le rapport d’Amnesty International.

Aujourd’hui, les Rohingyas demandent réparation à Facebook pour son implication dans ce nettoyage ethnique de masse.
▶ Soutenez Le Média :

👉 https://soutenez.lemediatv.fr/

👉 https://www.okpal.com/le-media/#/

✅ Suivez-nous :

Facebook

Twitter

Youtube

Instagram

  continue reading

1134 episodes

Artwork
iconPartager
 
Manage episode 342782033 series 2657752
Contenu fourni par Le Média. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Le Média ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Amnesty International publie aujourd’hui le Rapport Myanmar. Un rapport qui dénonce le rôle de Meta (entreprise qui détient Facebook) dans la persécution de la communauté des Rohingyas.

Un simple algorithme a fait basculer dans l’horreur toute une communauté. Au Myanmar, les Rohingyas subissent depuis de nombreuses années une campagne de discrimination des plus violentes. Cette dernière se traduit en grande partie sur les réseaux sociaux et plus précisément Facebook.

Alors que les publications discriminatoires ou prônant des appels à la haine se multiplient sur le réseau social, l'algorithme ne fait rien pour les masquer, bien au contraire. Il privilégie les publications qui génèrent du clic, de l’audience, et ce sont les contenus violents qui gagnent la palme.

“La diffusion de contenus incendiaires – notamment de contenus qui incitent à la haine ou constituent une incitation à la violence, à l’hostilité et à la discrimination – représente un moyen très efficace de retenir les gens le plus longtemps possible sur la plateforme. Ainsi, la promotion et l’amplification de ce type de contenu sont essentielles pour le modèle économique de Facebook qui est basé sur la surveillance.” explique Amnesty International dans sa synthèse du rapport.

Suite à ce constat, la Mission internationale indépendante d’établissement des faits sur le Myanmar (ONU) ne pouvait que confirmer le rôle de Meta dans la réalisation de la commission d’atrocités envers la communauté Rohingyas.

L’indignation ne s'arrête pas là. “Des études internes datant de 2012 indiquent pourtant que Meta savait que ses algorithmes pouvaient engendrer de graves dommages dans le monde réel. En 2016, les propres recherches de Meta l’ont amenée à reconnaître clairement que « [ses] systèmes de recommandation ont accru le problème » de l’extrémisme” relate le rapport d’Amnesty International.

Aujourd’hui, les Rohingyas demandent réparation à Facebook pour son implication dans ce nettoyage ethnique de masse.
▶ Soutenez Le Média :

👉 https://soutenez.lemediatv.fr/

👉 https://www.okpal.com/le-media/#/

✅ Suivez-nous :

Facebook

Twitter

Youtube

Instagram

  continue reading

1134 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide