Mettez-vous hors ligne avec l'application Player FM !
Gaza sur les réseaux sociaux, de l’image artificielle sur de réelles atrocités
Manage episode 459083741 series 2479113
De plus en plus simples et performants, les modèles de synthèse d'image permettent la diffusion massive de contenus artificiels, relayés comme tels mais pas seulement. Ils participent aussi à la confusion dans des conflits difficiles à couvrir pour les journalistes, menacés dans l’exercice de leur métier. À côté des véritables clichés témoignant des atrocités commises à Gaza, l’IA vient perturber la perception de la réalité factuelle.
L’image suscite l’indignation. Elle montre - au premier plan - un homme âgé sous perfusion, pieds et torse nus, debout au milieu des gravas, avec - à l'arrière-plan - un char de combat se détachant sur fond de bâtiments détruits un peu flous. Les comptes qui partagent cette image sur plusieurs réseaux sociaux, Instagram, Facebook et X indiquent qu’il s’agit d’un vieillard sorti de force par les soldats israéliens lors de l’assaut mené il y a une semaine tout juste contre l’hôpital Kamal Adwan, dernier grand hôpital du nord de Gaza. Relayée dès lundi par une influenceuse et activiste pro-palestinienne suivie par plus de 300 000 comptes sur X, le cliché suscite de nombreuses réactions contre une opération militaire israélienne qui a brutalement mis hors d’état de fonctionner l’un des derniers hôpitaux de Gaza. Pourtant, cette image censée représenter une situation réelle, ne l’est pas.
Création numérique trompeuse
Une recherche d’image inversée permet de retrouver la première occurrence de cette image. Elle provient du compte Instagram d’un militant pro-palestinien, qui se présente comme un artiste de design numérique. Il ne s’en cache pas, ses images portent toutes la même signature, mentionnant une création d’art visuel. On découvre d’ailleurs une autre version de la scène. Le vieil homme est vu de dos, toujours devant le même char. Sur le bitume devant lui sont peints en rouge les mots « Dirty World » et la photo est barrée d’un slogan : « forced extermination », on voit aussi la signature du concepteur de l’image, en haut à droite et en bas à gauche. Il ne s’agit donc pas d’une photo à proprement parler. L’homme que l’on voit n’existe pas, c’est une composition numérique avec des éléments de décor fictifs. Le char est placé là, comme un élément du décor. Mais nombre de publications ont relayé cette image d’un réseau social à l’autre, en réduisant le cadre et du coup, en escamotant la signature. De toute façon, avec ou sans logo, en lisant les commentaires, on s’aperçoit que beaucoup d’internautes pensent avoir affaire à une image authentique, alors qu’il n’en est rien.
Altération du réel
Le concepteur de l’image publie sur Instagram un résumé de la situation plutôt factuel sans dire que l’illustration choisie, elle, ne l’est pas. L’intention vise manifestement à alerter l’opinion, à la suite de ce raid de l’armée israélienne qui a bel et bien eu lieu et qui a abouti à ce que les patients de l’hôpital - certains dans un état critique - soient sortis du bâtiment sous la contrainte.
Or, à part quelques images du personnel soignant et du docteur Abou Safiya arrêtés par l’armée israélienne, on n’a quasiment pas vu ce qui était advenu des patients. À l'exception d’une vidéo diffusée sur la chaîne de télévision Al Jazeera, montrant des femmes et des enfants assis dans des ambulances lors de leur transfert vers l’hôpital indonésien. Leur situation est réellement dramatique, car le système de santé à Gaza est véritablement en ruine, mais l’image du vieil homme à la perfusion, seul face à un char ne rend pas compte de la situation réelle.
À lire aussiGuerre Israël-Gaza: «Un système sanitaire anéanti», la santé des Gazaouis en péril
Quand l’image artificielle sert la propagande israélienne
Le paradoxe, c’est qu’en publiant et en relayant des images non authentiques même lorsqu’elles témoignent d’une réalité, on favorise la mise en doute des véritables photos, qui - elles - sont prises dans des conditions extrêmement difficiles. L’image du vieillard à la perfusion n’a pas circulé de façon virale. Elle a vite été retirée de X par l’influenceuse qui avait contribué dans un premier temps à sa diffusion. Mais d’autres internautes s’en sont emparés. Dont un militant pro-israélien, profitant de l’occasion pour alimenter le doute sur le sort des gazaouis. Immanquablement, sur les réseaux sociaux, la création échappe vite à son créateur. Le factuel relégué au second plan, la désinformation s’insinue.
La nécessité de « documenter » le conflit
La manœuvre éclipse une autre réalité de ce conflit. À Gaza, les journalistes sont empêchés de travailler, victimes des bombardements quand ils ne sont pas volontairement ciblés et interdits sur le terrain. Cette difficulté ne justifie pas cependant l’emploi de fausses images dans la mesure où de nombreux clichés authentiques permettent, eux, de témoigner des souffrances de populations soumises aux bombardements intensifs, au froid, au manque d’eau, de nourriture et de médicaments. L’image créée à l’aide de modèles de synthèse ou IA génératives, en créant la suspicion ne fait que brouiller l’information.
Un modèle économique pour les plateformes
Or, cette pratique est en constante augmentation. Elle profite aux influenceurs - raison pour laquelle nous ne relayons pas ici le contenu en question - et aux plateformes. Pour Meta, TikTok, X et les autres, c’est la prime au contenu artificiel. La maison mère de Facebook et Instagram envisage pour sa part de pousser à la création de profils générés par l’IA et de contenus tout aussi artificiels, afin de rajeunir son audience. Les plateformes rivalisent d’ingéniosité pour produire leurs propres modèles d’IA générative et capter le maximum d’attention sur leurs réseaux. Ces mêmes acteurs du numérique ne déploient pas le même zèle pour permettre aux internautes de faire la part du vrai et du faux. Il va falloir redoubler d’attention contre les manipulations de l’information.
155 episodes
Manage episode 459083741 series 2479113
De plus en plus simples et performants, les modèles de synthèse d'image permettent la diffusion massive de contenus artificiels, relayés comme tels mais pas seulement. Ils participent aussi à la confusion dans des conflits difficiles à couvrir pour les journalistes, menacés dans l’exercice de leur métier. À côté des véritables clichés témoignant des atrocités commises à Gaza, l’IA vient perturber la perception de la réalité factuelle.
L’image suscite l’indignation. Elle montre - au premier plan - un homme âgé sous perfusion, pieds et torse nus, debout au milieu des gravas, avec - à l'arrière-plan - un char de combat se détachant sur fond de bâtiments détruits un peu flous. Les comptes qui partagent cette image sur plusieurs réseaux sociaux, Instagram, Facebook et X indiquent qu’il s’agit d’un vieillard sorti de force par les soldats israéliens lors de l’assaut mené il y a une semaine tout juste contre l’hôpital Kamal Adwan, dernier grand hôpital du nord de Gaza. Relayée dès lundi par une influenceuse et activiste pro-palestinienne suivie par plus de 300 000 comptes sur X, le cliché suscite de nombreuses réactions contre une opération militaire israélienne qui a brutalement mis hors d’état de fonctionner l’un des derniers hôpitaux de Gaza. Pourtant, cette image censée représenter une situation réelle, ne l’est pas.
Création numérique trompeuse
Une recherche d’image inversée permet de retrouver la première occurrence de cette image. Elle provient du compte Instagram d’un militant pro-palestinien, qui se présente comme un artiste de design numérique. Il ne s’en cache pas, ses images portent toutes la même signature, mentionnant une création d’art visuel. On découvre d’ailleurs une autre version de la scène. Le vieil homme est vu de dos, toujours devant le même char. Sur le bitume devant lui sont peints en rouge les mots « Dirty World » et la photo est barrée d’un slogan : « forced extermination », on voit aussi la signature du concepteur de l’image, en haut à droite et en bas à gauche. Il ne s’agit donc pas d’une photo à proprement parler. L’homme que l’on voit n’existe pas, c’est une composition numérique avec des éléments de décor fictifs. Le char est placé là, comme un élément du décor. Mais nombre de publications ont relayé cette image d’un réseau social à l’autre, en réduisant le cadre et du coup, en escamotant la signature. De toute façon, avec ou sans logo, en lisant les commentaires, on s’aperçoit que beaucoup d’internautes pensent avoir affaire à une image authentique, alors qu’il n’en est rien.
Altération du réel
Le concepteur de l’image publie sur Instagram un résumé de la situation plutôt factuel sans dire que l’illustration choisie, elle, ne l’est pas. L’intention vise manifestement à alerter l’opinion, à la suite de ce raid de l’armée israélienne qui a bel et bien eu lieu et qui a abouti à ce que les patients de l’hôpital - certains dans un état critique - soient sortis du bâtiment sous la contrainte.
Or, à part quelques images du personnel soignant et du docteur Abou Safiya arrêtés par l’armée israélienne, on n’a quasiment pas vu ce qui était advenu des patients. À l'exception d’une vidéo diffusée sur la chaîne de télévision Al Jazeera, montrant des femmes et des enfants assis dans des ambulances lors de leur transfert vers l’hôpital indonésien. Leur situation est réellement dramatique, car le système de santé à Gaza est véritablement en ruine, mais l’image du vieil homme à la perfusion, seul face à un char ne rend pas compte de la situation réelle.
À lire aussiGuerre Israël-Gaza: «Un système sanitaire anéanti», la santé des Gazaouis en péril
Quand l’image artificielle sert la propagande israélienne
Le paradoxe, c’est qu’en publiant et en relayant des images non authentiques même lorsqu’elles témoignent d’une réalité, on favorise la mise en doute des véritables photos, qui - elles - sont prises dans des conditions extrêmement difficiles. L’image du vieillard à la perfusion n’a pas circulé de façon virale. Elle a vite été retirée de X par l’influenceuse qui avait contribué dans un premier temps à sa diffusion. Mais d’autres internautes s’en sont emparés. Dont un militant pro-israélien, profitant de l’occasion pour alimenter le doute sur le sort des gazaouis. Immanquablement, sur les réseaux sociaux, la création échappe vite à son créateur. Le factuel relégué au second plan, la désinformation s’insinue.
La nécessité de « documenter » le conflit
La manœuvre éclipse une autre réalité de ce conflit. À Gaza, les journalistes sont empêchés de travailler, victimes des bombardements quand ils ne sont pas volontairement ciblés et interdits sur le terrain. Cette difficulté ne justifie pas cependant l’emploi de fausses images dans la mesure où de nombreux clichés authentiques permettent, eux, de témoigner des souffrances de populations soumises aux bombardements intensifs, au froid, au manque d’eau, de nourriture et de médicaments. L’image créée à l’aide de modèles de synthèse ou IA génératives, en créant la suspicion ne fait que brouiller l’information.
Un modèle économique pour les plateformes
Or, cette pratique est en constante augmentation. Elle profite aux influenceurs - raison pour laquelle nous ne relayons pas ici le contenu en question - et aux plateformes. Pour Meta, TikTok, X et les autres, c’est la prime au contenu artificiel. La maison mère de Facebook et Instagram envisage pour sa part de pousser à la création de profils générés par l’IA et de contenus tout aussi artificiels, afin de rajeunir son audience. Les plateformes rivalisent d’ingéniosité pour produire leurs propres modèles d’IA générative et capter le maximum d’attention sur leurs réseaux. Ces mêmes acteurs du numérique ne déploient pas le même zèle pour permettre aux internautes de faire la part du vrai et du faux. Il va falloir redoubler d’attention contre les manipulations de l’information.
155 episodes
Tous les épisodes
×Bienvenue sur Lecteur FM!
Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.