Artwork

Contenu fourni par Peder Iblher. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Peder Iblher ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Freedom of Reach – Ein Blick in den Maschinenraum der Social Media

50:42
 
Partager
 

Manage episode 366314382 series 3484944
Contenu fourni par Peder Iblher. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Peder Iblher ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

TRAP 1

Meinungsfreiheit ist kein Recht auf Reichweite. Was wir in den Social Media zu sehen bekommen, entscheiden Algorithmen – und wer über diese entscheidet, hat viel Macht. Peder Iblher will es genauer wissen und spricht darüber mit Dr. Martin Degeling von der Stiftung Neue Verantwortung.

Shownotes

Zwei eigene Beiträge, auf die ich mich beziehe:

• Meine Ausgangsthesen zum TRAP (The Recommendation Algorithm Project)

Betreutes Denken vs. Desinformation – Über die Zukunft der Meinungsfreiheit

Erwähnt wurde auch:

• das Projekt Open Schufa von AlgorithmWatch und der Open Knowledge Foundation

Hinweise von Martin Degeling:

• Zum Polarisierungsproblem: Eine der aktuellsten Studien hat gezeigt, dass es nicht unbedingt ein systhematisches Problem ist, dass man unbedingt auf den Algorithmus zurückführen kann. Die Autor:innen haben eine Radikalisierung vor allem für „right leaning“ accounts gefunden, aber nicht für zentristische oder „linke“.
arxiv.org/abs/2203.10666

• Luke Thorburn schreibt z.B. hier.

• Banks et al., 2020: “#PolarizedFeeds: Three Experiments on Polarization, Framing, and Social Media

• Cho et al., 2020: “Do Search Algorithms Endanger Democracy? An Experimental Investigation of Algorithm Effects on Political Polarization

• Del Vicario et al., 2016: “Echo Chambers: Emotional Contagion and Group Polarization on Facebook

• Ansätze zu Bridge- (also quasi „verbindenden statt skandalisierenden“) Algorithmen:
Das Feld ist noch neu, eine Veröffentlich war da letztens diese hier:
Aviv Ovadya: “Bridging-Based Ranking

• Hier eine Analyse, die anhand bestehender Twitter-Diskussionen zeigt, dass es selten funktioniert wenn man sich widersprechende Positionen einfach zusammensetzt:
David Gunnarsson Lorentzen: “Bridging polarised Twitter discussions: the interactions of the users in the middle

• Zu den im EU-Digital Services Act vertretenen Werten:
Jonathan Stray et al.: “Building Human Values into Recommenderer Systems: An Interdisciplinary Synthesis

• Ein Podcast auf englisch von Experten zum Thema Empfehlungsalgorithmen:
recsperts.com

//

  continue reading

5 episodes

Artwork
iconPartager
 
Manage episode 366314382 series 3484944
Contenu fourni par Peder Iblher. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Peder Iblher ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

TRAP 1

Meinungsfreiheit ist kein Recht auf Reichweite. Was wir in den Social Media zu sehen bekommen, entscheiden Algorithmen – und wer über diese entscheidet, hat viel Macht. Peder Iblher will es genauer wissen und spricht darüber mit Dr. Martin Degeling von der Stiftung Neue Verantwortung.

Shownotes

Zwei eigene Beiträge, auf die ich mich beziehe:

• Meine Ausgangsthesen zum TRAP (The Recommendation Algorithm Project)

Betreutes Denken vs. Desinformation – Über die Zukunft der Meinungsfreiheit

Erwähnt wurde auch:

• das Projekt Open Schufa von AlgorithmWatch und der Open Knowledge Foundation

Hinweise von Martin Degeling:

• Zum Polarisierungsproblem: Eine der aktuellsten Studien hat gezeigt, dass es nicht unbedingt ein systhematisches Problem ist, dass man unbedingt auf den Algorithmus zurückführen kann. Die Autor:innen haben eine Radikalisierung vor allem für „right leaning“ accounts gefunden, aber nicht für zentristische oder „linke“.
arxiv.org/abs/2203.10666

• Luke Thorburn schreibt z.B. hier.

• Banks et al., 2020: “#PolarizedFeeds: Three Experiments on Polarization, Framing, and Social Media

• Cho et al., 2020: “Do Search Algorithms Endanger Democracy? An Experimental Investigation of Algorithm Effects on Political Polarization

• Del Vicario et al., 2016: “Echo Chambers: Emotional Contagion and Group Polarization on Facebook

• Ansätze zu Bridge- (also quasi „verbindenden statt skandalisierenden“) Algorithmen:
Das Feld ist noch neu, eine Veröffentlich war da letztens diese hier:
Aviv Ovadya: “Bridging-Based Ranking

• Hier eine Analyse, die anhand bestehender Twitter-Diskussionen zeigt, dass es selten funktioniert wenn man sich widersprechende Positionen einfach zusammensetzt:
David Gunnarsson Lorentzen: “Bridging polarised Twitter discussions: the interactions of the users in the middle

• Zu den im EU-Digital Services Act vertretenen Werten:
Jonathan Stray et al.: “Building Human Values into Recommenderer Systems: An Interdisciplinary Synthesis

• Ein Podcast auf englisch von Experten zum Thema Empfehlungsalgorithmen:
recsperts.com

//

  continue reading

5 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide

Écoutez cette émission pendant que vous explorez
Lire