digital human rights podcast

Peder Iblher

Hier geht es um digi­tale Menschen­rechte, Netz­politik, Privacy und die offene Gesell­schaft. Peder Iblher ist Referent für digitale Grundrechte bei der humanistischen Giordano-Bruno-Stiftung, Seit 2016 diskutiert und begleitet er digitale gesellschaftliche Entwicklungen beim Humanistischen Pressedienst (hpd.de), in Blogbeiträgen (digitalhumanrights.blog), Workshops, Konferenzen, Aktionen oder Vorträgen. Kontakt: iblher@giordano-bruno-stiftung.de read less
Gesellschaft & KulturGesellschaft & Kultur
NachrichtenNachrichten
BildungBildung
TechniknachrichtenTechniknachrichten

Folgen

Freedom of Reach – Ein Blick in den Maschinenraum der Social Media
01-02-2023
Freedom of Reach – Ein Blick in den Maschinenraum der Social Media
TRAP 1 Meinungsfreiheit ist kein Recht auf Reichweite. Was wir in den Social Media zu sehen bekommen, entscheiden Algorithmen – und wer über diese entscheidet, hat viel Macht. Peder Iblher will es genauer wissen und spricht darüber mit Dr. Martin Degeling von der Stiftung Neue Verantwortung. Shownotes Zwei eigene Beiträge, auf die ich mich beziehe: • Meine Ausgangsthesen zum TRAP (The Recommendation Algorithm Project) • Betreutes Denken vs. Desinformation – Über die Zukunft der Meinungsfreiheit Erwähnt wurde auch: • das Projekt Open Schufa von AlgorithmWatch und der Open Knowledge Foundation Hinweise von Martin Degeling: • Zum Polarisierungsproblem: Eine der aktuellsten Studien hat gezeigt, dass es nicht unbedingt ein systhematisches Problem ist, dass man unbedingt auf den Algorithmus zurückführen kann. Die Autor:innen haben eine Radikalisierung vor allem für „right leaning“ accounts gefunden, aber nicht für zentristische oder „linke“. arxiv.org/abs/2203.10666 • Luke Thorburn schreibt z.B. hier. • Banks et al., 2020: “#PolarizedFeeds: Three Experiments on Polarization, Framing, and Social Media” • Cho et al., 2020: “Do Search Algorithms Endanger Democracy? An Experimental Investigation of Algorithm Effects on Political Polarization“ • Del Vicario et al., 2016: “Echo Chambers: Emotional Contagion and Group Polarization on Facebook” • Ansätze zu Bridge- (also quasi „verbindenden statt skandalisierenden“) Algorithmen: Das Feld ist noch neu, eine Veröffentlich war da letztens diese hier: Aviv Ovadya: “Bridging-Based Ranking” • Hier eine Analyse, die anhand bestehender Twitter-Diskussionen zeigt, dass es selten funktioniert wenn man sich widersprechende Positionen einfach zusammensetzt: David Gunnarsson Lorentzen: “Bridging polarised Twitter discussions: the interactions of the users in the middle” • Zu den im EU-Digital Services Act vertretenen Werten: Jonathan Stray et al.: “Building Human Values into Recommenderer Systems: An Interdisciplinary Synthesis” • Ein Podcast auf englisch von Experten zum Thema Empfehlungsalgorithmen: recsperts.com //
Social Credit Score – wie real ist unser Alptraum vom chinesischen Allmachts-Algorithmus?
16-01-2023
Social Credit Score – wie real ist unser Alptraum vom chinesischen Allmachts-Algorithmus?
TRAP 2 Ein Podcast mit Marianne von Blomberg, wissenschaftliche Mitarbeiterin am Lehrstuhl für Chinesische Rechtskultur an der Uni zu Köln und Peder Iblher. Unter dem Schlagwort „Social Credit Score“ / Sozialkredit-System werden Konzepte besprochen, das Verhalten von Bürgerinnen und Bürgern einer ganzheitlichen Bewertung zu unterziehen. Über Belohnungen und Benachteiligungen könnte man damit das Verhalten von Menschen steuern — zum Beispiel konform zu einer staatlichen Agenda oder Ideologie. Ein Social Credit Score wäre also ein gefährlicher Empfehlungsalgorithmus, weil er auf der Basis von Überwachung Menschen empfiehlt – für Positionen und Privilegien — oder für den Entzug von Privilegien. Ein solches Modell sollte laut verschiedener westlicher Berichte ab dem Jahr 2020 in der Volksrepublik China landesweit ausgerollt werden. Ausgerechnet in einem Land, das bei uns nicht ohne Grund als Prototyp eines totalitären Überwachungsstaates gilt. Ein solcher Allmachts-Algorithmus wäre ein dystopischer Alptraum und ein geradezu exmplarisches Gegenstück zu unserem europäischen Ideal der informationellen Selbstbestimmung. Was ist also daraus geworden? Das frage ich in diesem Exkurs zum Thema Empfehlungsalgorithmen eine Expertin für Chinesische Rechtswissenschaft, die dazu forscht: Marianne von Blomberg von der Uni zu Köln. Weiterführende Links: • Vincent Brussee, (2022) Mercator Institute for China Studies: China’s social credit score – untangling myth from reality • Yuan Ye (2012), Sixth Tone: A Professor, a Zoo, and the Future of Facial Recognition in China (sixthtone.com) • Columbia Journal of Transnational Law (2022): The Personal Information Protection Law: China’s Version of the GDPR? — Columbia Journal of Transnational Law  • Genia Kostka (2019), Sage Journals: China’s social credit systems and public opinion: Explaining high levels of approval • Chuncheng Liu (2022), Sage Journals: Who supports expanding surveillance? Exploring public opinion of Chinese social credit systems • chinalawtranslate.com Erwähnt wurden außerdem: Eine Infografik zum Social Credit Score der Bertelsmann-Stiftung Der besprochene Wikipedia-Eintrag //