Algorithmen entscheiden, welche Inhalte wir sehen
Dieser ambivalente Charakter der Plattformen macht deutlich, dass der Effekt von sozialen Medien stark davon abhängt, wie sie gestaltet und genutzt werden. Glaubwürdige Informationen und ein konstruktiver Austausch sind die Voraussetzungen für eine positive Wirkung, während antisoziales Verhalten und die algorithmisch gesteuerte Kuratierung emotional aufgeladener Inhalte die demokratischen Prozesse untergraben können. Ein zentraler Punkt, den sowohl Stieglitz als auch Baumann hervorheben, ist die Rolle von Algorithmen bei der Auswahl von Inhalten. Baumann fordert mehr Transparenz und Kontrolle über diese Technologien, denn „wie Inhalte geordnet und präsentiert werden, beeinflusst die Nutzererfahrung erheblich.“ Die gegenwärtige Plattformarchitektur begünstigt oft Inhalte, die die Nutzer involvieren und anregen, ohne dabei das individuelle Wohlbefinden ausreichend zu berücksichtigen. Umso wichtiger sind Medienkompetenz und der bewusste Umgang mit sozialen Diensten, um die positiven Effekte für den gesellschaftlichen Zusammenhalt zu maximieren und die negativen zu begrenzen.
In Deutschland hat die Einführung des Netzwerkdurchsetzungsgesetzes (NetzDG) 2017 soziale Netzwerke mit mehr als zwei Millionen registrierten Nutzern unter anderem dazu verpflichtet, offensichtlich rechtswidrige Inhalte nach einer Beschwerde zu entfernen und Maßnahmen zur Transparenz umzusetzen. Auch international gab es entsprechende Bewegungen, die sich inzwischen jedoch zum Teil wieder umgekehrt haben. „Früher war ich optimistischer, dass Plattformen mit Gewinnerzielungsabsichten verstehen, dass die Eindämmung negativer Entwicklungen, wie etwa Desinformation oder Hassrede, langfristig auch in ihrem Sinne ist. Inzwischen sind große Plattformen wie Facebook wieder umgeschwenkt. Das ist vergleichbar mit einer Art ‚Modeerscheinung‘, die ganz deutlich macht, dass es Regulierung von Seiten der Politik braucht“, betont Stieglitz. Tatsächlich lohnt es sich für die Unternehmen hinter den Social-Media-Plattformen ökonomisch betrachtet nicht, wenn sie beispielsweise in den Schutz junger Nutzender investieren. Die komplizierten, kostspieligen Maßnahmen wie „Meldefunktionen“, bestimmte Konten-Modelle für Minderjährige oder Transparenzberichte werden – wenn überhaupt – oft auf Grundlage von Gesetzen wie dem Digital Services Act oder dem AI Act der Europäischen Union umgesetzt.
Weder Fluch noch Segen
Stellen soziale Medien und digitale Technologie nun eine Bedrohung für das gesellschaftliche Miteinander in einer Demokratie dar – oder fördern sie es sogar? Diese Frage lässt sich kaum klar beantworten. Im Fazit von Prof. Dr. Stefan Stieglitz und Dr. Annika Baumann kommt beides zum Ausdruck. Das Zusammenspiel zwischen Technologie, menschlichem Verhalten und politischer Steuerung ist entscheidend für die Auswertung der Wirkung sozialer Medien auf die Demokratie. Baumann erläutert, dass Initiativen wie „nebenan.de“ oder Bewegungen wie die „MeToo“-Kampagne zeigen, wie soziale Plattformen gesellschaftliche Integration fördern können. Die Beispiele unterstreichen, dass diese nicht per se gut oder schlecht sind, sondern es darauf ankommt, wie und mit welcher Kompetenz sie genutzt werden. In den Netzwerken steckt erhebliches Potenzial für Teilhabe und sozialen Zusammenhalt, die ohne die richtigen Rahmenbedingungen jedoch auch Risiken für demokratische Prozesse mit sich bringen. Eine vernünftige Regulierung, das auch von Stieglitz geforderte Mitdenken ethisch-sozialer Grundsätze beim Plattformdesign sowie Angebote zur Förderung der Medienkompetenz der Nutzenden sind unumgängliche Maßnahmen, damit langfristig die positiven Effekten dieser Technologien überwiegen.
In einer Zeit, in der soziale Medien einen umfassenden Raum im Alltag einnehmen, bleibt es eine entscheidende gesellschaftliche Aufgabe, jene Plattformen so zu gestalten, dass sie das Wohl aller fördern, ohne den demokratischen Diskurs zu gefährden.
Stefan Stieglitz hat seit 2023 die SAP-Stiftungsprofessur für Wirtschaftsinformatik und Digitale Transformation an der Universität Potsdam inne.
Annika Baumann ist seit 2018 Forschungsgruppenleiterin am Weizenbaum-Institut und forscht an der Professur für Wirtschaftsinformatik und Digitale Transformation der Universität Potsdam insbesondere zu sozialen Medien und Gesellschaft.
Der Digital Services Act hat das Ziel, den rechtlichen Rahmen für digitale Dienste in Europa zu reformieren und die Sicherheit der Nutzenden zu verbessern – insbesondere von Kindern und Jugendlichen. Größere Plattformen sollen stärker in die Verantwortung genommen werden.
Der AI Act ist das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz mithilfe eines risikobasierten Klassifizierungssystem. Sein Ziel ist es, die Sicherheit und Rechte der Bürger*innen zu gewährleisten, indem strenge Anforderungen an Hochrisiko-KI-Systeme gestellt werden. Gleichzeitig soll es Innovation und Wettbewerb im Bereich der Künstlichen Intelligenz fördern.
Dieser Text erschien im Universitätsmagazin Portal - Zwei 2025 „Demokratie“.