Im Rahmen der Ausstellung »After the Fact. Propaganda im 21. Jahrhundert« sprachen am 14. Juli die Kuratorin der Ausstellung, Stephanie Weber, die Journalistin Julia Fritzsche, Simon Hegelich, Experte der Social Media Forensics, und Diana Rieger, eine der Autor_Innen der vom Bundeskriminalamt beauftragten Studie »Propaganda 2.0«, über Propaganda in Deutschland und Gegenbotschaften oder »Counter Narratives«. Als solche bezeichnet man Bemühungen Propaganda u.a. im Netz zu entlarven und ihr etwas entgegenzusetzen. Einen Ausschnitt aus der spannenden Diskussion, in der unterschiedliche und auch versteckte Beispiele von Propaganda genannt und Gegenstrategien aufgezeigt wurden, können Sie hier nachlesen. Der vollständige Text steht am Ende des Beitrags als PDF bereit.

Stephanie Weber: Frau Rieger, Sie haben an der Studie »Propaganda 2.0 – Psychological Effects of Right-Wing and Islamic Extremist Internet Videos« mitgewirkt. Können Sie kurz erläutern, was der Hintergrund des Projekts war?

Diana Rieger: Die Studie »Propaganda 2.0« hat damit begonnen, dass das Bundeskriminalamt beauftragt vom Bundesinnenministerium ein Forschungsprojekt ausgeschrieben hat. Sie wollten an der Universität die Wirkung von extremistischer Propaganda im Internet erforschen lassen. Daraufhin haben wir uns beworben, das Projekt bekommen und dann zwei Jahre daran geforscht. Zunächst haben wir Beispiele von Propaganda gesammelt und analysiert, wie sie aufgebaut ist und was das Aktionspotenzial von Propaganda im Internet ist. Anschließend haben wir Studien mit jungen Menschen verschiedener kultureller Herkunft durchgeführt und diese befragt, was sie über die Beispiele von Propaganda denken, was diese mit ihnen machen. Ein Ergebnis der Studie ist, dass man sich angesprochen fühlt je nachdem welchen eigenen kulturellen Hintergrund man hat. Bspw. fühlen sich Deutsche anders von rechtsextremistischer Propaganda angesprochen, wohingegen sich Muslime von islamistischer Propaganda anders angesprochen fühlen. Aber das gute Ergebnis ist, dass sich »normale« junge Menschen erst mal ablehnend gegenüber Propaganda äußern, was natürlich auch mit der hohen Gewalt in solchen Videos zu erklären ist. Die erste Befürchtung, dass man sich sofort radikalisieren könnte, die kann ich also schon mal zurückweisen. Allerdings gibt es Tendenzen, die dazu führen, dass man Propaganda gegenüber mehr aufgeschlossen ist. Zum einen, wenn man autoritaristisch veranlagt ist, also wenn man ein Mensch ist, der generell gerne Ordnung, Struktur und klare Hierarchien hat, der Sicherheit sucht und gerne klar gesagt bekommt was richtig und was falsch ist. Auch, wenn man generell eine stärkere Gewaltakzeptanz hat, also Gewalt für eine Lösungsmöglichkeit von Konflikten hält, fühlt man sich von Propaganda eher angesprochen. Zudem spielt auch die Situation eine Rolle, in unsicheren Situationen, wenn es um existenzielle Bedrohungen geht, dann ist man auch eher von radikalen Gruppen angetan.

Stephanie Weber: Aus diesen Ergebnissen entwickelte sich dann die nächste Studie, die »Kontra« heißt und sich mit Gegenmaßnahmen befasst, über die wir später noch sprechen werden.
Frau Fritzsche, Sie behandeln in Ihren Beiträgen erst mal ganz unterschiedliche Themen. Zum einen geht es darin um Austeritätspolitik, um die Darstellung von Armut oder Klasse, aber auch um Sexismus. Wie würden Sie selbst Ihre journalistischen Interessen beschreiben?

Julia Fritzsche: Auf den ersten Blick klingt es vielleicht erst mal nicht unmittelbar nach Propaganda, womit ich mich beschäftige. Ich würde aber trotzdem sagen, dass es etwas damit zu tun hat und würde gerne mit Ihnen darüber diskutieren, wo Propaganda anfängt und wie weit sie geht. Ich beschäftige mich mit gesellschaftspolitischen Themen, wie sie schon gesagt haben, im Bereich »Gender«, Rassismus, Armut, Sprache. Ich schaue mir insbesondere Erzählungen und Ideologien an und wie sie unsere Gesellschaft prägen. Zwei Beispiele, eins aus dem Bereich »Gender«: Seit Jahren untersuche ich, inwiefern unsere westliche Kultur eine »Rape Culture« in sich trägt, also eine so genannte »Vergewaltigungskultur«. D.h. inwiefern unsere Kultur sexuelle Gewalt verharmlost oder vielleicht sogar fördert. Zum Beispiel in der Sprache: Wir reden bspw. nicht von Vergewaltigungsvorwürfen gegenüber Dominique Strauss-Kahn, dem ehemaligen IWF Chef, sondern von einer Sexaffäre. Also von Sex, statt von Vergewaltigung, eigentlich zwei Dinge, die nichts miteinander zu tun haben sollten. Oder indem wir immer wieder die Erzählung wiederholen, und das kann auch eine Art von Propaganda sein, dass eine Vergewaltigung im öffentlichen Raum stattfindet, bei Nacht, in einer dunklen Straße, gegenüber einer jungen Frau durch einen unbekannten Täter. Dabei besagen Statistiken, dass die Hälfte aller sexuellen Gewalttaten durch den Partner oder Ex-Partner erfolgen, zu 65 % in der eigenen Wohnung, nur 18 % hingegen im öffentlichen Raum. Das ist ein Beispiel aus dem Bereich »Gender«, bei dem man darüber diskutieren kann, ob es sich dabei schon um Propaganda handelt. Ist das schon zielgerichtet? Muss Propaganda überhaupt zielgerichtet sein? In diesem Fall steht kein konkreter Akteur dahinter, ich glaube aber, dass auch in dem Fall viele Personen ein Interesse daran haben, hier patriarchale Ordnungen aufrechtzuerhalten. Ein zweites Beispiel: Ich habe mir auch mehrere Jahre angesehen, wie unsere Gesellschaft Arme und Erwerbslose verachtet. Es gibt das Stereotyp des »faulen Arbeitslosen«, der im Unterhemd auf dem Sofa sitzt, Bier trinkt, raucht und in jedem Fall selbst Schuld an seinem Schicksal ist – weil er eben faul ist. Dieses Stereotyp könnte schon mehr in Richtung Propaganda gehen, denn hier steht nachgewiesenermaßen ein politischer Wille dahinter. Immer wieder wird, vor allem in wirtschaftlichen Krisen dieses Stereotyp aufgegriffen, weil damit vertuscht wird, dass Erwerbslosigkeit auch dadurch bedingt ist, dass wir wirtschaftliche Zyklen und Krisen haben – und vielleicht sogar dass unser Wirtschaftssystem, der Kapitalismus, nicht unbedingt fördert, dass es allen gut geht.

Stephanie Weber: Das ist genau der Grund, warum Julia Fritzsche heute hier ist, denn das sind Beispiele, bei denen es zuerst nicht offensichtlich um Propaganda zu gehen scheint. Die Diskussion, die wir uns wünschen würden, beginnt mit der Frage: Wie bereitetet sich Propaganda eigentlich vor? Es war auch ein Ziel der Ausstellung »After the Fact« auf diese diffusen Zwischenräume hinzuweisen.
Nun zu Herrn Hegelich: Sie beschreiben Algorithmen und Big Data nicht als rein technologisches Phänomen, sondern auch als ein höchst politisches. Könnten Sie das kurz erläutern und ein Beispiel nennen?

Simon Hegelich: Wir analysieren bspw. Geschichten in den sozialen Medien, um herauszufinden, wie sich etwa »Fake News« verbreiten, welche technischen Möglichkeiten es dabei gibt. Was machen »Social Bots«? Das sind Computerprogramme, die vorgegeben sie seien echte Nutzer in sozialen Netzwerken, um dann dort massenhaft »Stories« zu verbreiten. Was man dabei feststellt, ist erstens: dass sehr viele politische Diskussionen über die sozialen Netzwerke laufen. In einer großen Studie, die wir machen, schauen wir uns die Debatten zur Flüchtlingskrise auf Facebook an und können dabei ganz interessante Sachen feststellen. Zum Beispiel, dass es ein Netzwerk von AfD und Pegida-Leuten gibt, die sehr eng miteinander verbunden sind und immer wieder die gleichen Informationen in diesem Netzwerken weiterleiten. Ein zweites Netzwerk umfasst dann mehr oder weniger alle anderen. Der gesellschaftliche Diskurs erscheint hier also offenbar zweigeteilt. Diesen Eindruck erhält man aber interessanterweise auch nur solange, wie man nur auf die pure Quantität dieser Aktivitäten schaut, weil es diverse Möglichkeiten gibt diese Quantitäten und Trends zu manipulieren. Zum Beispiel dadurch, dass sich jemand acht Stunden am Tag an den Computer setzt und gezielt Hass-Kommentare gegen Flüchtlinge schreibt – und das über anderthalb Jahre oder länger – um dadurch den Diskurs zu prägen. Wir versuchen dann herauszurechnen welchen Effekt solche Aktivitäten haben.

Stephanie Weber: Spielt der Propaganda-Begriff für Sie da eine Rolle? Finden Sie, Propaganda ändert sich durch die technischen Möglichkeiten? Was ist denn Propaganda heute?

Simon Hegelich: Dazu möchte ich ein anderes Beispiel nennen: Wenn man sich den US-Wahlkampf anschaut, wurde immer wieder darauf hingewiesen, dass Russland darauf Einfluss genommen habe – meiner Meinung nach auch eine Form der Propaganda. Zum Hintergrund muss man wissen, dass Russland selbstverständlich die Möglichkeiten hat solche Manipulationen online durchzuführen, andere Staaten haben das auch, erfunden hatte das wie immer die CIA. Schon in den Snowden-Papern wurde darüber berichtet, dass es dort ganze Programme gibt, die aufgebaut werden, um falsche Identitäten in den sozialen Netzwerken zu erzeugen. So hat etwa das Verteidigungsministerium in Amerika eine »DARPA Botchallenge« initiiert und darin Wissenschaftler aufgefordert: »Baut uns ganz viele ‚Social Bots‘, um möglichst viele echte soziale Netzwerke zu unterwandern und wer das am besten macht, gewinnt einen Preis.« In dem Bereich kann man, glaube ich, ganz klassische Propaganda sehen, wo es darum geht, dass ein Staat Propaganda gegen einen anderen Staat macht. Was wir aber auch feststellen ist, dass Propaganda meiner Meinung nach immer diffuser wird. Wir haben ganz viele »Doppelagentenspiele«, wo man bspw. ein Netzwerk aus Fake-Accounts aufbaut, in diesen antisemitische und rassistische Witze erzählt und zwischendurch dann versucht wird Donald Trump zu beleidigen. Die Idee dahinter ist, dass man erst mal Rassismus verbreiten muss, um überhaupt mit den Wählern von Trump in Verbindung zu kommen und dann kann man ihn darüber wieder schlecht machen. Solche Doppelstrategien finden wir sehr häufig. Es scheint meiner Meinung nach eine Tendenz zu geben, dass man versucht Propaganda nicht mehr mit einer konkreten »Message« zu verbinden, sondern generell einfach nur Verunsicherung stiften möchte.

Stephanie Weber: Dafür würde ja dann der viel zitierte Begriff der »Fake News« stehen.

Simon Hegelich: Mit den Begriffen muss man, glaube ich, immer etwas vorsichtig sein und versuchen sie zu sortieren. Bei »Fake News« steht, wie bei Propaganda, eine manipulative Absicht dahinter. Die Lüge wird hier bewusst eingesetzt, um einen politischen Effekt zu erzielen. Das zeigt auch wieder, was ich zuvor mit »diffuser Absicht« meinte. Bspw. haben die Personen, die behauptet haben, der Papst würde Trump unterstützen, irgendwann während der TV-Duelle verbreitet, dass Julian Assange von der CIA umgebracht worden wäre. Man weiß auch nicht, was das miteinander zu tun hat. Es ist auch keine Nachricht die Trump unterstützen würde, zumindest nicht offensichtlich. Das Ziel ist das Gefühl von Unsicherheit zu verbreiten, auf die sie dann wieder einfache Antworten geben können.

Stephanie Weber: Das bringt mich zurück zu Frau Rieger und Ihrer Studie »Click Click Click«. Darin geht es um Präventionsmaßnahmen und Wege zu einer größeren Medienkompetenz. In Ihrer Studie haben Sie nicht den Ansatz, Jugendliche vor dem Internet und den sozialen Medien zu beschützen, was weder möglich noch wünschenswert wäre, stattdessen lehrt man Medienkompetenz. Wie macht man das?

Diana Rieger: Dafür arbeiten wir mit Pädagogen zusammen, die sich mit den klassischen Methoden auskennen, die man an Schulen und bei Heranwachsenden einsetzen kann. Unsere Idee ist, dass es ideologie-unspezifisch passieren muss, sonst hätte man einen Schlüssel für eine bestimmte Ideologie, wäre aber für andere immer noch blind. Forschung und Realität zeigen, dass es teilweise zufällig ist, in welcher Richtung sich Jugendliche einer bestimmten Gruppierung anschließen, je nachdem worüber sie als erstes stolpern. Deshalb versuchen wir in dem Projekt ideologie-unspezifisch Medienkritikfähigkeit zu fördern, also die Möglichkeit für Jugendliche im Internet bestimmte Botschaft zu dekodieren, zu verstehen wofür etwas steht, zu erkennen was bspw. extremistisch, demokratie- oder verfassungsfeindlich ist. Was das Internet für extremistische Ideologien ja auch so reizvoll macht, ist die »Mit-Mach-Philosophie«, man kann Verteiler von Propaganda werden, man hat uneingeschränkten Zugriff, man kann kommentieren oder in einen Diskurs mit vielleicht nicht so freundlichen Menschen kommen. Dieses Gefahrenpotenzial nehmen wir aktiv auf und versuchen Jugendliche zu befähigen selbst zu handeln. Wir diskutieren mit ihnen, wie man auf »hate speech« antworten kann, wie man reagieren kann, wenn jemand beleidigt wird. Unser Programm hat drei Säulen: Erstens: »Wie erkenne ich Propaganda?« Oftmals ist Propaganda sehr versteckt. Wir geben Schülern Werkzeuge in die Hand, woran man Propaganda erkennen kann. Dann reflektieren wir: »Warum stolpere ich darüber im Internet?« Dabei spielen Algorithmen eine Rolle, bspw. wie Videos auf YouTube verlinkt sind. Schließlich: »Was mache ich damit? Wie kann man mit Propaganda umgehen?«

Stephanie Weber: Sie sprachen über Verlinkung: Für die Ausstellung habe ich bspw. Antifa-Youtube-Videos gegoogelt und bekam aber Videos zu AfD und Bautzener Block empfohlen. Ähnliches passiert ja auch Jugendlichen.

Simon Hegelich: Das ist auch ein schönes Beispiel gegen das Filterblasenbild.

Stephanie Weber: Das sehen Sie ja ohnehin kritisch?

Simon Hegelich: Ja, aber eigentlich muss man sich ja fragen, ob man Ihre Erfahrung in Youtube kritisieren möchte. Denn ist es nicht eigentlich gut, dass man auch die Gegenseite gezeigt bekommt, wenn man nach Antifa-Videos sucht?

Stephanie Weber: Frau Rieger, in der Propagandatheorie sagt man, dass man nicht von heute auf morgen radikalisiert wird, sondern, dass durch Propaganda Meinungen verstärkt werden. So funktionieren ja auch Algorithmen. Mich würde interessieren, Frau Fritzsche, wie sehen Sie in diesem Zusammenhang Kommentarspalten, in die ich auch gerne schreibe? Ist es bspw. ein Weg, sich in problematische Diskussion einzuschalten? Vielleicht als eine Methode des medienkompetenten Umgangs mit Propaganda? Wie würden Sie Medienkompetenz verstehen? Was können die großen Medien, für die Sie arbeiten, dazu vielleicht auch beitragen?

Julia Fritzsche: Für einen halbstündigen Film über Hass im Netz habe ich mal einen Tag in der Social-Media-Redaktion der Tagesschau verbracht, wo am Tag 12.000 Kommentare eingehen, 4.000 davon sind Hasskommentare à la »Judensau« und »Rapefugee«. Dort hoffen sie eigentlich in ihrer Arbeit – sie sind zu zweit –, dass die Community selbst eingreift. Sie können eigentlich nur in einer sog. Thread, also einer Spalte unter einem Beitrag, ganz schlimme Kommentare löschen und versuchen, den Ton der Diskussion zu ändern, indem sie spiegeln: »Überlegen Sie noch mal, was Sie da geschrieben haben, das ist möglicherweise gruppenbezogene Menschenfeindlichkeit«. Sie hoffen dann, dass die Community daran anknüpft und eingreift. Das würde dafür sprechen, dass Sie weiterhin in Kommentarspalten schreiben sollten. Während der Recherche für den Film fand ich auch noch interessant, dass viele Bildungseinrichtungen, die mit jungen Menschen über Hass im Netz sprechen, sich nicht nur Hass im Netz anschauen, sondern sich bspw. auch eine Folge »Germany’s Next Topmodel« ansehen und dann reflektieren, wie darin mit weiblichen Menschen umgegangen wird. Oder sie lassen eine Gruppe Jungs Fußball spielen und warten bis jemand ruft »Schiri, du schwule Sau!« und reflektieren dann mit pädagogischen Methoden, was denn daran so schlimm ist, wenn der Schiri schwul ist und schauen sich auch an, dass es ja auch schwule Fußballmannschaften gibt. Ich finde interessant an den Phänomenen »Propaganda« und »Hass im Netz«, dass wir jetzt eigentlich wieder viel stärker anfangen über Werte zu sprechen und begrüße das sehr. Diese Bildungseinrichtungen versuchen stärker klar zu machen, dass wir, wie Studien zeigen, große Zahlen von gruppenbezogener Menschenfeindlichkeit haben, die den ganzen extremistischen Gefahren zugrunde liegen: 17% Frauenfeindlichkeit, 15% Antisemitismus, 18% Feindlichkeit gegen Muslime. Das ist die Ebene, auf der dann extremistische Propaganda fußen kann.

Stephanie Weber: Ich finde es eine optimistische und schöne Vorstellung, dass wir selbst alle eine Verantwortung haben, uns im Netz gegen Propaganda zu äußern und nicht die Verantwortung an die großen Unternehmen abzugeben. Ich habe mich gefragt, wie Sie das sehen, Herr Hegelich. Inwieweit kann man die Verantwortung an diese großen Unternehmen wie Facebook abgeben, dass diese propagandistische Inhalte löschen?

Simon Hegelich: Generell wird man diesem Phänomen nur mit technischen Hilfsmitteln Herr werden können, denn der Datenverkehr nimmt ständig zu, jeder ist ständig online, bei so vielen Leuten bekommt man das nicht mehr eingefangen. Wenn ich also tatsächlich eine Propagandaabsicht habe, ist es für mich viel leichter, eine Diskussion kaputt zu machen, als für alle anderen Beteiligten sie wieder aufzubauen. Als »Troll« bin ich da klar im Vorteil, vor allem, wenn dieser auch noch über die technischen Mittel verfügt in mehreren Foren gleichzeitig aktiv zu sein. Das Problem ist, dass momentan eben nur diese großen Konzerne über die Produktivkräfte verfügen diese technischen Hilfsmittel einzusetzen. Darum macht es auch Sinn, Facebook da zuerst anzusprechen: denn Facebook hat in diesem Bereich genauso wie in allen anderen Bereichen das Ziel, den Prozess weitestgehend zu automatisieren. Dafür werden Algorithmen genutzt. Das führt dann eben oft zu dem Vorwurf: »Nackte Brüste könnt ihr zensieren, aber ‚hate speech‘ nicht«. Einen Algorithmus zu schreiben, der nackte Brüste erkennt ist aber nun mal viel einfacher, denn es gibt unheimlich viel Datenmaterial dazu, welches der Computer vollautomatisch und relativ schnell auswerten kann. »Hate speech« dagegen ist viel komplexer: Da spielen zum Beispiel Ironie oder Zitate eine Rolle. Trotzdem denke ich, dass man da algorithmisch sicher was machen könnte. Die Frage ist nur: Wer sollte das dann machen? Laut der aktuellen Gesetzeslage sollen gegenüber Facebook extrem hohe Strafen verhängt werden, wenn das Unternehmen es nicht schafft, eindeutig rechtswidrige Kommentare innerhalb von 24 Stunden zu löschen. Ich finde es allerdings nicht richtig, dass Facebook dann letztendlich entscheidet, was eindeutig rechtswidrig ist.

Julia Fritzsche: Ich sehe das nicht so, dass man das nur noch technisch lösen kann. Ich finde, wir müssten grundlegend über unsere Werte reden und neue Gegenbotschaften und Ideen des Zusammenlebens entwickeln – vielleicht auch mit propagandistischen Mitteln. Ich glaube nicht, dass man da mit der Technik weit kommt.

Simon Hegelich: Das sehe ich gar nicht als Widerspruch. Natürlich wäre es besser, wenn man Personen generell davon abhalten könnte, dass sie andere diffamieren oder Hass verbreiten. Aber solange wir das nicht hinbekommen und wir gleichzeitig ein Forum bieten, in dem sich jeder beteiligen und Hass verbreiten kann, wird es nicht reichen, dass einzelne Leute in Redaktionen versuchen solche Kommentare herauszufiltern. Das soll nun nicht heißen, dass der perfekt getunte Zensur-Algorithmus die Lösung des Problems wäre.

Stephanie Weber: Frau Rieger, Sie sprechen ja auch das Phänomen des »Trollens« in einer Ihrer Studien an, also das Person im Netz kommunizieren, nur um andere Gesprächsteilnehmer emotional zu provozieren. Sie würden also sicher auch sagen, dass man sich weiterhin in Kommentarspalten in bspw. rechtsextremistische Diskussionen einschalten sollte und die Regulierung solcher Inhalte zusätzlich technisch begleiten sollte?

Diana Rieger: Ja, aus meiner Arbeitserfahrung würde ich auch beidem zustimmen. Bspw. habe ich mich mit anderen Forschern mit den zuständigen Personen von Google und Facebook getroffen und die berichten Ähnliches, wie Sie eben von der Tagesschau. Sie können den Inhalten und Diskussionen gar nicht Herr werden und geben, auch weil es so viele geschlossene Gruppen gibt, ein Stück weit die Verantwortung an die Community ab. Inhalte können von Nutzern »geflaggt« werden, also gemeldet werden, dass etwas bspw. »hate speech« ist. Der Hashtag »#Ichbinhier« ist etwa eine Initiative, um auf solche Inhalte aufmerksam zu machen. Dadurch wird auch Aufmerksamkeit für einen Wertewandel und bestimmte Umgangsformen geschaffen. Anderseits bin ich auch der Meinung, dass man in der Masse auch Maschinen und Mechanismen nutzen kann, um solchen Inhalten Herr zu werden. Allerdings ändert alleiniges Löschen von Inhalten nicht die Probleme, die es in unserer Gesellschaft gibt, die solche Inhalte entstehen lassen. Man könnte jedoch durch technische und semantische Analysen solche Inhalte und Nutzer besser finden und mit diesen dann in eine Diskussion einsteigen und so Gegenbotschaften gegen propagandistische Inhalte entwickeln.

Stephanie Weber: Sie haben den Begriff der »Gegenbotschaften« genannt, den sowohl Sie, Frau Rieger in Ihrer Studie »CONTRA: Countering Propaganda by Narration Towards Anti-Radical Awareness«, als auch Sie, Frau Fritzsche, verwenden. Vielleicht können Sie nochmal kurz auf den Begriff eingehen. Wie versteht man »Gegenbotschaften«? Wie funktionieren sie, an einem Beispiel? Was wäre ein idealer Weg?

Diana Rieger: Die Sicherheitsbehörden nennen das »Counter Narratives«. Wir haben diese untersucht und sind keine Freunde von dem Begriff, weil er auf mehreren Ebenen problematisch ist. Auf der einen Seite enthält er »Counter«, also dass wir Propaganda damit etwas entgegen stellen. In dem Moment, in dem man aber Propaganda etwas entgegnet, weißt man Propaganda die Mehrheitsmeinung zu: Das ist das »Normale«, dem wir etwas entgegen setzen müssen. Eigentlich soll ja aber unser demokratisches Narrativ das Normale sein und Propaganda die »Counter Message«. Hier wird also eigentlich schon das Pferd von hinten aufgezäumt. Es gibt verschiedene Arten von »Counter Narratives«, die theoretisch unterteilt werden. Zum einen strategische Jung-Kommunikation, das sind bspw. Aufklärungsvideos von der Bundeszentrale für politische Bildung, in denen Jugendlichen erklärt wird, was Diskriminierung ist, was der Islam ist oder warum es den Ramadan gibt. Dann gibt es als zweites wirkliche »Counter Narratives«, die versuchen Thesen von Extremisten zu widerlegen. Das Dritte sind alternative Narrative, die gar nicht auf das Extremistische eingehen. Sie vermitteln eine pro-demokratische, pro-tolerante Wertepluralität. In unseren Studien stellen wir fest, das zwei Arten dieser Narrative besonders erfolgreich sind: Zum einen sind das Aussteigervideos, wenn Ex-Extremisten berichten, wann sie ins Grübeln gekommen sind, warum sie sich dann gegen diese Ideologie gewendet haben und ausgestiegen sind. Das wird als sehr authentisch erlebt und findet Ansprache. Das Zweite sind die alternativen Narrative, die sich gar nicht so sehr mit dem »Bösen« aufhalten, sondern vielmehr positiv formuliert Werte vermitteln.

Das vollständige Gespräch können Sie hier weiter lesen: After the Fact_Diskussion_140717

Julia Fritzsche arbeitet als Autorin, unter anderem für die Sender Bayern 2, Bayerisches Fernsehen, Arte und ARD Alpha, und verfasst Beiträge zu gesellschaftspolitischen Themen. Sie absolvierte 2007 das Studium der Rechtswissenschaften und 2012 das Volontariat beim Bayerischen Rundfunk. Für das Radiofeature »Stell Dich nicht so an!‘ Indizien für eine Rape Culture« erhielt sie 2013 den Juliane Bartel Medienpreis, für den Radiobeitrag »’Prolls, Assis und Schmarotzer!‘ Warum unsere Gesellschaft die Armen verachtet« 2016 den Otto-Brenner-Preis und den Deutschen Sozialpreis. Zuletzt suchte sie für das Radiofeature »Geschichten gegen den Hass« nach neuen Narrativen jenseits von neoliberalen und nationalistischen Erzählungen.

Prof. Dr. Simon Hegelich verbindet in seiner Forschung Politikwissenschaft und Computerwissenschaft zu Political Data Science. Dabei geht es sowohl um Themen der Digitalisierung, deren politische Relevanz untersucht wird, als auch um klassische politikwissenschaftliche Fragen, die mit Methoden wie maschinellem Lernen, Data Mining, Computer Vision oder Simulationen bearbeitet werden. Simon Hegelich hat an der Universität Münster Politikwissenschaft studiert und dort seine Promotion und Habilitation abgeschlossen. Von 2011 bis 2016 leitete er als Geschäftsführer das interdisziplinäre Forschungskolleg FoKoS der Universität Siegen. Seit 2016 ist Simon Hegelich Professor für Political Data Science an der Hochschule für Politik an der TU München.

Dr. Diana Rieger vertritt zur Zeit eine Professur für Kommunikationswissenschaft am Institut für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München. Davor war sie Postdoc am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim. In ihrer Forschung beschäftigt sie sich mit der Rezeption und Wirkung extremistischer Online-Propaganda und mit Faktoren, die deren Wirkung beeinflussen können. 2013 veröffentlichte sie gemeinsam mit Lena Frischlich und Gary Bente die Studie »Propaganda 2.0: Psychological Effects of Right-Wing and Islamic Extremist Internet Videos«.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.