
Es beginnt harmlos. Mit einem besonderen Interesse an gesunder Ernährung, neuen Modetrends oder einer Faszination für die Geschichte der eigenen Vorfahren. Social Media-User konsumieren solche Inhalte massenhaft.
Die Algorithmen beobachten genau, was wem gefällt.
Ein Like hier, ein Kommentar dort, und schon folgen hunderte weiterer Videos, die das gleiche Thema scheinbar vertiefen. Doch irgendwann wird die For-You-Page merkwürdig ungewohnt. Denn zwischen den harmlosen Posts tauchen auf einmal rechtsextreme Botschaften auf und auch User, die damit nie etwas zu tun haben wollten, bleiben dran. Was genau passiert da?
Verfasse auch du einen Beitrag auf campus a.
Es kann zum Beispiel mit der Suche nach gesünderer Ernährung, dem Wunsch nach natürlichen Lebensmitteln oder Skepsis gegenüber industrieller Nahrungsmittelproduktion anfangen. Algorithmen lenken solche Interessen bald in extremere Richtungen. Aus #Bio und #Naturheilmittel wird zuerst #Gottesnahrung, #Impfskepsis und #Pharmalügen. Die Inhalte werden langsam aber sicher ideologisch. Erst sind es die vermeintlich kaum erforschten und deshalb riskanten Impfungen, dann kommen die Sorgen über die gesamte Schulmedizin. Die Abwärtsspirale führt Nutzer schließlich zu verschwörungstheoretischen Narrativen, etwa über angebliche Pharma-Kartelle.
Besonders tückisch: Diese Inhalte präsentieren sich oft als Aufklärung und nutzen wissenschaftlich klingende Begriffe, die Nutzer beeindrucken. Der Übergang von berechtigter Kritik an einzelnen Konzernen oder Produkten zu pauschaler Wissenschaftsfeindlichkeit und schließlich zu Verschwörungsideologien ist fließend. Besonders oft zu lesen ist in dieser Kategorie der Begriff „Great Reset“. Er steht für eine Verschwörungstheorie, der zufolge eine globale Elite die Coronavirus-Pandemie nutzte, um den Kapitalismus zu demontieren und einen radikalen sozialen Wandel durchzusetzen.
Ähnlich läuft es bei Usern, die sich zunächst völlig unbedenklich für mittelalterliche Geschichte oder nordische Mythologie interessieren. Ein DNA-Test zur Analyse der eigenen Herkunft als Geburtstagsgeschenk kann aber Folgen haben, denn rechtsextreme Akteure haben auch dieses Thema gekapert. Die Algorithmen verschiedenster Sozialen Medien verknüpfen scheinbar harmlose #Wikinger-Inhalte schnell mit #Germanen und #VölkischeTraditionen.
Aus historischer Neugier wird „Ahnenforschung“ die nahtlos in eine „Blut-und-Boden“-Ideologie übergeht: so schnell können Nutzer in Neo-Nazi-Szenen landen. Die Ästhetik ist dabei anfangs noch modern und ansprechend: kräftige Männer, starke Frauen, Naturverbundenheit. Doch die Botschaften dahinter sind zunehmend rassistisch. Denn bald geht es um „Reinhaltung der europäischen Gene“ und eine vermeintliche „Überlegenheit der weißen Rasse“.
In der Szene der Neonazis stehen nordische Runen oft für rechtsextreme Positionierung. Sie verwenden neben der klassischen nationalsozialistischen „Sig“-Rune vor allem die „Odal“-Runen, die Erbe-, Besitz und Heimat symbolisieren, sowie die „Lebens“- und die „Todes“-Runen.
Der #CleanGirl-Trend wiederum propagiert auf den ersten Blick nur einen organisierten und für junge Frauen ansprechenden Lifestyle: natürliche Schönheit, Ordnung, Disziplin. Doch unter der Oberfläche lauern hier oft konservative bis reaktionäre Frauenbilder. Nutzerinnen erkennen eine allmähliche Zunahme an moralischer Aufladung mit Betonung von Begriffen wie „Reinheit“ und „Natürlichkeit“.
Es bleibt nicht bei einem organisierten Alltag und pastellfarbener Mode. Aus Beauty-Tipps werden Forderungen nach „Bescheidenheit“ in Kleidung und Verhalten. Influencerinnen preisen unversehens „himmlische“ oder „traditionelle Weiblichkeit“ („divine feminine“), zunächst noch unpolitisch, dann immer offener antifeministisch.
Experten im Bereich Extremismus- und Radikalisierungsforschung warnen von diesen Trends als Türöffner. Sie sind unpolitisch auf den ersten Blick, aber anschlussfähig für extremistische Narrative. So auch Tessa Schindler, Projektmanagerin der Berghof Foundation, die sich mit Themen wie Friedensförderung, Mediation und Konflikttransformation befasst. Sie warnt vor schleichenden Mechanismen. „Diese Online-Trends zeigen, wie schnell scheinbar harmlose Inhalte in ein ideologisches Spektrum geraten können: von Lifestyle über konservative Deutungen bis hin zu rechtsextremen Narrativen.“
Der Schritt zu religiös-fundamentalistischen Inhalten ist dann klein. Von #CleanLiving zu #BiblicalWomanhood, wo Frauen unter Berufung auf die Bibel zu Gehorsam und Unterordnung aufgefordert werden. Besonders junge Mädchen sind gefährdet, da der Trend gezielt ihre Unsicherheiten anspricht.
Nicht nur die sogenannten „Clean Girls“ bilden ein Rechtsextremismus-Risiko für junge Frauen im Internet. Oft reicht schon ein Interesse am Kochen, Backen oder an anderen als traditionell weiblich wahrgenommene Hobbies. Der #TradWife-Trend (kurz für “traditional wife” im Englischen) inszeniert das Leben als Hausfrau und Mutter als erstrebenswertes Ideal.
Die Ästhetik ist retro-chic, die Fotos sind idyllisch. Doch hinter der vermeintlich harmlosen Nostalgie verbergen sich oft extremistische Ideologien. Die propagierte „traditionelle Ehe“ basiert auf strikter Geschlechtertrennung und absoluter männlicher Autorität. Aus „Ich koche gerne“ wird „Frauen gehören an den Herd“, aus „Familienwerten“ werden homophobe und demokratiefeindliche Positionen.
Der Forschungsverein SCENOR mit Sitz in Wien beschäftigt sich mit der Analyse rechtsextremer Akteure. Erik Hacker, Researcher beim Verein, analysiert die gängigen Strategien und warnt: „Der zeitgenössische Rechtsextremismus unterwandert bewusst Online-Subkulturen, um Sympathisant*innen zu rekrutieren. Clean-Girl-Ästhetik, die Trad-Wives-Bewegung und Wikinger-Romantik sind die am häufigsten genutzte Motive in deutschsprachigen rechtsextremen Milieus, insbesondere auf TikTok und Instagram.”
Viele der reichweitenstärksten „Trad-Wives“-Accounts sind eng mit christlich-fundamentalistischen Gruppen vernetzt. Etwa „Ballerina Farm“ oder der Account von Model und Influencerin Nara Smith, die mit aufwendigen, nostalgisch inszenierten Kochvideos traditionelle Hausfrauenästhetik neu interpretiert. Frauen wie die Deutsch-Südafrikanerin Smith führen nicht einfach ein Leben, das für andere vielleicht nicht ideal ist. Sie propagieren Überzeugungen, die in einer modernen, emanzipierten Gesellschaft Unterdrückung von Frauen bedeutet, als vermeintliche weibliche Selbstverwirklichung.
Eine besonders gut erforschte digitale Falle arbeitet mit Inhalten, die Männern zur Selbsthilfe und zur Verbesserung ihrer mentalen Gesundheit dienen sollen. Auch hier lenken Rechtsextremisten junge Menschen allzu schnell in demokratie- und frauenfeindliche Ecken des Internets. Influencer wie Andrew Tate kapern die Sprache der Selbsthilfe für ihre Agenda. Aus „Arbeite an dir selbst“ wird „Das System will dich klein halten“.
Persönlichkeitsentwicklung mutiert damit zur Schuldzuweisung: Nicht du musst dich ändern, sondern „die da oben“ sind an allem schuld. Die vermeintlichen Coaches bedienen gezielt Frustrationen (beruflich, finanziell, romantisch) und verwandeln sie in Hass auf „das Establishment“.
Aus Enttäuschung wird Wut und aus Wut wird Verschwörungsglaube. Die deutsche Direktion Staatsschutz und Nachrichtendienst (DSN) betont die Rolle sozialer Medien dabei. Videos auf Plattformen seien meist kurz, emotional oder provokativ, was sie effektiv mache, um Aufmerksamkeit zu generieren und zu halten, heißt es dort. Jegliche Interaktionen diene als Basis für algorithmische Personalisierung. Besonders junge Nutzer in der Meinungsbildungsphase seien gefährdet. Die Inhalte sprechen daher gezielt junge Männer in Lebenskrisen an und bieten einfache Lösungen für komplexe Probleme.
Julian Hohner, vom Radikalisierungsmonitorings-Projekt MOTRA an der Ludwig-Maximilian-Universität in München erklärt den „Rabbit-Hole“-Effekt, der bei diesen Inhalten oft ein Risiko darstellen kann. Der Begriff stammt aus dem berühmtem Kinderbuch Alice im Wunderland. „Man stößt zufällig auf ein Thema, etwa gesunde Ernährung oder Wikinger, und wird durch algorithmisches Scrolling in immer extremere Inhalte gezogen die an sich an solche Themen gut anheften können, wie etwa der Arierkult,“ fasst Hohner das Problem zusammen. Besonders TikTok verstärke diesen Effekt durch sein „Doomscrolling“-Design, das Nutzer in einer Endlosschleife von Videos zu immer negativer geladenen Inhalte scrollen lässt.
Allerdings relativiert der Forscher: „Ob solche Rabbit Holes tatsächlich zur Radikalisierung führen, hängt stark von individuellen Voreinstellungen ab. Die Forschungen dazu stecken noch in Kinderschuhen und lassen sich schlecht pauschalisieren.“
Verfasse auch du einen Beitrag auf campus a.