Die großflächige Beeinflussung der öffentlichen Meinung durch falsche Informationen nimmt zu. Die Hemmschwelle sinkt, eine Meinungsäußerung auf Basis von Fake News anderen Internetnutzern bereit zu stellen. Mit Hilfe von Social Bots wird im Lobbyismus vermehrt Meinungsmache betrieben. Der Datenverkehr steigt und individuelle Sichtweisen treten verstärkt in den öffentlichen Diskurs ein. Bots sind ein oft genutztes Mittel, um mit Fake News ein dominantes Meinungsbild aufzubauen. Wir erläutern, wie die Verbreitung von Desinformation abläuft und wie ein wirksamer Schutz möglich ist.

Automatisierung der Meinungsmache

In den Zeiten von Facebook, Twitter und Instagram steht die Möglichkeit der großen Beeinflussung theoretisch jedem zur Verfügung.  Zudem ist die Verbreitung falscher Nachrichten inzwischen kein reines Menschenwerk mehr. In den sozialen Medien sind häufig sogenannte Bots aktiv. Dabei handelt es sich um automatisierte Programme, die gefühlt menschlich agieren, indem sie Kommentare schreiben oder mit Inhalten interagieren. Sie können dank der automatischen Mechanismen innerhalb von kurzer Zeit bestimmte Standpunkte zu Themen schnell weiterverbreiten. Aufgrund der damit erzielten Reichweite werden Meinungen künstlich verstärkt und eine Debatte so in die gewünschte Richtung gesteuert.

Die Suche nach der Anleitung, einen Social Bot zu schreiben, ist innerhalb von wenigen Sekunden über Google erfolgreich. Mittlerweile gibt es zudem auch zahlreiche Internetdienstanbieter, die intelligente Chatbots erstellen oder komplexe Social Bots programmieren.

Fake News und Social Bots stellen eine zunehmende Herausforderung für Regierungen, Organisationen und Unternehmen dar. Wie lassen sich Social Bots identifizieren? Sind Social Bots für politische oder wirtschaftliche Institutionen nur ein Problem oder können sie auch einen sinnvollen Zweck erfüllen?

Was sind Social Bots?

Ein Bot ist ein virtueller Roboter. Er analysiert das Internet und Nutzerdaten. Durch seine Programmierung erkennt der Bot ein konkretes Muster oder Merkmal, zum Beispiel Hashtags oder spezielle Wörter. Dann wird der Bot automatisch aktiv und eingesetzt.

Ein Social Bot ist vorwiegend in sozialen Netzwerken unterwegs. Auf diesen Plattformen ist er selbständig aktiv, schreibt Nachrichten und verbreitet Meinungen. Auf diese Weise steigt die Sichtbarkeit von Themen und Positionen. Es entsteht der Eindruck, dass hinter den entsprechenden Profilen echte Menschen stehen.

Bots haben undemokratischen Charakter

Tatsächlich sind Social Bots aber Maschinen, die von ihren Betreibern gezielt eingesetzt werden, um die öffentliche Meinung manipulieren zu können. Es findet also ein Missbrauch statt. Fake News sind die wohl prägnanteste Form der Verbreitung. Ihr vortäuschender Charakter widerspricht den Regeln des demokratischen Diskurses. Bots geben vor, jemand zu sein, der sie nicht sind. Neben dieser kritischen Betrachtungsweise stellt sich jedoch die Frage, ob es in den kommenden Jahren nicht auch legitime Möglichkeiten geben kann, Social Bots sinnvoll zu nutzen.

Chatbots mit künstlicher Intelligenz im Kundendienst

Die Qualität der virtuellen Roboter ist sehr unterschiedlich. So facettenreich die Internetnutzung ist, so vielfältig lassen sich auch Bots programmieren. Einfach erstellte Bots beschränken sich in erster Linie auf die Darstellung bereits vorformulierter Mitteilungen.

Andere kommunizieren mit echten Nutzern, beispielsweise in Messengern wie WhatsApp. Diese Chatbots sind in der Lage, auf Basis von Kundendaten oder individuellen Anfragen eigenständig neue Nachrichten zu generieren.  In diesem Fall ist der Einsatz positiv zu bewerten, denn er unterstützt etwa den Kundendienst in einem Unternehmen durch Automatisierung. Social Bots haben sich zunehmend weiterentwickelt und agieren mittlerweile auch mit künstlicher Intelligenz. So wird es immer schwieriger, automatisierte von realen Accounts zu unterscheiden.

Wie lassen sich Social Bots identifizieren?

Um einen Bot identifizieren zu können, helfen einfache Methoden. Viele von ihnen lassen sich in sozialen Netzwerken anhand von einigen Merkmalen klassifizieren und bewerten. Stellen Sie sich folgende Fragen:

  • Schreibt der Bot wie ein Mensch?
  • Macht er auch mal eine Pause?
  • Ist er nur in bestimmten Zeiträumen oder zu speziellen Themen aktiv?
  • Warum hat sein Profil kein Foto?

Einzeln agierende Social Bots, die Fake News über Twitter oder Facebook verbreiten, können von Journalisten oder Profis meist schnell als Täuschung enttarnt werden. Allerdings verwischt die Grenze zwischen eindeutig menschlichen und eindeutig maschinellen Verhaltensweisen. Dank steigender Rechnerkapazitäten können Social Bots auf immer größere Datenbestände zugreifen. So sind die programmierten Roboter in der Lage, menschliche Verhaltensmuster immer überzeugender nachzuahmen. Grundlage dafür sind kombinierte Technologien von Big Data bis Artificial Intelligence und damit verbunden der Einsatz von Machine Learning.

Welche Risiken bergen Social Bots?

Die Verwendung von Social Bots wurde im Jahr 2014 im Konflikt zwischen der Ukraine und Russland am besten dokumentiert. Zwei Wissenschaftler aus Deutschland wiesen den intensiven Einsatz nach. Sie belegten die Existenz eines Netzwerkes, das mutmaßlich von ukrainischen Nationalisten gesteuert wurde. Es umfasste rund 15.000 aktive Accounts bei Twitter.

Tarnung durch Themenvielfalt

In den rund 60.000 versandten Tweets ging es nicht nur um Politik, sondern um viele andere populäre Themen. Diese intelligente Strategie machte es normalen Nutzern schwer, die tatsächlichen Motive der Urheber zu erkennen. Aus diesem Beispiel und ähnlichen dokumentierten Fällen, etwa im Rahmen der Kampagne zum Brexit, lassen sich drei Gefahren für die demokratische Diskussionskultur ableiten.

Social Bots sind in der Lage, gezielt Falschinformationen in Umlauf zu bringen. Das hat vor allem in angespannten politischen Lagen potenziell dramatische Folgen. Durch die enorme Menge verbreiteter Beiträge können Bots in sozialen Netzwerken auch Trends beeinflussen und Aufmerksamkeit schaffen. Die Konsequenz daraus ist die gezielte Steuerung der öffentlichen Meinung. Aufgrund von radikalen Positionen der Bots ziehen sich menschliche User aus bestimmten Debatten zurück und der Diskurs verroht.

Nicht nur politische Motive

Die potenziellen Gefahren durch meinungsbildende Roboter beschränken sich allerdings nicht auf die politische Sphäre. Zahlreiche andere theoretische Szenarien sind denkbar und beschäftigen schon heute die Spezialisten. Beispielsweise könnten Aktienkurse gezielt manipuliert werden. Kampagnen durch Bots beeinflussen in diesen Fällen die Anleger und treiben sie in nicht existente Kapitalanlagen. Fake News bedrohen ebenso klassische Modelle im Vertrieb und Beratungswesen. Es ist daher immer Vorsicht geboten, um auf eine solche Rechtsverletzung nicht reinzufallen. Doch Bots sind per se nicht zwingend negativ behaftet. Sie bieten auch Chancen, auf die wir im nächsten Abschnitt genauer eingehen.

Welche Chancen bieten Social Bots?

Social Bots sind in der Lage, durch die Verbreitung von Fake News gezielt „falsche Tatsachen“ in Umlauf zu bringen. Aber sind Social Bots deshalb als Instrument für Unternehmen und andere seriöse Institutionen diskreditiert? Die Frage ist nicht ganz leicht zu beantworten, denn technisch betrachtet handelt es sich bei Social Bots lediglich um eine Spielart der Chatbots.

Chatbots als kommunizierende Roboter

Virtuelle Roboter im Internet sind entweder meinungsbildend oder helfen bei der Kommunikation. Im zweiten Fall werden Chatbots bereits von unzähligen Unternehmen verwendet. Die Entwicklung von Bots hat sich beschleunigt, nachdem Facebook die App für seinen Messenger auch für andere Firmen öffnete. Diensteanbieter bieten nunmehr für diese Art der Kommunikation auch individuelle Softwarelösungen an. Das brachte den Firmen viele neue Chancen, um mit Kunden in den Dialog zu treten.

Automatisierung der Essensbestellung

Die Einsatzfelder von Chatbots werden immer vielfältiger. Bei Taco Bell, einer US-Kette in der Systemgastronomie, nimmt der Roboter inzwischen die Bestellung des Essens entgegen. Zusätzlich kümmert er sich noch um die Rechnung und gibt dem Kunden kulinarische Tipps mit auf den Weg. Auf Chatbots in der Kundenkommunikation greifen auch große Buchungsportale, Wetterdienste oder Anbieter für Gesundheitstipps zurück.

Chatbots zukünftig im Kundenservice?

Abhängig vom Fortschritt bei künstlicher Intelligenz und Machine Learning werden kommunikative Roboter zu virtuellen Assistenten. Sie übernehmen Aufgaben von Servicemitarbeitern und vereinfachen damit betriebliche Abläufe. Auch im Alltag zu Hause bieten sich Potenziale, Chatbots zu integrieren.

Wie sieht ein effektiver Schutz vor Manipulation aus?

Die sozialen Medien sind nicht nur ein Kanal zur Verbreitung von Fake News, sondern auch ein Einfallstor für Cyberangriffe. Netzwerke wie LinkedIn oder Xing erlauben es Außenstehenden, die Organigramme von Unternehmen vollständig nachzuvollziehen. Hinzu kommt die Gefahr von Sicherheitslücken.

Daher ist folgende Frage berechtigt: Wie können sich Regierungen, Parteien, Unternehmen oder andere Organisationen gegen Schadsoftware zur Wehr setzen und einen funktionierenden Datenschutz gewährleisten?

Möglichkeiten zum Schutz sind begrenzt

Facebook wie auch Google haben bereits eine Reihe von Maßnahmen gegen Fake News ergriffen. Auch Webseitenbetreiber mussten kürzlich erst im Zuge der DSGVO ihre Datenschutzbestimmung überarbeiten und an neues Recht anpassen. Doch radikale Abwehrmaßnahmen sind kaum denkbar. Eine Art „Ausweispflicht“ beispielsweise läuft darauf hinaus, dass Nutzer bei der Eröffnung eines Accounts bei Facebook oder Twitter einen ähnlichen Prozess zur Authentifizierung durchlaufen müssten, wie etwa beim Anlegen eines Girokontos.

Umgang mit Fake News

Wie sieht also der richtige Umgang mit falschen Nachrichten aus? Wer entscheidet letztendlich, was eine Fake News ist und was nicht? Welche Geschichte ist objektiv falsch und welche lediglich politisch „zusammen gesponnen“?

Auch wenn sich die Linie zwischen Recht und Unrecht meist trennscharf ziehen lässt, bleibt das Problem der Durchsetzung. Denn sitzen die Urheber von illegalen Handlungen im fernen Ausland, haben nationale Rechtsprechung oder EU-Recht keine Chance.

Aufklärung und Prävention sind wichtig

Die potenzielle Gefahr, die von Fake News, Social Bots oder Cyberattacken in den sozialen Medien ausgeht, erfordert gesamtgesellschaftliche Antworten. Im Mittelpunkt muss dabei die Aufklärung stehen, sowohl auf Makroebenen als auch in kleineren Bereichen. Parteien, Unternehmen und Institutionen, aber auch Einzelpersonen, kommen nicht daran vorbei, eigene nützliche Schutzmechanismen gegen die Risiken zu entwickeln.

Alle bisher bekannten Erfahrungen deuten darauf hin, dass umfangreiche Maßnahmen notwendig sind. Dazu gehören:

  • zusätzliche Investitionen in die IT-Sicherheit
  • Vorkehrungen zur Krisenkommunikation
  • stärkere Sensibilisierung der Mitarbeiter

Fake News sind in der Gesellschaft angekommen

Die Hälfte der Bundesbürger (50%) weiß relativ gut Bescheid über Fake News. Jeder fünfte Mensch in Deutschland (22%) hat ungefähr eine Vorstellung darüber, was ein Social Bot ist. Die große Mehrheit (90%) befürwortet eine stärkere Reglementierung von Bots, manche (43%) sogar ein gesetzliches Verbot. Fast zwei Drittel der Befragten (61%) sehen klassische Medien in der Pflicht, über Fake News aufzuklären. Ein Großteil (90%) der Deutschen wünscht sich sogar mehr Journalisten.

Bedeutung von Social Media Kanälen

Ein Viertel der Deutschen informiert sich in Social Media Kanälen, primär Facebook. Darüber hinaus nutzen sie regelmäßig vor allem Kanäle von Zeitungen und Magazinen (60%), öffentlich-rechtlichen Fernsehsendern (48%) und Einzelpersonen, Prominenten, Meinungsbildern und YouTubern.

Vertrauenswürdigkeit deutscher Medien

Deutsche Medien gelten im Vergleich zu internationalen Medien (Schweiz, Österreich, Niederlande, Frankreich, England, USA, Russland, Türkei) als die vertrauenswürdigsten (75%). In Ostdeutschland werden fast alle Medien etwas skeptischer betrachtet.

Erkennen von Fake News und Social Bots

Knapp vier von zehn Deutschen haben Social Bots bereits wahrgenommen, vor allem wenn sie Informationen zu politischen Themen über Social Media beziehen. „Enttarnt“ wurden die Social Bots am ehesten wegen ihrer vielen vergebenen „Likes“ und aufgrund verdächtiger Profile.

Robert Pohl ist Content Manager bei der semcona GmbH. Er bestreitet den digitalen Mehrkampf mit großer Leidenschaft und bringt seine vielfältigen Erfahrungen in verschiedenen Bereichen wie Social Media, Online-Redaktion, SEO, SRO und Community Management ein.