Kleine Maschinen

Wie gut oder böse sind die Bots im Internet?

Bild
Bots kann man sich wie kleine Maschinen im Internet vorstellen, die bestimmt Aufgaben erledigen (Symbolbild) Bild: iAdvize/dpa

Sie informieren über Wetter und News, lösen den Anruf im Call-Center ab – werden aber auch darauf angesetzt, Wahlen zu manipulieren. Bots, die online mit Menschen kommunizieren, breiten sich aus. Ein Einblick in die Welt ihrer Entwickler – und Jäger.

Berlin/Hamburg Alles beginnt mit einem „Hallo!“. Max Koziolek tippt die Begrüßung in eine Maske in seiner Software - und lässt gleich weitere folgen. „Guten Tag!“, „Hi!“, „Grüß Gott!“. Die Maschine wird dann eines der Worte auswählen. Koziolek programmiert einen Chatbot - eine Software, die sich im Netz mit Menschen unterhält. Er ist Chef des Berliner Start-ups Spectrm.

Es hilft Medienunternehmen, ihre Inhalte in einfachen Dialogen rüberzubringen. Wie etwa: „Möchtest du mehr darüber erfahren?“ Je nachdem, ob der Nutzer „Ja“ oder „Nein“ eintippt, wird der nächste Informationsschnipsel eingeblendet. Oder die Software wechselt zum nächsten Thema.

Bots sind ein aktuelles Netz-Phänomen mit entsprechendem Hype. Schon jetzt kommen wir immer wieder mit ihnen in Kontakt, zum Beispiel wenn man Assistenten wie „Siri“ oder „Alexa“ nach dem Wetter fragt. Und in Zukunft wird man noch häufiger auf Bots treffen. Etwa wenn Dialog-Software in großem Stil im Kundendienst von Unternehmen die Call-Center ersetzt. Die Kehrseite des Trends ist die Angst vor Bot-Armeen, die Wahlen beeinflussen, indem sie die öffentliche Meinung manipulieren.

Hinter den heutigen Bot-Konversationen steckt noch mehr Mensch als Maschine. Die Äußerungen der Software bewegen sich in einem engen Rahmen, der vom Programmierer vorgegeben wurde.

„Die Antworten, die ein Chatbot gibt, müssen auf irgendeine Weise von Menschen erstellt werden“, sagt Koziolek. Chatbots, die selbst Inhalte formulieren und eine Unterhaltung führen können, seien zwar definitiv das Ziel. „Das wird früher oder später kommen.“ Doch im Moment komme man nicht daran vorbei, auch selbstlernende Bots von Menschen beaufsichtigen zu lassen.

Microsofts Debakel mit dem Spaß-Chatbot „Tay“, dem böswillige Internet-Nutzer binnen Stunden rassistische Ansichten beibrachten, sei ein mahnendes Beispiel dafür, wie man es nicht machen sollte.

EINE FRAGE DER PERSÖNLICHKEIT

Auch wenn heutige Chatbot-Kontakte simpel anmuten, der Aufwand dahinter ist groß. Immer wieder versuchten Nutzer, vom geplanten Dialogpfad abzuweichen - „auszubrechen“, wie Koziolek es nennt. Was macht man dann? Eine Lösung ist, die Frage einfach zu wiederholen. Oder der Bot fischt eine freche Bemerkung aus seinem vorprogrammierten Satz-Fundus. „Das hängt davon ab, welche Persönlichkeit man dem Bot geben will.“

Persönlichkeit? Soll ein Chatbot menschlich rüberkommen - oder einfach nur seine Aufgabe erfüllen? Hier scheiden sich die Geister. Koziolek ist dafür: „Wenn man den Bot menschlicher erscheinen lässt, funktionieren viele Sachen einfach besser“, sagt er.

Internet-Investor Phil Libin, der gerade in San Francisco ein Studio für Bot-Entwickler aufbaut, ist ganz anderer Meinung. „Wenn ich als Nutzer auf einen Chatbot treffe, will ich meistens nur ein Problem gelöst haben, sonst nichts. Dafür muss er nicht einen Menschen imitieren.“

RISIKO AUTOMATISCHE MEINUNGSMACHE

Wer sich schon von der Idee her als Mensch ausgibt, sind die sogenannten Social Bots, die Online-Netzwerke wie Facebook und Twitter mit Einträgen fluten. Spätestens seit der auch stark durch Internet-Kampagnen entschiedenen US-Präsidentenwahl gelten sie als Schreckgespenst für die Demokratie.

Amerikanische IT-Sicherheitsexperten vermuten hinter Tausenden Profilen, die etwa mit verzerrenden Kommentaren zu Medienberichten Stimmung machen, zwar weniger Automaten, sondern eine Legion günstiger Arbeitskräfte, die nach Vorgaben Botschaften in Smartphones tippen. Mit Dutzenden Geräten pro Person. „Einmal haben sie vergessen, das GPS von einem solcher Telefon abzuschalten. Es befand sich in Sankt Petersburg“, sagt ein ranghoher US-Fachmann.

Aber was oder wer auch immer dahintersteckt - in der deutschen Politik formiert sich ein Konsens, davon die Finger zu lassen. „Politische Parteien sollten im Wahlkampf und auch sonst komplett auf den Einsatz von Social Bots verzichten“, sagt Bundesjustizminister Heiko Maas (SPD).

DER BOT-JÄGER

Die Gefahr der automatisierten Stimmungsmache bringt auch Bot-Jäger wie Christian Stöcker auf den Plan. Schon in seiner Zeit als Journalist beschäftigte er sich mit dem Thema. Heute ist er Professor an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und informiert als Experte politische Entscheider in Berlin darüber, welche Auswirkungen Bots haben können. Und wie man sie aufspürt. Dazu läuft in Hamburg sowie anderen Orten der Welt ein Forschungsprojekt. Stöckers Kollegen entwickeln ein System, das Bots enttarnen kann.

„Bots sind ein bewegliches Ziel“, sagt der Bot-Jäger in Hamburg. Entwickler bauen immer ausgefeiltere Netze, um unentdeckt zu bleiben. Damit sind die Gejagten ihren Verfolgern meist einen Schritt voraus. Noch. Das wurmt den 44-Jährigen. Er gestikuliert, beschreibt eigene Erfahrungen mit Bot-Accounts. Vor allem auf Twitter, wo viele lauern.

Am Tag der Brexit-Entscheidung - also der Abstimmung zum Austritt aus der EU - schrieben ihn mehrere angebliche Nutzer aus Großbritannien mit immer der gleichen Frage an: „Wird Angela Merkel den Brexit akzeptieren?“ Am Ende fand Stöcker heraus: Mehrere deutsche Journalisten wurden von rund 40 Accounts angetwittert - mit der gleichen Frage. Wohl in der Hoffnung, dass Meinungsführer den Satz retweeten oder in ihre Berichterstattung aufnehmen. Und so eine angebliche Sorge der britischen Bevölkerung transportieren.

Gut gemachte Accounts für solche Aktionen werden, so berichten US-Experten, normal angelegt: mit Profilbild und ein paar Einträgen wie einem Cappuccino-Foto aus einem Lokal. Und dann eingemottet. Bis sie vor einem Großereignis wie einer Wahl in Massen aufwachen.

Die Rolle der Bots lässt sich optisch zeigen: Auf Stöckers Bildschirm sind Hunderte blaue und rote Punkte zu sehen. Unterschiedlich groß. Manche mit grauen Linien miteinander verbunden. Das ist eine Grafik aus einer US-Studie zum Thema Social Bots. Die Wissenschaftler analysieren darin eine Twitter-Diskussion zwischen Impfbefürwortern und Impfgegnern. „Die roten Punkte sind mutmaßliche Bots. Die blauen sind die mutmaßlich menschlichen Teilnehmer dieser Debatte“, erklärt Stöcker. „Je mehr Retweets ein Nutzer generiert, je relevanter er dadurch wird, desto größer ist der Punkt dargestellt.“

WIE MAN BOTS ERKENNT

Wir sehen: Die roten Punkte - also die Social Bots - sind in der Mehrzahl und deutlich größer. Die Tweets dieser Bots sprechen sich klar gegen das Impfen aus. Es handle sich, so folgert die Studie, um ein Bot-Netzwerk, das von Impfgegnern in Stellung gebracht wurde. Diese eine Diskussion wird also mehrheitlich von Computern geführt. Sie verbreiten Argumente in ihrem Netzwerk und darüber hinaus in das weltweite Twitter-Universum. Meinungsmacher Maschine.

Stöcker ist fasziniert. Die Diskussion über Social Bots mündet für ihn am Ende in eine grundsätzliche, moralische Frage: „Habe ich als Mensch das Recht zu wissen, ob ich mit einer Maschine kommuniziere oder nicht?“ In nicht allzu ferner Zukunft müsse das die Gesellschaft für sich entscheiden. Am Ende vielleicht die Politik.

Was also unterscheidet einen menschlichen von einem künstlichen Twitter-Nutzer? Kann ich Social Bots sogar selbst aufspüren? „Ja“, sagt der Hamburger Experte. Wenn die automatisierten Systeme nicht allzu komplex sind, können einige Kriterien helfen, Bots zu erkennen:

- Ein Account hat kein Profilbild, dann kann er ein schlicht gemachter Bot sein: „Hier sollte man als Erstes skeptisch werden.“

- Die Twitter-Biografie ist nicht ausgefüllt oder macht sprachlich keinen Sinn: „In der Biografie eines Bots, der mich bei Twitter angeschrieben hatte, stand: „Ich bin ein junger Vater einer Familie und liebe den Kuchen.“ Spätestens an dieser Stelle ist klar, dass das eine mit einer Übersetzungssoftware erstellte Biografie ist.“

- Das Profil folgt vielen anderen Accounts, hat aber kaum eigene Follower: „Ein typisches Bot-Merkmal.“

- Von dem Profil werden ungewöhnlich viele Tweets abgesetzt: „Ein Account, der pro Minute einen Tweet schreibt, 24 Stunden am Tag, kann eigentlich kein Mensch sein.“

- Das Profil retweetet deutlich mehr, als eigene Tweets zu schreiben: „Denn das ist für einen Bot viel einfacher.“

- Der Account nutzt häufig eine feste Kombination von Hashtags: „Das ist bei Bots gängig, um bestimmte Hashtags populär zu machen.“

Auch wenn es für Twitter-Nutzer diese Anhaltspunkte für Bot-Accounts gibt, können echte Bot-Jäger wie Christian Stöcker damit allein noch nicht gut arbeiten. Denn bei der Menge an Daten sei es nicht möglich, nach und nach einzelne Profile zu überprüfen.

„Kürzlich hat ein Forscher ein Bot-Netz mit 300 000 Accounts entdeckt. Bei den Zahlen kann sich kein Mensch die einzelnen Nutzer angucken und checken. Sie müssen also eine Software schreiben, die mit bestimmten Kriterien arbeitet“, erklärt der Experte. „Wir versuchen also, aus einer ganzen Reihe von Merkmalen ein mathematisches Modell zu bauen, mit dem man einen Bot mit einer gewissen Wahrscheinlichkeit von echten Accounts unterscheiden kann.“

SOFTWARE ZUR ENTTARNUNG VON BOTS

Die Hamburger Forscher tauschen sich mit anderen Experten aus, die weltweit auf der Bot-Jagd sind. Die Software „Bot or Not“ und mehrere Internetseiten versuchen ebenfalls, falsche Twitter-Nutzer aufzuspüren. „Botwatch.de“ analysiert zum Beispiel Tweets zu Polit-Talkshows auf mögliche Bots.

Eines der Ergebnisse: Nach einer „Anne Will“-Sendung im Dezember 2016 kam fast jeder fünfte Tweet mit dem Hashtag „#annewill“ mutmaßlich von einem Bot. Die Macher der Seite definieren diese beispielsweise als Accounts, die durchschnittlich 50 oder mehr Tweets am Tag und/oder 50 oder mehr Likes am Tag vorweisen. Die Likes mit dem Herz-Symbol haben bei Twitter das Favorisieren von Tweets abgelöst.

Die Erkennungsmechanismen sind ein Anfang. Optimal sind sie aber noch nicht. Denn die „Betreiber von Bot-Armeen“ (Stöcker) lassen sich im technischen Wettrüsten mit ihren Jägern immer etwas Neues einfallen.

Von den sozialen Netzwerken selbst und ihren Verantwortlichen erwartet der Experte im Kampf gegen „böse“ Bots nicht viel. Twitter führe zwar regelmäßig „Bot-Schlachtungen“ durch, löscht diese also, sei daran aber nach seinem Eindruck in der Regel nicht interessiert: „Es geht natürlich auch darum, die Nutzerzahlen möglichst hochzuhalten.“ Stöcker hofft, dass sich die Gesellschaft zumindest mit dem Phänomen Bots beschäftigt. Mit guten und schlechten. Mit Bots, die Dienste leisten, und solchen, die Meinungen manipulieren.

ES LEBE DER GUTE BOT

Denn dass wir in absehbarer Zukunft in vielen Lebensbelangen zunehmend häufiger mit Maschinen Kontakt haben werden, scheint klar. Facebook will mit seinem Kurzmitteilungsdienst Messenger ein Vorreiter dabei sein. Die Plattform soll zum Ort werden, an dem Unternehmen über Bots mit ihren Kunden kommunizieren, beschreibt Messenger-Chef David Marcus die Vision. „Keine Warteschleifen im Call Center mehr. Stattdessen hat man als Kunde auch gleich alle nötigen Daten und Unterlagen an einem Ort.“

Über 30 000 Bots, bei denen man sich zum Beispiel über Wetter oder aktuelle News informieren kann, sind bereits auf der Messenger-Plattform aktiv. Zudem arbeitet Facebook an einem eigenen Super-Bot, einem persönlichen Assistenten mit dem Namen „M“. Er soll wie eine Art Butler Probleme für Nutzer lösen: Restaurant reservieren, Klempner-Termin, Taxi bestellen: „M“ kümmert sich darum.

Dabei lernt die Software mit der Zeit, was in gewissen Situationen zu tun ist. Und zwar auch von menschlichen Mitarbeitern, die erst selbst für die Nutzer den Butler spielen. „Wenn wir es so geschafft haben, dass eine Aufgabe automatisch funktioniert, gehen wir zur nächsten über“, beschreibt Produktchef Stan Chudnovsky den Prozess.

Eine bemerkenswerte Besonderheit dabei: „Wir wissen zwar, wie die Software lernt. Aber wir wissen vorher nicht, was sie lernen wird“, sagt Chudnovsky. Die Ergebnisse fielen oft überraschend aus. Hinter den selbstlernenden Chatbots stecken neuronale Netze, die im Prinzip dem menschlichen Nervensystem und Gehirn nachgebildet sind. „Wie bei einem Kind“, sagt Koziolek. Der Entwickler fühle sich manchmal wie ein Bot-Papa. „Man denkt, „komm jetzt, das kannst du“ oder „wie bist du denn jetzt darauf gekommen?““

Menschen neigten dazu, Computer zu vermenschlichen. Man baue oft eine Art Beziehung zu ihnen auf. In manchem seien sich Mensch und Maschine auch ähnlich: „Es ist erstaunlich, wie viele von unseren alltäglichen Gesprächen mechanisch ablaufen: Hallo! - Hallo! - Wie läuft’s? - Ja, muss, nich?“ Für eine Software sei es nicht so schwer, eine bessere Unterhaltung zu führen.

Mehr aus diesem Ressort

Politik

Panorama

Sport

Wirtschaft

Kultur

Motor

Reisen

Aktuelle Fotostrecken