Restaurant-Bewertungen von Computer kaum erkennbar
In der Vergangenheit gab es immer wieder Berichte über gefälschte Kommentare auf Bewertungsplattformen. Es gibt sogar Unternehmen, die sich auf den Verkauf von Bewertungen spezialisiert haben. Dort kann man für eine bestimmte Summe positive Erfahrungsberichte erwerben.
Inzwischen werden jedoch keine Menschen mehr für das Erstellen einer Online-Bewertung benötigt. An der University of Chicago haben Forscher eine künstliche Intelligenz entwickelt, die „menschliche“ Bewertungen für Restaurants, Bars und andere gastronomische Betriebe erstellen kann. Diese Berichte sollen von echten Rezensionen realer Gäste kaum zu unterscheiden sein.
„I love this place. I went with my brother and we had the vegetarian pasta and it was delicious. The beer was good and the service was amazing. I would definitely recommend this place to anyone looking for a great place to go for a great breakfast …“ (deutsch: Ich liebe diesen Platz. Ich war mit meinem Bruder dort, wir hatten ein vegetarisches Pasta-Gericht, es war sehr lecker. Das Bier war gut und der Service perfekt. Ich kann dieses Lokal definitiv jedem empfehlen, der auf der Suche nach einem schönen Ort für ein großartiges Frühstück ist …), lautet eine Beispielkritik des neu entwickelten Algorithmus. Ein solcher Satz lässt sich nicht ohne Weiteres als maschinell erstellt erkennen. Alles in allem ein glaubwürdiger Fake, auch wenn sich vielleicht manch einer fragen wird, wer zum Frühstück Bier und Pasta bestellt.
Bedrohung für die Gesellschaft
Bezüglich der Nützlichkeit von Fake-Rezensionen wurden die Bewertungen 600 Personen vorgelegt, zusammen mit echten Berichten von realen Personen. Auf einer Skala von 1 bis 5 sollten diese eingrenzen, wie nützlich sie die jeweilige Bewertung finden. Das Ergebnis: Die Fakes schnitten mit einem Durchschnittswert von 3,15 nur unwesentlich schlechter ab, als die echten Bewertungen, die auf einen Wert von 3,28 kamen.
Dieses Ergebnis zeigt, dass die bislang üblichen Maßnahmen zur Vermeiden von Fake-Bewertungen bei diesem Algorithmus nicht funktionieren würden, so Forschungsleiter Ben Zhao. Denn dabei würden auch zahlreiche echte Rezensionen gelöscht werden. „Ich denke es ist eine Bedrohung der gesamten Gesellschaft (…) und unseres Glaubens daran, was echt und was unecht ist. Ich denke, das ist von fundamentaler Bedeutung“, sagt Zhao, der die künstliche Intelligenz nicht nur für Kundenrezensionen bei Amazon oder auf anderen Portalen als sehr gefährlich einstuft. (derstandard.at/MJ)