Klicks ohne Kund:innen

Für E-Commerce-Unternehmen wie Amazon werden automatisierte Bots zunehmend zum Problem

Dass nicht jeder Besuch einer Website von echten Nutzer:innen stammt, ist keine Neuigkeit. Doch das Ausmaß wird langsam zu einem echten Problem, nicht zuletzt dank der Entwicklung immer neuer KI-Systeme: Laut Imperva Report 2025 werden inzwischen mehr als die Hälfte aller Klicks im Netz nicht mehr von Menschen getätigt, sondern von Maschinen.

Dabei ist Bot nicht gleich Bot: Während gutartige („legitimate“) Bots beispielsweise Informationen für Suchmaschinen wie Google sammeln, sorgen bösartige („malicious“) Bots für Fake-Klicks, Account-Hacks oder Phishing-Kampagnen. In Deutschland stammen dem Report zufolge sogar 67,5 % aller Bot-Zugriffe von solchen schadhaften oder kriminellen Bots. Ein unrühmlicher Spitzenwert im internationalen Vergleich.

Ein wachsendes Problem für Amazon und seine Seller

Besonders betroffen sind große E-Commerce-Plattformen wie Amazon. Denn je mehr automatisierter Traffic auf Amazon unterwegs ist, desto größer die Gefahr, dass Rankings manipuliert, Werbekosten aufgebläht und Conversion-Rates durch Fake-Traffic verzerrt werden.

Ein Beispiel: Ein Seller, der Werbung über Amazon Ads schaltet, zahlt für jeden Klick (PPC – pay per click). Wenn ein Teil dieser Klicks jedoch von Bots anstelle von echten Kaufinteressent:innen stammt, verbraucht der Seller dafür Werbebudget, ohne dass daraus je ein Verkauf resultiert. Das senkt nicht nur den Erfolg der Werbekampagne, sondern auch die Conversion Rate – eine Kennzahl, die wiederum Einfluss auf das organische Ranking hat.

Glücklicherweise filtert Amazon seit (mindestens) September 2022 diesen ungültigen Traffic heraus. Wie gut dieser Filter funktioniert, wissen wir nicht, doch wer Interesse hat, sich seinen (geschätzten) Fake-Traffic einmal anzuschauen, kann sich bei den Werbeberichten den Berichtstyp „Brutto- und ungültiger Traffic“ herunterladen. Eine Stichprobe mehrerer meiner Kunden bei Sponsored Products-Werbung zeigt: ca. ein Drittel der Impressionen und zwischen 6,43 % und 11,69 % der Klicks sind ungültig, also Bot-getrieben. Etwas besser sieht es bei Sponsored Brands- und Sponsored Display-Werbekampagnen aus, aber auch hier liegt die Rate ungültiger Klicks im hohen einstelligen Bereich.

via GIPHY

Zudem können automatisierte Bots die Traffic-Statistiken verzerren: Ein Produkt scheint besonders gefragt oder wird auffällig oft aufgerufen, obwohl die Zugriffe nicht von realen Kund:innen stammen. Solche verfälschten Daten können wiederum zu Fehlentscheidungen, etwa bei der Preisgestaltung, der Auswahl von Keywords oder der Planung von Lagerbeständen, führen. Auch werden Bots gezielt von der Konkurrenz eingesetzt, um durch “Click-Fraud”-Methoden die Klickkosten in die Höhe zu treiben oder die Performance eines Listings negativ zu beeinflussen. Auch können Scraper-Bots Preisinformationen, Produkt- und Bildbeschreibungen abgreifen, um damit Phishing-Kampagnen zu erstellen. Natürlich haben nicht alle dieser Scraper-Bots böse Absichten, denn viele externe Tools, die von Amazon-Sellern genutzt werden, nutzen gescrapte Daten (notgedrungen, da Amazon diese nicht – oder nicht ohne größeren Aufwand – bereitstellt).

Amazon setzt auf bessere Daten durch sauberen Traffic

Um zwischen echtem Nutzerinteresse und schädlichem Bot-Verhalten unterscheiden und sich gegen böswillige Bots zur Wehr setzen zu können, investiert Amazon in Technologien und Teams:

SLIDR: SLIce-level detection of robots (SLIDR) ist ein von Amazon entwickeltes Deep-Learning-Modell, das in Echtzeit erkennt, ob ein Klick auf eine Anzeige von einem Menschen oder einem Bot stammt. SLIDR soll betrügerische Ad-Klicks direkt entlarven und so Marketingbudgets schützen.

AWS WAF Bot Control: Dieser Sicherheitsdienst nutzt JavaScript-Abfragen und Browser-Fingerprinting, um automatisierte Zugriffe, zum Beispiel von aggressiven Web-Scrapern oder Angriffen über APIs, zu identifizieren und zu blockieren. Auch hier steht nicht nur die Sicherheit im Vordergrund, sondern die Sicherung valider Nutzerdaten für alle Dienste, die auf Amazons Cloud-Infrastruktur basieren (AWS Security Blog, 2023).

Darüber hinaus investiert Amazon in fachliche Expertise: Im hauseigenen Traffic Engineering Team arbeiten Mitarbeiter:innen an Systemen, die Bot-Traffic auf Plattformen und in Werbenetzwerken automatisch erkennen, einstufen und bei Bedarf herausfiltern. Der Bedarf an Spezialist:innen steigt, wie ein Blick auf aktuelle Stellenausschreibungen zeigt.

Fazit

Nicht jeder Klick ist ein guter Klick. Automatisierter Traffic kann für Seller nicht nur zu höheren Werbekosten, schlechterem Ranking und strategischen Fehlentscheidungen führen, sondern auch zu kriminellen Angriffen auf ihre Produkte und Accounts. Amazon reagiert und investiert vermehrt in Systeme, um automatisierte Bots zu entdecken und kriminelle Bot-Angriffe zu verhindern. Ziel ist es, die Qualität des Traffics auf Amazon genauso verlässlich zu steuern wie die Produktempfehlungen oder die Logistikprozesse im Hintergrund. Ob das Rennen gegen die Bots zu gewinnen ist?

PS Finden Sie diese Informationen hilfreich? Dann melden Sie sich gerne für meinen Newsletter an.