Zum Hauptinhalt springen

User Agent Blocking

In diesem Artikel zeigen wir dir, wie du User Agents blockierst und erklären die technischen Grundlagen dahinter.

Verfasst von Kerstin Kegel

Wann ist User Agent Blocking sinnvoll

Aggressives Crawling oder Bot Traffic kann zu hoher CPU Last und Performance Problemen führen.

Wenn Zugriffe von vielen unterschiedlichen IP Adressen kommen, ist klassisches
IP Blocking oft nicht ausreichend. In solchen Fällen kannst du Bots gezielt über ihren User Agent identifizieren und blockieren.

💡 Was ist ein User Agent?

Ein User Agent ist Teil des HTTP Headers und wird vom Client an den Server gesendet. Er enthält Informationen über Browser, Version, Betriebssystem oder die Identität eines Bots.

Beispiel eines Browser User Agents:

Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36

Beispiel eines Bots:

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

🔗 Weitere technische Details zur Syntax findest du in der offiziellen Dokumentation von Mozilla


User Agent blockieren

So gehst du vor:

Schritt 1: Funktion öffnen

a) Öffne deine betreffende Box und gehe zu den Box Einstellungen

b) Wähle Sicherheit und gehe zu User Agent Blocking

c) Klicke auf den grauen Button 'Neuer Eintrag'

Schritt 2: Felder ausfüllen

Gib im Modalfenster die benötigten Werte ein:

a) User Agent Name

Interner Name zur Wiedererkennung. Dieser Name hat keine Auswirkungen auf die Funktion der jeweiligen Regel.

💡 Tipp:
Als Best Practice empfiehlt sich folgende Struktur für den User Agent Namen:

[Bot oder Crawler Name] - [Zweck oder Grund]

Beispiele:

  • AhrefsBot – hohes Crawl Volumen

  • SemrushBot – Performanceauswirkung

  • GPTBot – unerwünschtes KI Crawling

  • MJ12bot – übermäßige Anfragen


​b) User Agent String

Hier trägst du die Zeichenkette ein, anhand der der Bot erkannt werden soll.

Den passenden Wert findest du in den Access Logs deiner Box. Der User Agent steht dort am Ende jeder Log Zeile in Klammern.

Beispiel einer Log Zeile:

66.249.66.1 - - [18 Feb 2026:12:34:56 +0000] "GET / HTTP/1.1" 200 5321 "-" "Mozilla/5.0 (compatible; DotBot/1.2; +https://moz.com/dotbot)"

Im obigen Beispiel wäre der User Agent String: DotBot

Weitere häufige Bot Beispiele aus der Praxis

BLEXBot, SeznamBot, YandexBot, PetalBot, Bytespider, ZoominfoBot

(Bitte prüfe vor dem Blockieren, ob der Bot für deine Seite relevant ist.)

c) Match Mode

(Exact Match): Zeichenkette enthält vollständigen User Agent

Geeignet, wenn du exakt einen bestimmten Bot blockieren möchtest.

Risiko gering, aber selten nötig.


(Contains Match): Zeichenkette enthält Teil des User Agent

Geeignet bei klar erkennbaren Bot Namen wie AhrefsBot oder DotBot.

⚠️ Verwende keine allgemeinen Begriffe wie:


Mozilla, Chrome, Safari, AppleWebKit, Gecko, Windows, Linux

Das würde echte Besucher blockieren.


Schritt 3: Regel speichern

a) Klicke letztlich auf Speichern.

Das Modal schließt sich und du siehst eine Übersicht aller bestehenden Einträge.

Dort kannst du:

  • neue Einträge erstellen

  • bestehende Regeln bearbeiten

  • Regeln löschen

ℹ️ Neue oder geänderte Regeln greifen nach etwa 1 Minute.


Bevor du einen User Agent blockierst

Nicht jeder Bot ist problematisch. Einige Crawler sind wichtig für Sichtbarkeit und SEO.

Blockiere nur User Agents, wenn mindestens einer der folgenden Punkte zutrifft:

  • Sehr hohe Anzahl an Requests in kurzer Zeit

  • Spürbare CPU Last oder Performance Probleme

  • Mehrere tausend Requests pro Stunde

  • Zugriff auf viele nicht relevante URLs

  • Wiederholtes Crawling identischer Seiten

Wenn kein Performanceproblem besteht, ist ein Blocking in der Regel nicht notwendig.


Welche Bots solltest du in der Regel nicht blockieren

Diese Bots sind meist gewünscht:

  • Googlebot

  • bingbot

  • AdsBot Google

  • Applebot

Ein Blockieren kann sich negativ auf SEO und Indexierung auswirken.


Wie erkenne ich problematisches Crawling

Prüfe in den Access Logs:

  • Anzahl der Requests pro IP oder User Agent

  • Zugriff Frequenz

  • Antwortzeiten

  • Statuscodes

Wenn ein Bot nur wenige Requests pro Stunde erzeugt, besteht meist kein Handlungsbedarf.


Temporäres Blocking bei hoher Serverlast

In Ausnahmefällen kann es sinnvoll sein, auch grundsätzlich gewünschte Bots (z. B. Suchmaschinen oder SEO Crawler) vorübergehend zu blockieren.

Zum Beispiel:

  • Während einer Traffic Spitze

  • Bei akuten CPU Engpässen

  • Bei Migrationen oder Wartungsarbeiten

  • Wenn die Seite bereits instabil reagiert

⚠️ Wichtig:
Ein dauerhaftes Blocking von Suchmaschinen kann negative Auswirkungen auf SEO und Indexierung haben.

Ein temporäres Blocking kann jedoch helfen, die Stabilität deiner Seite kurzfristig wiederherzustellen.

Nach der Entlastung solltest du die Regel wieder entfernen.


AI Bots - Chancen und Risiken

In den letzten Jahren greifen vermehrt sogenannte AI Bots auf Webseiten zu.

Dazu zählen beispielsweise:

  • GPTBot

  • ClaudeBot

  • PerplexityBot

  • Google Extended

  • Bytespider

Diese Bots werden genutzt, um Inhalte für KI Modelle zu trainieren oder Suchdienste mit KI Funktionen bereitzustellen.

Mögliche Nachteile

  • Hohe Crawling Frequenz

  • Zugriff auf viele Unterseiten in kurzer Zeit

  • Erhöhte CPU Last

  • Unerwünschte Weiterverwendung von Inhalten

Mögliche Vorteile

  • Sichtbarkeit in KI gestützten Suchsystemen

  • Potenzieller zusätzlicher Traffic

  • Relevanz in zukünftigen Suchumgebungen

Ob AI Bots blockiert werden sollen, ist eine bewusste strategische Entscheidung.

Es gibt hier kein generelles „richtig“ oder „falsch“.

Überlege dir:

  • Möchtest du, dass deine Inhalte in KI Systemen erscheinen?

  • Verursacht der Bot messbare Performance Probleme?

  • Ist deine Seite auf maximale Reichweite oder eher auf Schutz deiner Inhalte ausgerichtet?

Wenn kein Performanceproblem vorliegt, ist ein Blocking nicht zwingend notwendig.



Was genau passiert bei einem Blocking?

Geblockte Anfragen erhalten den HTTP Statuscode 403 (Forbidden).

Das bedeutet, dass der Server die Anfrage erkennt, den Zugriff jedoch aktiv verweigert. Der Bot oder Client erhält keinen Zugriff auf die angeforderte Ressource.

Da die Anfrage frühzeitig abgelehnt wird:

  • werden keine PHP Prozesse gestartet

  • wird keine WordPress Instanz geladen

  • werden keine Datenbankabfragen ausgeführt

Dadurch reduziert sich die Serverlast im Vergleich zu regulären Seitenaufrufen deutlich.


Unterschied zwischen robots.txt und User Agent Blocking

Über die robots.txt kannst du Suchmaschinen und Bots Anweisungen geben, welche Bereiche deiner Webseite gecrawlt werden dürfen.

Diese Anweisungen sind jedoch freiwillig. Seriöse Suchmaschinen halten sich daran, viele andere Bots jedoch nicht.

User Agent Blocking hingegen erfolgt serverseitig. Anfragen geblockter User Agents werden direkt mit dem Statuscode 403 beantwortet.

Während robots.txt das Crawling steuert, verhindert User Agent Blocking den Zugriff vollständig.

Wenn du lediglich das Crawling bestimmter Bereiche einschränken möchtest, ist robots.txt oft die bessere Wahl.

Wenn ein Bot jedoch trotz robots.txt Anweisungen hohe Last verursacht, kann User Agent Blocking sinnvoll sein.



​ℹ️Verwandte Artikel

Hat dies deine Frage beantwortet?