Wann ist User Agent Blocking sinnvoll
Aggressives Crawling oder Bot Traffic kann zu hoher CPU Last und Performance Problemen führen.
Wenn Zugriffe von vielen unterschiedlichen IP Adressen kommen, ist klassisches
IP Blocking oft nicht ausreichend. In solchen Fällen kannst du Bots gezielt über ihren User Agent identifizieren und blockieren.
💡 Was ist ein User Agent?
Ein User Agent ist Teil des HTTP Headers und wird vom Client an den Server gesendet. Er enthält Informationen über Browser, Version, Betriebssystem oder die Identität eines Bots.
Beispiel eines Browser User Agents:
Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36
Beispiel eines Bots:
Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
🔗 Weitere technische Details zur Syntax findest du in der offiziellen Dokumentation von Mozilla
User Agent blockieren
So gehst du vor:
Schritt 1: Funktion öffnen
a) Öffne deine betreffende Box und gehe zu den Box Einstellungen
b) Wähle Sicherheit und gehe zu User Agent Blocking
c) Klicke auf den grauen Button 'Neuer Eintrag'
Schritt 2: Felder ausfüllen
Gib im Modalfenster die benötigten Werte ein:
a) User Agent Name
Interner Name zur Wiedererkennung. Dieser Name hat keine Auswirkungen auf die Funktion der jeweiligen Regel.
💡 Tipp:
Als Best Practice empfiehlt sich folgende Struktur für den User Agent Namen:
[Bot oder Crawler Name] - [Zweck oder Grund]
Beispiele:
AhrefsBot – hohes Crawl Volumen
SemrushBot – Performanceauswirkung
GPTBot – unerwünschtes KI Crawling
MJ12bot – übermäßige Anfragen
b) User Agent String
Hier trägst du die Zeichenkette ein, anhand der der Bot erkannt werden soll.
Den passenden Wert findest du in den Access Logs deiner Box. Der User Agent steht dort am Ende jeder Log Zeile in Klammern.
Beispiel einer Log Zeile:
66.249.66.1 - - [18 Feb 2026:12:34:56 +0000] "GET / HTTP/1.1" 200 5321 "-" "Mozilla/5.0 (compatible; DotBot/1.2; +https://moz.com/dotbot)"
Im obigen Beispiel wäre der User Agent String: DotBot
Weitere häufige Bot Beispiele aus der Praxis
BLEXBot, SeznamBot, YandexBot, PetalBot, Bytespider, ZoominfoBot
(Bitte prüfe vor dem Blockieren, ob der Bot für deine Seite relevant ist.)
c) Match Mode
(Exact Match): Zeichenkette enthält vollständigen User Agent
Geeignet, wenn du exakt einen bestimmten Bot blockieren möchtest.
Risiko gering, aber selten nötig.
(Contains Match): Zeichenkette enthält Teil des User Agent
Geeignet bei klar erkennbaren Bot Namen wie AhrefsBot oder DotBot.
⚠️ Verwende keine allgemeinen Begriffe wie:
Mozilla, Chrome, Safari, AppleWebKit, Gecko, Windows, Linux
Das würde echte Besucher blockieren.
Schritt 3: Regel speichern
a) Klicke letztlich auf Speichern.
Das Modal schließt sich und du siehst eine Übersicht aller bestehenden Einträge.
Dort kannst du:
neue Einträge erstellen
bestehende Regeln bearbeiten
Regeln löschen
ℹ️ Neue oder geänderte Regeln greifen nach etwa 1 Minute.
Bevor du einen User Agent blockierst
Nicht jeder Bot ist problematisch. Einige Crawler sind wichtig für Sichtbarkeit und SEO.
Blockiere nur User Agents, wenn mindestens einer der folgenden Punkte zutrifft:
Sehr hohe Anzahl an Requests in kurzer Zeit
Spürbare CPU Last oder Performance Probleme
Mehrere tausend Requests pro Stunde
Zugriff auf viele nicht relevante URLs
Wiederholtes Crawling identischer Seiten
Wenn kein Performanceproblem besteht, ist ein Blocking in der Regel nicht notwendig.
Welche Bots solltest du in der Regel nicht blockieren
Diese Bots sind meist gewünscht:
Googlebot
bingbot
AdsBot Google
Applebot
Ein Blockieren kann sich negativ auf SEO und Indexierung auswirken.
Wie erkenne ich problematisches Crawling
Prüfe in den Access Logs:
Anzahl der Requests pro IP oder User Agent
Zugriff Frequenz
Antwortzeiten
Statuscodes
Wenn ein Bot nur wenige Requests pro Stunde erzeugt, besteht meist kein Handlungsbedarf.
Temporäres Blocking bei hoher Serverlast
In Ausnahmefällen kann es sinnvoll sein, auch grundsätzlich gewünschte Bots (z. B. Suchmaschinen oder SEO Crawler) vorübergehend zu blockieren.
Zum Beispiel:
Während einer Traffic Spitze
Bei akuten CPU Engpässen
Bei Migrationen oder Wartungsarbeiten
Wenn die Seite bereits instabil reagiert
⚠️ Wichtig:
Ein dauerhaftes Blocking von Suchmaschinen kann negative Auswirkungen auf SEO und Indexierung haben.
Ein temporäres Blocking kann jedoch helfen, die Stabilität deiner Seite kurzfristig wiederherzustellen.
Nach der Entlastung solltest du die Regel wieder entfernen.
AI Bots - Chancen und Risiken
In den letzten Jahren greifen vermehrt sogenannte AI Bots auf Webseiten zu.
Dazu zählen beispielsweise:
GPTBot
ClaudeBot
PerplexityBot
Google Extended
Bytespider
Diese Bots werden genutzt, um Inhalte für KI Modelle zu trainieren oder Suchdienste mit KI Funktionen bereitzustellen.
Mögliche Nachteile
Hohe Crawling Frequenz
Zugriff auf viele Unterseiten in kurzer Zeit
Erhöhte CPU Last
Unerwünschte Weiterverwendung von Inhalten
Mögliche Vorteile
Sichtbarkeit in KI gestützten Suchsystemen
Potenzieller zusätzlicher Traffic
Relevanz in zukünftigen Suchumgebungen
Ob AI Bots blockiert werden sollen, ist eine bewusste strategische Entscheidung.
Es gibt hier kein generelles „richtig“ oder „falsch“.
Überlege dir:
Möchtest du, dass deine Inhalte in KI Systemen erscheinen?
Verursacht der Bot messbare Performance Probleme?
Ist deine Seite auf maximale Reichweite oder eher auf Schutz deiner Inhalte ausgerichtet?
Wenn kein Performanceproblem vorliegt, ist ein Blocking nicht zwingend notwendig.
Was genau passiert bei einem Blocking?
Geblockte Anfragen erhalten den HTTP Statuscode 403 (Forbidden).
Das bedeutet, dass der Server die Anfrage erkennt, den Zugriff jedoch aktiv verweigert. Der Bot oder Client erhält keinen Zugriff auf die angeforderte Ressource.
Da die Anfrage frühzeitig abgelehnt wird:
werden keine PHP Prozesse gestartet
wird keine WordPress Instanz geladen
werden keine Datenbankabfragen ausgeführt
Dadurch reduziert sich die Serverlast im Vergleich zu regulären Seitenaufrufen deutlich.
Unterschied zwischen robots.txt und User Agent Blocking
Über die robots.txt kannst du Suchmaschinen und Bots Anweisungen geben, welche Bereiche deiner Webseite gecrawlt werden dürfen.
Diese Anweisungen sind jedoch freiwillig. Seriöse Suchmaschinen halten sich daran, viele andere Bots jedoch nicht.
User Agent Blocking hingegen erfolgt serverseitig. Anfragen geblockter User Agents werden direkt mit dem Statuscode 403 beantwortet.
Während robots.txt das Crawling steuert, verhindert User Agent Blocking den Zugriff vollständig.
Wenn du lediglich das Crawling bestimmter Bereiche einschränken möchtest, ist robots.txt oft die bessere Wahl.
Wenn ein Bot jedoch trotz robots.txt Anweisungen hohe Last verursacht, kann User Agent Blocking sinnvoll sein.
ℹ️Verwandte Artikel



