Der Zweck einer „robots.txt“-Datei ist es,

die Seiten einer Website aufzulisten, um den Content zu verwalten, der Suchmaschinen angezeigt wird

Suchmaschinen mitzuteilen, wie sie mit dupliziertem Content umgehen sollen

Suchmaschinen-Bots anzuweisen, wie sie die Seiten einer Website crawlen sollen

HubSpot den User-Agent des Internet-Browsers eines Besuchers mitzuteilen


Zertifizierungsprogramm: 👉 Zertifizierungen der HubSot Academy

Erläuterung: Die ausgewählte Antwort ‘Suchmaschinen-Bots anzuweisen, wie sie die Seiten einer Website crawlen sollen’ ist korrekt. Die ‘robots.txt’-Datei ist eine Textdatei auf einer Website, die Anweisungen für Suchmaschinen-Bots enthält, wie sie die Website crawlen sollen. Diese Datei gibt Anweisungen darüber, welche Seiten oder Bereiche der Website gecrawlt werden dürfen und welche nicht. Indem sie den Zugriff auf bestimmte Bereiche einschränkt oder erlaubt, ermöglicht die ‘robots.txt’-Datei Webmastern eine feinere Kontrolle darüber, wie ihre Website von Suchmaschinen indiziert wird. Dies ist wichtig, um sicherzustellen, dass nur relevante Inhalte indiziert werden und bestimmte Seiten wie Datenschutzrichtlinien oder interne Verwaltungsbereiche nicht in den Suchergebnissen erscheinen. Daher ist die ausgewählte Antwort die korrekte Beschreibung der Funktion einer ‘robots.txt’-Datei und ihrer Rolle bei der Steuerung des Crawlings von Suchmaschinen-Bots auf einer Website.

Das Bestehen von Prüfungen ist kein Training. Mehrere Versuche werden dich nicht stärker machen.


  1. Alle möglichen Prüfungsfragen
  2. 100 % richtige und verifizierte Antworten
  3. Von Experten verfasste Erläuterungen
  4. Sofortiger sicherer Download
  5. Kostenlose lebenslange Updates
  6. Alle Zertifizierungsprüfungen der HubSpot-Kategorie in einem Paket



Hinweis: Wir führen tägliche Scans auf Aktualisierungen der Prüfung durch und stellen so sicher, dass die Datei die neuesten Fragen aus dem echten Zertifizierungsprogramm enthält.

Sie können auch mögen …