Ein Crawler, Spider oder Bot ist ein Computerprogramm, das zum Suchen und automatischen Indexieren von Website-Inhalten und anderen Informationen über das Internet verwendet wird. Diese Programme werden am häufigsten verwendet, um Einträge für einen Suchmaschinenindex zu erstellen.
Sie durchsuchen systematisch Webseiten, um zu erfahren, worum es auf jeder Seite der Website geht, sodass diese Informationen indiziert, aktualisiert und abgerufen werden können, wenn ein Benutzer eine Suchanfrage stellt.
Suchmaschinen wie Google wenden einen Suchalgorithmus auf die von Webcrawlern gesammelten Daten an, um relevante Informationen und Websites als Reaktion auf Benutzersuchen anzuzeigen.
Wenn eine Organisation oder ein Website-Eigentümer möchte, dass ihre Website in einer Suchmaschine rankt, muss sie zuerst indexiert werden, ansonsten kann die Suchmaschine sie nicht organisch finden, egal wie viel Suchmaschinenoptimierung auf der Website betrieben wird.