Inhaltsverzeichnis
Suchmaschinen haben einen großen praktischen Nutzen für viele User:innen, durch ihre Popularität aber auch eine gewaltige Macht. Suchmaschinen durchforsten das Netz und wollen Nutzer:innen die besten Ergebnisse liefern. Doch wer gegen Suchmaschinen-Richtlinien verstößt, kann bestraft und im schlimmsten Fall komplett ausgeschlossen werden. Das sog. “Blacklisting” kann verschiedene Gründe haben. Ein Fallbeispiel aus der Praxis.
Was sich sehr kompliziert anhört und nicht auf einen einfachen Titel bringen lässt, ist ein sehr ernstes Thema. Suchmaschinen können Domains immer wieder mal auf den Prüfstand setzen. Dabei muss es noch nicht einmal die größte Suchmaschine von allen sein. Und die Hintergründe sind häufig nicht sofort zu erkennen. Ein Fallbeispiel aus der jüngeren Praxis soll helfen, zu erklären, was passieren kann und wie man das Problem auch lösen kann.
In meiner Arbeit als freiberuflicher SEO-Consultant habe ich mir eine Liste mit technischen SEO-Maßnahmen erstellt, die ich immer wieder regulär durchgehe. Häufig ist es bei bestimmten Punkten in der Liste vertane Arbeitszeit, doch manchmal hat man auch unglaublich merkwürdige Treffer. Zu diesem Themenspektrum bei meinen Checks zählen auch Sicherheitsthemen. Beispielsweise prüfe ich, ob eine Website eine SSL-Verschlüsselung hat oder auch die aktuellste Version eines Content-Management-Systems (CMS) genutzt wird.
Blacklisting bei Suchmaschinen – tritt selten auf, ist aber umso ärgerlicher
Eines dieser Checks prüft, ob eine Domain bei den Suchmaschinen gesperrt wurde, wegen Verstößen gegen Richtlinien. Dieses sog. “Blacklisting” tritt nur selten auf, ist aber ein Hinweis auf erhebliche Probleme. Denn häufig führt das nicht nur zur Sperrung einer Domain aus den Suchergebnissen, sondern auch zu Warnmeldungen in Browsern bei Aufrufen einzelner Webseiten. Einen solchen Fall hatte ich letztens bei einem Projekt.
Die Domain wurde auf der Suchmaschine Yandex gesperrt und Aufrufe zu Webseiten auf der Domain führten zu einer Fehlermeldung, auf der Seite könnten schädliche Inhalte sein. In solchen Fällen liegt es nahe, dass Malware (Virus, Schadsoftware) die Seite bzw. Domain befallen hat und Suchmaschinen deshalb vor dem Aufruf der Seite warnen. Doch meine Checks ergaben keinen Hinweis auf ein solches Problem. Selbst mit ordentlichen Tools und einer händischen Suche wurde ich nicht fündig. Also musste ich mir überlegen, was noch sein könnte.
Schritt für Schritt zum Fehler
Ich habe daraufhin geprüft, ob es irgendwelche Probleme mit Plugins auf dem Server gibt, ob womöglich ein SSL-Zertifikat abgelaufen ist oder ob z. B. fremde Werbung schadhaften Code nachlädt. Aber auch hier gab es keinen Treffer. Dann habe ich das getan, was viele Expert:innen nur selten tun. Ich habe einen “Reverse IP Lookup” vorgenommen.
Auch das gehört mittlerweile zu den Standard-Checks, die ich bei einem Technical SEO Audit vornehme. Hierbei gibt man eine Domain in einem Tool ein und lässt sich daraufhin sowohl die IP des Servers ausspucken als auch überprüfen, welche Domains auf dem gleichen Server liegen. Diese Prüfung ergab gleich mehrere Treffer für gemeinsam gehostete Domains auf dem Server.
Unseriöse Angebote auf dem gleichen Server unter gleicher IP
Anscheinend hatte der Shared-Hoster die seriöse Domain meines Kunden mit unseriösen Angeboten aus der Sexindustrie zusammen auf dem gleichen Server gehostet. Insgesamt waren mehr als 60 Domains gelistet, die nicht unbedingt in den Bereich der Jugendfreiheit fielen und vor allem unseriös bis schädlich waren. Yandex hatte als Suchmaschine deshalb auch unsere Domain auf den Index gesetzt. Denn alle Domains hatten die gleiche IP-Adresse, teilten sich einen physikalischen Server.
Insofern habe ich dem Kunden geraten, mit seinem Provider zu sprechen und einen Umzug auf einen anderen Server anzustreben. Viele Shared-Hoster kennen die Problematik und stellen sich daher nicht quer, wenn man eine solche Bitte äußert. In unserem Fall wurde die Domain binnen weniger Tage umgezogen und in genauso wenigen Tagen war das Blacklisting durch Yandex aufgehoben.
Technische SEO als Grundlage für weitergehende Suchmaschinenoptimierung
Technische SEO hat hier erneut gezeigt, wie wichtig es ist, bestimmte Voraussetzungen zu prüfen und den Dingen genauer nachzugehen. Gerade Standard-Checks helfen, Probleme schnell und auch häufig sehr früh zu erkennen. Ein Content-Audit sollte daher immer erst nach der technischen Suchmaschinenoptimierung folgen. Sonst fehlt es an Grundlagen für eine nachhaltige und erfolgreiche Content-Optimierung.
Wer genauer versteht, wie Crawler und Suchmaschinen arbeiten, versteht auch, warum es problematisch sein kann, auf einem geteilten Server zu sein, mit unseriösen Angeboten. Es wäre in diesem Fall aus meiner Sicht nur eine Frage der Zeit gewesen, bis auch Google irgendwann reagiert hätte. Der Umzug kostete nichts und hat sogar dazu geführt, dass mein Kunde jetzt einen performanteren Server mit noch aktuellerer Software hat. Auch das ist wichtig.
Viel schlimmer wäre es übrigens geworden, wenn die Mail-Adressen der Domain auf Grundlage dieser Einschätzungen in Blacklists aufgenommen worden wären. Da kommt man häufig nämlich so gut wie gar nicht raus. Wer also bei Warnmeldungen und Blacklisting nicht sofort fündig wird, weil keine Malware vorhanden ist, sollte auch den Blick auf die Server-Architektur und bei Shared-Hostern unbedingt auf die gelisteten Domains werfen. So kann man üble Überraschungen vermeiden.