Navigation: StartseiteTutorialsWebmaster AllgemeinURL Highjacking

URL Hijacking - Spinnerei oder echte Gefahr?

Die Überschrift wurde nicht ohne Hintergrund gewählt. Erzählt man einem befreundeten Webmaster vom URL Hijacking wird man oft ein wenig belächelt (wenn er überhaupt weiss, was es ist). Die Gefahr wird erst erkannt, wenn es zu spät ist. Die Folgen sind Fatal.

Was ist URL Hijacking?
Hijacking ist Englisch und bedeutet so viel wie Entführung, gewaltsame Übernahme oder Diebstahl. URL Hijacking wirkt sich so aus, dass man praktisch bei den Suchmaschinen nicht mehr gefunden wird. Im ersten Moment könnte man meine, die betroffene Domain ist aus dem Index verbannt worden. Für diejenigen, die auf den Traffic von Google und Co angewiesen sind, hört sich das an wie ein Horrorszenarium (welches es auch ist!).

Wie funktioniert URL Hijacking?
Genau das ist das Erschreckende. Es ist Kinderleicht und kann von jedem durchgeführt werden, der sich nur geringfügig in Sachen Verlinkung auskennt. Das folgende Beispiel ist keine Anleitung, sondern soll verdeutlichen wie einfach es ist.

In den meisten Fällen wird ein Proxy Server zu Hilfe geholt (ein Eigener ist auch sehr schnell gemacht, wer sich nur mittelmäßig z.B. mit PHP auskennt), die es zu hunderten frei Verfügbar im Internet gibt. Über diesen wird auf die gewünschte Internetseite gesurft. In der URL Zeile, kann man diese ablesen (z.B. www.proxyserver den es nicht gibt.com/script.php?search=www. Die gewünschte Domain .de). Was man jetzt nur noch machen muss, ist diese URL anzulinken, so dass diese von z.B. Google erfasst wird (da kann z.B. ein Bookmark-Service zu Hilfe geholt werden). Nach wenigen Tagen ist der Proxy mit der fremden Internetseite im Cache der Suchmaschinen. Was jetzt folgt ist einfach. Wir haben zwei identische Webseiten im Index bei den Suchmaschinen. Jetzt liegt es an Google und Co zu entscheiden, welcher er mehr glaubt von wem der Inhalt ist. Vertraut er dem Proxy, wird die eigentliche Seite wegen Double Content abgestraft und fliegt aus dem Index.

Für URL Hijacking gibt es mehrere Beweggründe. Das fängt an, um einfach den Konkurrenten aus dem Index zu verbannen, bis hin um den Traffic der Seite zu "Entführen" und durch Werbeeinnahmen nicht zu unterschätzendes Kapital zu ziehen. Wir möchten auf die Beweggründe nicht näher eingehen, da es uns vielmehr um den Seiteninhaber geht.

Der betroffene hat auf jeden Fall ein massives Problem.

Was kann ich gegen URL Hijacking machen?
Die Antwort ist simple und dennoch kaum in der Realität zu Bewerkstelligen: Die "bösen" Seiten (IP-Adressen) einfach aussperren (z.B. über htaccess). Diese Aufgabe ist für einen einzelnen Webmaster kaum zu stemmen. Die gängigsten Proxys sind zwar schnell gefunden, hilft aber uns nicht wirklich. Dennoch gehört es zu der leidigen Aufgabe eines jeden Webseitenbetreibers die Log Files durchzugehen und das "Böse" von dem "Guten" zu trennen. Die Pflege der htaccess Datei ist genau so wichtig, wie das Pflegen des Webseiteninhaltes.

Seit geraumer Zeit gibt es allerdings Hoffnung. Die Community http://www.bot-trap.de hat es sich ehrenamtlich zur Aufgabe gemacht, gemeinsam gegen diese "bösen" Bots, Proxyserver, Content Dieben, E-Mail Hashern und Co wirkungsvoll vorzugehen. Die Teilnahme ist absolut kostenlos. Jedes "Mitglied" hat die Möglichkeit, scheinbare Proxyserver, etc. zu melden (und sollte es auch machen). Die Moderatoren nehmen sich dann diesem an und prüfen es. Durch ein eingebundenes Script werden den "gefährlichen" IP Adressen den Zugriff auf die Webseite nicht gestattet. Durch Bot Trap wird eine erstaunliche Sicherheit geboten. Die Community hat nur durch die Teilnahme eines jeden einzelnen Erfolg!

Es gibt im Web noch eine Vielzahl von Vorschlägen, was der einzelne Webseitenbetreiber dagegen machen kann. Ich möchte hier allerdings auf keines eingehen, da diese alle erhebliche Nachteile aufweisen.

Ich bin gehijacked, was kann ich machen?
Als allererstes die IP ausfindig machen und sofort sperren. Anschließend einen Spam Report bei Google und Co einreichen. Da ein kommerzieller Proxy nicht die Seiten cached, sondern vielmehr wie XML o.ä. auf die Webseite zugreift, hat Google und Co auch keine Inhalte mehr zu lesen. Der Spuk sollte in wenigen Tagen/Wochen vorbei sein.

In ein paar Fällen zieht sich die Prozedur auch über Monate hinweg hin. Ein Antrag auf Neuprüfung der Suchmaschinen kann ebenfalls helfen. In manchen Fällen kann/sollte man auch überlegen einen neuen Domainnamen zu verwenden. Das sollte aber die letzte Möglichkeit sein.