10 Fragen an: Bastian Grimm, Blackhat Protection

Dieser Artikel wurde im Blog der Barketing IMS GmbH veröffentlicht. LEAP/ ist der Zusammenschluss aus Barketing und ConversionLift.

Wir durften in der Barketing Academy Bastian Grimm als Speaker begrüßen. In einer spannenden Session ging es diesmal um Blackhat Protection. Interessiert hörten ihm alle Mitarbeiter zu. Wir haben auch Bastian anschliessend unsere „10 Fragen an“ gestellt und er hat sie uns, wie ihr im folgenden Interview seht, ausführlich beantwortet.

 

1. Hallo Bastian, vielen Dank für deinen Besuch bei uns in der Barketing Academy. Du bist vielen im Bereich SEO bereits bekannt. Sag unseren Lesern bitte trotzdem kurz was du machst und wo deine Schwerpunkte liegen.

Na klar, gern. Ich verbringe aktuell einen großen Teil meiner Zeit mit dem Auf- bzw. Ausbau des internationalen Geschäfts von Ads2people, einer Fullservice Performance-Marketing Agentur mit Sitz in Berlin, wo ich primär die Themen Organic Search sowie Content & Online PR verantworte. Darüber hinaus berate ich mit der Grimm Digital eine Handvoll €žausgewählter€œ Kunden, primär geht es dort dann um strategische sowie strukturelle Online Marketing-Themen bzw. Fragestellungen.

2. Was reizt dich an den Themen Link-Risikomanagement und am Konzipieren internationaler Linkbuilding-Strategien?

Ich glaube, es ist essenziell wichtig zu verstehen, dass effektiver Linkaufbau immer nur dann funktionieren kann, wenn man das eigene Inventar (sprich Linkprofil) nahezu aus dem Effeff kennt. Nur so kann ich antizipieren, was für Auswirkungen neue Links auf Rankings haben €“ oder auch nicht. Es geht ja im Grunde um Effektmaximierung: Für mein investiertes Budget (Arbeitszeit von Personal) will ich ja immer eine möglichst hohe Anzahl (von guten!) Links generieren. Wenn diese Links aber gar keine Wirkung haben können, weil der Rest des Linkprofils nur aus minderwertiger Qualität besteht, so ist das Ganze €“ zum gegebenen Zeitpunkt €“ reine Geldverschwendung. Ein fortlaufendes Aufräumen des Linkprofils gehört für mich schlicht zum guten Handwerk, alles andere ist grob fahrlässig. Der internationale Kontext ist insofern super spannend, als dass die unterschiedlichen Google Indizes und Länderversionen aber immer noch unterschiedlich aggressive Vorgehensweisen zulassen €“ insbesondere für Kunden in den super kompetitiven Verticals bedeutet das, dass Linkbuilding-Strategien eben auch pro Markt unterschiedlich aussehen sollten, um maximale Wirkung zu erreichen.

 

3. In deinem Vortrag ging es um das Thema €žNegative SEO€œ. Was versteht man darunter und welche Arten gibt es?

Gemeinhin wird der Begriff €žNegative SEO€œ im Zusammenhang mit linkbasierten Angriffen auf eine fremde Domain, bspw. eines Wettbewerbes, verwendet. Korrekter wäre hier, von linkbasiertem Negative SEO zu sprechen. Eine Präsentation, die ich dazu auf der SEOkomm gehalten habe, gibt€™s bei Interesse auf SlideShare. Andere Varianten von negativem SEO wären beispielsweise:
– der Abbau von guten Links der entsprechenden Wettbewerber
– das gezielte Kaufen von hochwertigen, anchortextlastigen Links für Wettbewerber und das sofortige Melden selbiger über einen entsprechenden Spam Report an Googles Search Quality Team
– das gezielte Triggern von Safe Search (und anderen Filtern) für Wettbewerber Domains
– Meta, Canonical & robots.txt Takeovers
– das Verwenden kompromittierter Seiten ((Link-) Injection, etc.)
– €¦ und Vieles mehr.

 

4. Wie hat sich der Bereich €žNegative SEO€œ entwickelt und warum ist deiner Meinung nach die Nachfrage nach dieser Dienstleistung so gestiegen?

Linkbasiertes Negative SEO gibt es schon sehr, sehr lange €“ insbesondere in den Bereichen der Erwachsenenunterhaltung, im Glücksspielsegment und einigen anderen, etwas stärker umkämpften Bereichen€¦ das Ganze ist dann insbesondere Anfang 2012 stark in den €žMainstream€œ übergeschwappt, insbesondere weil Google mit dem ersten Penguin Rollout nicht nur Linkspammer getroffen, sondern vielmehr auch gezieltes Spammen einfacher gemacht hat. Betrachtet man das einmal von der anderen Seite, so könnte man möglicherweise zu dem Schluss kommen, dass es gerade für kleine Websites fast einfacher ist, Wettbewerbern zu schaden, als selber solides und langfristig erfolgreiches SEO zu betreiben.

 

5. Bing hat als €žFirst Mover€œ das pro-aktive Entwerten von Links eingeführt. Warum hat Google damit so lange gewartet, wo doch der Bedarf sehr groß zu sein scheint?

Spannende Frage €“ ehrlich gesagt: Keine Ahnung. Ich glaube, man tut sich bei Google möglicherweise schwer damit, Qualitätsprobleme einzugestehen €“ insbesondere, wenn es um die Bewertung von Links geht. In der Regel müssen Dinge erst einmal von SEOs hart €žgegamed€œ werden, bevor man reagiert. Ansonsten scheint es aber ein relativ smarter Zug, den SEOs jetzt die Aufgabe aufzuerlegen, die seinerzeit generierten Links auch wieder entwerten zu lassen, insbesondere, da man augenscheinlich nicht dazu in der Lage ist, dies 100% automatisiert zu tun.

6. Mit dem Penguin-Update von Google im Jahr 2012, sollte versucht werden Webspam einzudämmen. Welchen Einfluss hatte/hat dieses Update auf €žNegative SEO€œ?

Penguin arbeitet ja unter anderem mit einer regelbasierten Komponente, die gewisse Muster gegen entsprechende Schwellwerte (immer im Themen- / Vertikal-Kontext) prüft. Ein simples Beispiel wäre die übermäßige Verwendung von kommerziellen Anchortexten. Reagiert also ein Update auf sowas €žextremer€œ als noch früher, so macht es tendenziell ein gezieltes Auslösen auch leichter.

 


7. Kann man eine Seite einfach mit vielen schlechten Links aus dem Google-Index katapultieren oder braucht es da mehr um vielleicht einen oder mehrere Filter auszulösen?

Ganze Domains: Nein €“ das wäre tatsächlich deutlich zu einfach und vermutlich wäre dann tatsächlich nicht mehr sonderlich viel im Index übrig. Für einzelne Unterseiten sieht es allerdings schon anders aus. Grundsätzlich gilt aber: €žGutes€œ linkbasiertes Negative SEO ist, sofern es sich um einen professionellen Angreifer handelt, immer eine Kombination aus multiplen Komponenten. Sicherlich ist die pure Linkmenge ein Faktor €“ und wir reden hier nicht von 100, 1.000 oder 10.000 Links. Ich habe Angriffe mit 7 und 8-stelliger Menge (pro Tag) gesehen; und das ist nur das, was die Linkdatenbanken erfassen, also vermutlich ein Bruchteil von dem, was tatsächlich gesetzt wurde. Alles in allem lässt sich aber feststellen, dass solche Größenordnungen wohl eher die Ausnahme sind bzw. von nur wenigen Individuen oder Gruppierungen überhaupt realisiert werden können. Häufiger sehen wir derzeit eher intelligente Kombinationen (u.a. Quellen, Herkunft, Themenumfeld), die gezielt €“ häufig zu hart optimierte €“ Unterseiten angreifen und deren Rankings vorrübergehend eliminieren.

 

8. Für betroffene Webmaster sicher eine wichtige Frage: Was kann ich bei €žlinkbasiertem Negative SEO€œ machen und wie kann ich mich proaktiv davor schützen?

Das allerwichtigste ist ein effektives Monitoring des Linkprofiles. Da ich faktisch nichts dagegen tun kann, dass meine Domain willkürlich von extern verlinkt wird, bleibt mir nur, möglichst schnell zu bemerken was passiert €“ und dann zu reagieren. Dabei empfiehlt sich u.a. der regelmäßige Blick in die verschiedenen Linkdatenbanken dieser Welt, außerdem sind die LRT LinkAlerts hier extrem hilfreich. Ein paar weitere Tipps gibt€™s ebenfalls in meinem Deck auf Slideshare. Google empfiehlt die Verwendung des disavow-Tools, was allerdings bei großen Linkmengen nicht praktikabel ist. Bei Unterseiten könnte man selbige theoretisch 404en, was aber wohl auch nur begrenzt charmant ist, denn a) verliere ich damit auch meine guten Links und b) natürlich auch jedwedes Ranking. Beides nicht wirklich eine Lösung.

 


9. Das Disavow Tool ist ja in aller Munde. Wie kann man das Tool zum Beispiel bei einem Reconsideration Request sinnvoll einsetzen und worauf sollte man unbedingt achten?

Das disavow-Tool kann immer dann eingesetzt werden, wenn Links einer minderwertigen Linkquelle nicht entfernt werden können. Beispielsweise also für Links, die in der Vergangenheit aufgebaut wurden und nicht mehr den aktuellen Qualitätskriterien genügen (hier sollte vorher immer ein Kontaktversuch stattfinden) €“ oder aber für Verzeichnisse, Scraper Sites, usw. wo ich eh niemals einen Betreiber erreichen kann. Wichtig ist darüber hinaus, dass in der Regel ein domain-Disavow die richtige Maßnahme ist, um auch alle Links einer €žschlechten€œ Quelle zu erwischen. Weiterhin sollte unbedingt darauf geachtet werden, dass die Datei als UTF-8 gespeichert wird und mind. 48h live ist, bevor der eigentliche Reconsideration-Request gestellt wird.

 

10. Neben dem linkbasierten gibt es auch noch das technische €žNegative SEO€œ. Was sind hier die Probleme, die auf Webseitenbetreiber zukommen können und was wird vielleicht zukünftig das größere Problem darstellen?

Was ich aktuell immer häufiger sehe, sind kompromittierte WordPress Sites, denen mittels entsprechender Code-Injection dann veränderte Crawling-Direktiven verpasst werden. In der einfachsten Form wird hier die robots.txt-Datei ausgetauscht bzw. mit einem €ždisallow: /€œ versehen €“ die Folge ist, dass die entsprechende Domain komplett aus dem Index verschwindet, zumindest für einige Zeit. Was ich bisher erst ein einziges Mal gesehen habe, waren manipulierte X-Robots Rel-Canonical Header, die dann in großer Masse auf eine andere Domain gezeigt haben, welche wiederum versuchte, sehr fragwürdige Dinge zu verkaufen. Hier ist das Debugging extrem aufwändig €“ die wenigsten Seitenbetreiber schauen auf serverseitige Headeranweisungen, von einer permanenten Kontrolle ganz zu schweigen. Es bleibt also auch an dieser Stelle extrem spannend, professionelles Monitoring scheint demnach absolute Pflicht!

 

Beitrag teilen...

0 thoughts on “10 Fragen an: Bastian Grimm, Blackhat Protection

  1. Eigentlich ist es schon wirklich abartig, dass man sich als SEO auch noch um solche Dinge kümmern muss. Es wäre irgendwie allen geholfen, wenn sich jeder nur um guten Content kümmern würde, anstatt andere Sites derart zu attackieren. Zumal hier auch noch einmal betont sein, dass das teilweise auch illegal und damit eine Straftat ist, wenn andere Sites gehackt werden.

  2. Aiaiai, Gott sei Dank ist Blackhat verpönt genug, um nicht permanent eingesetzt zu werden, das wär die Hölle. Aber interessant wäre mal eine handfeste Aussage von Google darüber, inwieweit man Blackhat Attacken von einfach schlechten SEO unterscheiden kann 🙂

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.