10 Fragen an Stephan Walcher – Google Search Console im Einsatz

Dieser Artikel wurde im Blog der Barketing IMS GmbH veröffentlicht. LEAP/ ist der Zusammenschluss aus Barketing und ConversionLift.

In der Barketing Academy waren diesmal Stephan Walcher und Markus Walter von 1&1 zu Besuch. Mit einem sehr praxisorientierten Vortrag zur „Search Console“ und einigen Tüten Haribo im Gepäck wurde auch an die erfahrenen Mitarbeitern sehr viel Wissen weitergegeben. Stephan war so freundlich und hat uns anschliessend unsere „10 Fragen an“ beantwortet. Lest hier die spannenden Antworten:

 

 

1. Erzähl kurz wer du bist und wo du herkommst!

Mein Name ist Stephan Walcher. Ich bin in Hamburg geboren, aber in Mailand, Italien aufgewachsen. Meine beruflichen Anfänge im SEO habe ich 2006 in Südtirol unternommen wo ich im Agentur Umfeld, primär Kunden im Tourismus betreut habe. 2011 ging es dann nach München zu Microsoft Bing und anschließend zur Performance Marketing Agentur Catbird Seat wo ich als Head of SEO Consulting das SEO Team verantwortet habe. Seit Oktober 2014 bin ich Senior SEO Manager bei der 1&1 Mail und Media GmbH in München.

In meiner Freizeit spiele ich gerne mit Daten aller Art oder mit der Xbox. Wenn ich mal nicht vor dem Rechner sitze, mache ich Sport oder bin auf Konferenzen.

 

2. Du hast in der Academy einen Vortrag zur neuen SearchConsole gehalten. Was hältst du vom Rebranding und was denkst du will Google vor allem für die SEOs erreichen?

Das Rebranding macht noch kein neues Produkt. Ein neuer Name bedeutet viele Kosten, denn es müssen alle Dokumente, URLs usw. unbenannt werden, was neben Geld auch Zeit kostet. Daher denke ich, dass Google hier sicherlich nicht aus einer Laune heraus diese Entscheidung gefallen hat. Zu einem können sie sich durch den Namen von Konkurrenz wie z.B. der Bing Webmaster Tools besser differenzieren, zum anderen sagen sie selber, dass „… Fans der Webmaster-Tools sind ganz unterschiedliche Personen: […]. Damit unser Produkt alle anspricht, denen die Google-Suche wichtig ist, haben wir beschlossen, die Google Webmaster-Tools in Google Search Console umzutaufen.“ Quelle: http://googlewebmastercentral-de.blogspot.de/2015/05/ankuendigung-der-google-search-console.html Ob der Namenswechsel wirklich neue User anzieht kann ich nicht vorhersehen, aber ich denke, dass durch den neuen Namen auch viel mehr Priorität auf das Produkt gelegt wird und wir uns sicherlich bald schon über viele neue Funktionen freuen können.

 

3. Zur Verifizierung gibt es verschiedene Möglichkeiten und du sagtest, den DNS Eintrag findest du am besten. Was ist das genau und warum eignet es sich so gut?

Die Authentifizierung via DNS wird den meisten Webmaster sicherlich bekannt sein, aber wenig genutzt, da HTML-File und Meta-Tag Authentifizierung, gerade wenn man FTP Zugang hat, schneller und bequemer sind. Bei größeren Webseiten hat man leider oft keinen FTP Zugang und kann auch nicht einfach am Template mal eine Meta-Tag einfügen, daher braucht es eine Lösung die nicht nur Umsetzbar ist sondern auch dauerhaft ist, denn ein template-release kann schnell einen Meta-Tag überschreiben.

Die DNS Authentifizierung erfolgt dabei direkt über einen Eintrag beim Domain-Hoster und kann direkt für alle Subdomains aktiviert werden. Wenn also z.B. eine neue Subdomain angelegt wird, kann der Inhouse diese direkt in der Search Console anmelden ohne eine weitere Authentifizierung vorzunehmen. Einmal angelegt, hat man nicht nur eine sehr beständige Authentifizierung (muss manuell entfernt werden), sondern auch eine sehr flexible.

 

4. Was sollte man beim Anlegen der SearchConsole noch beachten?

In der Search Console kann man maximal 1.000 Domains anmelden. In der Regel meldet man nur die Domains an die man überwachen will, aber man kann auch Verzeichnisse und sogar Landingpages anmelden. Voraussetzung, diese Seiten dürfen nicht mit .html, .php usw. enden sondern mit einem Trailing Slash. Der Vorteil bei den Verzeichnissen, man erhält schon in der ersten Ebene ca. 20% mehr Suchbegriffe als im Root Verzeichnis. Führt man das Ganze auch in die Unterverzeichnisse der anderen Ebene weiter erhält man viel detailliertere Informationen zu den Suchbegriffen, was gerade im Zeitalter von <not provided> sehr wichtig ist. Bei einzelnen Landingpages, bekommt man dank der Suchanalyse nicht nur ein großes Portfolio an Suchbegriffen sondern auch wichtige Informationen wie Impressions, Klicks und Ranking Positionen auf Keyword Ebene.

 

5. Denkst du die Verwendung von MikroDaten wie schema.org birgt auch Gefahren auf lange Sicht?

Strukturierte Daten werden von Google zum Teil gesondert dargestellt. Um Konkurrenzfähig zu bleiben, sollte man seine Daten entsprechend auszeichnen, denn wenn man es selbst nicht macht, macht es die Konkurrenz und kann sich somit einen eventuellen Marktvorteil sichern. Trotzdem darf man nicht vergessen, dass Google ständig in neue Bereiche einsteigt und durch neue Integrationen in den Suchergebnissen Webseiten den Traffic entwendet und um an diese Daten zu kommen gibt es nicht besseres als wenn sie von den Webseiten Betreibern selber geliefert werden.

Man sollte sich daher immer überlegen wie einfach man es Google machen möchte. Handelt es sich um einzigartige Daten die nur ich besitze würde ich bei der Verwendung von MikroDaten sehr vorsichtig sein bzw. diese sogar vermeiden. Nutze ich hingegen Daten die frei zugänglich sind, dann würde ich den Einsatz empfehlen, aber immer bedenken dass ich zwar heute sehr erfolgreich bin, aber morgen schon mein Traffic durch Google oder durch einen Konkurrenten übernommen werden kann.

 

6. Was sind die besten Features der neuen Suchanalyse?

Ich mag die Möglichkeit für ausgewählte Keywords Impressionen, durchschnittliche Position auf Tagesebene darstellen zu können und diese dann auf Device und Länder Ebene runter zu brechen oder miteinander zu vergleichen.

 

7. Welche Informationen liefert der Indexierungsstatus für Domains und Verzeichnisse bei der täglichen Arbeit?

Zuerst muss mal immer bedenken, dass der Indexierungstatus in der Serach Console nicht täglich, sondern nur alle 7 Tage aktualisiert wird. Die Daten sind somit sehr träge und „plötzliche“ Veränderung sieht man im schlimmsten Fall erst 7 Tage später. Trotzdem liefert der Wert, egal ob jetzt für eine Domain, Verzeichnisse oder auch Landingpages (Traling-Slash am Ende benötigt) ein wichtiges Indiz dafür, wie es mit der Anzahl der URLs aussieht. Ein plötzlicher Anstieg der URLs kann zum Beispiel ein Indiz dafür sein, dass bei der Indexierungskontrolle etwas nicht stimmt. Ein Paramater, fehlender Canonical Tag oder auch ein defekte Meta-Robots können Google dazu veranlassen viele URLs zu indexieren und somit die Kurve im Indexierungstatus nach oben springen zu lassen.
Gerade bei großen Seiten wo viele Bereiche und Entwickler ständig neue Funktionen releasen, können solche Fehler schnell passieren. Der Indexierungstatus ist kein Live-Monitoring Tool, aber man sollte trotzdem jeden Tag bei allen seinen Projekten mal reinschauen um hier sicher zu gehen, dass alles passt.

 

8. Du hast von ISO-Codes beim Einsatz des href-Lang Tags gesprochen, was bedeutet das in diesem Zusammenhang?

Ein häufiger Fehler beim hreflang tag ist ein falscher ISO Code für die Länder bzw. die Sprache. Wenn dort etwas nicht stimmt kann dies in einem wichtigen Land eventuell für große Probleme sorgen.

 

9. Welche Exporte stellt die SearchConsole zur Verfügung und wo sind die Grenzen?

Mit der alten Suchanfrage hatte man zwar nicht so ein Detailgrad wie mit der neuen Suchanalyse, aber mit dem richtigen Setup konnte man sehr viele Keywords erfassen und ohne Limit exportieren. Leider kann man nur maximal 1.000 Domains anmelden, außerdem kann man nur maximal 1.000 Suchbegriffe exportieren. Ich hoffe dass mit der API V4, die gerade in Arbeit ist, dieses Limit aufgehoben wird, wenn nicht, wird es noch wichtiger alle Verzeichnisse anzumelden um das Limit zu umgehen.

 

10. Welcher ist dein Lieblingsanwendungsfall der SearchConsole?

Aktuell gucke ich sehr gerne auf die Anzahl der Impressions im Mobile Bereich um zu sehen ob das Mobilegeddon irgendwie zugeschlagen hat. Dann nutze ich gerne die Keywoddaten von ausgewählten Landingpages dessen URL ich direkt angemeldet habe um deren Performance zu beobachten. Welche Begriffe bringen die meisten Klicks, welche Rankingposition nehmen sie im Desktop und Mobile Bereich ein und wie verändert sich das Ranking über die Zeit. Aus diesen Informationen kann man sehr gut überprüfen ob die SEO Strategie die richtige ist und ob man Keyword Technisch nicht einen anderen Weg einschlagen soll.

 

Wir möchten uns nochmal für euren tollen Vortrag und die Beantwortung der Fragen bedanken.

 

Beitrag teilen...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.