Transkript:
Hi und herzlich willkommen zur dritten Folge von Serious SEO hier auf Semrush Deutschland. Heute habe ich drei Themen mitgebracht. Wir reden einmal über das Thema Cloaking und im Unterschied zum Dynamic Surfing. Wir reden über das Thema Engrams und wir reden über den SEO Perfektionismus.
Fangen wir an! Thema Nummer eins, Cloaking versus Dynamic Surfing. Cloaking bezeichnet den Umstand, wo wir dem Googlebot einen anderen Inhalt ausspielen, als was der User sieht. Das kann also beispielsweise so weit gehen, dass der Googlebot einen Text angezeigt bekommt, der User aber nicht. Oder wie man es früher teilweise auch gemacht hat, dass der User weitergeleitet wird auf einen ganz anderen Inhalt, der Googlebot kriegt aber eine statische Seite ausgespielt. Das wäre Cloaking, wo also eine bewusste Manipulation vorliegt und wo dem Bot etwas anderes ausgespielt wird als dem User. Zum Beispiel wurde dem User damals auch irgendein Flashinhalt ausgespielt oder irgendwelche na sagen wir mal komische Werbung. Und das alles hat der Googlebot nicht gesehen. Cloaking wird abgestraft. Dafür gibt es eine manuelle Maßnahme, die heißt auch richtig Cloaking und irreführende Links. Und das sollte man absolut nicht machen. Jetzt gibt es aber ein zweites Konstrukt, das nennt sich Dynamic Serving und das kommt eigentlich aus der mobilen Weiche. Wir hatten ja in der Vergangenheit drei Möglichkeiten, wie wir eine Webseite mobil optimieren wollen. Responsive Design, m-dot-Subdomain oder eben Dynamic Serving und Dynamic Surfing wurde eher so von den großen Plattformen, die sehr, sehr IT-lastig sind, genutzt, so. Auch hier wird nämlich dem Bot bzw. dem User Agent ein anderer Inhalt ausgespielt. Nun kann man dieses Konstrukt ja genauso nehmen, um eventuelle Funktionen dem Googlebot vorzuhalten, nicht um per se eine Manipulation herbeizuführen, sondern um eventuell Ressourcen zu sparen. Das ist die Argumentationsgrundlage da. Nehmen wir mal ein Beispiel, diese typischen Grid Funktionen, also die Ansichtsfilter, die es gibt, die verursachen ja in den meisten Fällen neue URLs, die dann gecrawlt werden müssten. Das ist nicht effizient. Der Googlebot braucht die nicht alle und das könnte man beispielsweise dann im Rahmen eines Dynamic Serving einfach für den Googlebot rausnehmen ausblenden. Der User hat aber die Funktion und so könnte man Ressourcen sparen, ohne aber per se eine Manipulation herbeigeführt zu haben. So zumindest die Argumentationsgrundlage.
Das findet aber vor allen Dingen Anwendung bei sehr, sehr großen Plattformen. Also das ist jetzt nichts für Webseiten mit ein paar 100 oder ein paar 1000 Seiten. Da sind wir schon im sechs bis siebenstelligen Bereich oder mehr. Wenn ihr sowas macht, dann müsst ihr aber sehr, sehr genau aufpassen, was ihr da tut. Wie gesagt, weil ab einem gewissen Zeitpunkt kann das Dynamic Serving sicherlich auch in den Bereich Cloaking abdriften und ihr müsst es immer sehr, sehr gut monitorieren und überwachen auf Basis von GSC Daten von Logfile-Daten, ob das wirklich sauber funktioniert. Und falls ihr mal bei einer anderen Webseite mit einem Google Board draufgeht. Es gibt ja User Agent Switch und dann könnt ihr euch das einfach angucken und ihr könnt euch die nicht angucken, weil ihr geblockt werdet. Und wenn ihr mal an eine Webs auf eine Webseite kommt, wo ihr euch das nicht mit dem User Agent Googlebot angucken könnt, dann liegt das daran, dass die einen Reverse DNS Lookup haben und dass ihr dort geblockt werdet, weil sie euch als Fake Googlebot erkennen. So, ich hoffe, das hat euch ein bisschen Hintergrund gegeben zum Thema Cloaking und Dynamic Serving. Wie gesagt, ist nur was für große Domains und ihr müsst auch wirklich wissen, was ihr da tut.
Kommen wir zum Zweiten Thema N-Grams. N-Grams sind ein Konstrukt aus der Linguistik und haben eigentlich gar nicht erst so viel mit SEO erstmal zu tun. Wir nutzen sie jetzt auch nicht per se in der täglichen Arbeit. N-Gram beschreibt im Prinzip die Situation, wo eine Sequenz von n aufeinanderfolgenden Fragmenten zusammengesetzt wird. Also der Text wird fragmentiert in einzelne Teile. Und was wir dann gucken ist wie oft kommen diese einzelnen Teile in dem Content beispielsweise vor? Und das kann man teilweise dann halt auch gut nutzen, um so ein bisschen zu sehen, gibt es bestimmte Wiederholungen oder spreche ich vielleicht mit bestimmten Phrasen immer wieder auf den gleichen Inhalten? Ist meine inhaltliche Trennung vielleicht nicht sauber, weil ich auf neue Seiten sehr viel über Gebrauchtthemen rede? Und so könnte man N-Grams beispielsweise auch ein bisschen nutzen. Man kann N-Grams auf Domainebene einsetzen. Man kann die Analyse auf Clusterebene einsetzen oder man kann es sogar auf einzelne Dokumente einsetzen. Und ich will ganz kurz mal zwei, drei Beispiele einfach zeigen, wie sowas aussehen kann.
Hier haben wir also ein Beispiel, wo man schon sieht, dass innerhalb der N-Grams irgendwelche Platzhalter auftauchen. Da ist also scheinbar irgendwas nicht sauber innerhalb des Contents. Und sowas könnte man dann also sehen. Es geht also jetzt hierbei gerade gar nicht um die Optimierung des Contents und die Nutzung von N-Grams, sondern es geht eher darum zu sehen kann man mit so einem Tool vielleicht auch Fehler entdecken, was den Text betrifft? Eine andere Möglichkeit ist, wenn man beispielsweise sieht, dass Wörter abgeschnitten sind. Ich meine, wir haben ja gerade über Dynamic Serving geredet und darüber, dass ja auch manchmal Dinge entfernt werden. Es kann natürlich auch passieren, dass wenn das eben nicht sauber passiert, dass ihr Content zerstückelt und dass sowas dann am Ende auch in einer solchen Analyse zumindest mal auffällig ist. Und wie gesagt, es gibt die unterschiedlichsten Anzahl an Fragmenten. Ab sechs glaube ich könnte es auch langsam irgendwie ein bisschen schwierig werden mit der Aussagefähigkeit. Man sieht aber auch hier dann vielleicht bestimmte Phrasen, die einfach immer wieder kommen und immer wieder kommen. Und das kann einem zumindest mal vielleicht beim Auditing auch so ein zusätzlicher Ansatz dafür sein, zu sagen okay, sehe ich da irgendwas, worüber ich stolpere? Irgendwas, was ich nicht erwarte? Irgendwas, was vielleicht auf einen Fehler hinweist? So. So viel zum Thema Engrams. Und dann habe ich noch ein Thema, was mir vor allen Dingen in letzter Zeit immer mal wieder aufgefallen ist. Und ich glaube, ich habe mich auch neulich erst mit Astrid in ihrem neuen Podcastformat darüber unterhalten. Und das ist das Thema SEO Perfektionismus.
Was meine ich damit? Naja, wir sehen uns. Wir sind ja sehr, sehr datengetrieben und das ist auch total gut und total wichtig. Und wir wissen ja und sagen ja auch immer SEO ist ein Kreislauf aus Analyse, Implementation, Monitoring und dann wieder Analyse. Manchmal glaube ich aber übertreiben wir es auch etwas mit dem Thema Analyse. Ich glaube, jeder SEO kennt das. Er kriegt eine vermeintlich einfache Frage gestellt und in seinem Kopf fängt es an zu rattern. Ich müsste mir eigentlich diese Datenquelle angucken und diese und dann noch jenes. Und bevor ich überhaupt eine Aussage treffen kann, muss ich erstmal noch dieses prüfen. Und das kann manchmal dazu führen, dass wir Entscheidungen wirklich lange vor uns her treiben, teilweise wirklich drei, vier Monate, bis entschieden wird okay, machen wir das oder nicht? Und da denke ich manchmal, da wäre so ein bisschen die, die die Tester Mentalität vieler vielleicht wieder ganz gut. Das kann schon in Lethargie ausarten, wenn man einfach immer wieder guckt ich gucke mir noch mal das an, ich gucke mir noch mal das an! Manchmal wäre einfach auch ein zielorientiertes Testing wirklich hilfreich an einigen Stellen, weil ich glaube, SEO war immer dann erfolgreich und ist es meistens auch dann, wenn drei Punkte zusammenkommen. Zielorientierung, Priorisierung und eine hohe Umsatzgeschwindigkeit bzw. Implementationsgeschwindigkeit. SEO ist immer Implementation. Wir können viel diskutieren, wir können viel messen, aber am Ende müssen wir eben auch die Dinge umgesetzt kriegen. Und das ist einer der Erfolgsfaktoren im SEO. Das war’s für heute. Ich hoffe, es hat euch gefallen. Wenn ihr auch die nächste Folge nicht verpassen wollt, dann hinterlasst uns auf jeden Fall schon mal einen Daumen hoch, wenn es euch gefallen hat. Aktiviert die Glocke, dann werdet ihr benachrichtigt. Und ich freue mich, euch auch bei der vierten Folge von Serious SEO hier auf Semrush Deutschland begrüßen zu dürfen. Macht’s gut.