Transkript:
Hi und herzlich willkommen zur fünften Ausgabe von Serious SEO hier auf Semrush Deutschland. Nachdem wir das letzte Mal sehr viel über das Thema Indexierungsmanagement gesprochen haben, habe ich heute drei andere Themen mitgebracht, die wieder etwas mehr Bandbreite haben. Wir reden einmal über das Thema HREflang URLs und was passiert, wenn Google diese zusammenfaltet. Wir reden einmal über das Thema NoIndex Tech versus robots.txt und was dabei passieren kann. Und wir reden als Drittes über das Thema Parameter Konsistenz. Lasst uns gleich anfangen.
Thema Nummer eins hreflang URLs und das Zusammenfalten durch Google. Das klingt ein bisschen sperrig und ich nenne das deswegen auch gerne Folding. Die Ausgangssituation ist folgende, wir haben den gleichen Content auf drei unterschiedlichen Sprachversionen. Nehmen wir jetzt mal ganz einfach an Deutschland, Österreich, Schweiz den gleichen Content auf drei sich mit einem Canonical selbstreferenzierenden URLs. Also alle sollen indexiert werden. Da haben wir ja oftmals die Diskussion gehabt. Ist das denn eigentlich überhaupt erstmal duplicate Content, weil der gleiche Inhalt. Aber eigentlich sagt man klar, in welchem Markt das lenken soll. Und dann gibt es immer mal wieder ein Phänomen und das ist eben das Folding, auf das ich ganz kurz einmal eingehen möchte. Was hier passiert ist, dass Google diese URLs im wahrsten Sinn des Wortes zusammenfaltet und nur eine dieser drei Sprachversionen indexiert. Und diese fängt dann an, in allen anderen Ländern Versionen zu ranken. Und das kann natürlich gerade für den Seitenbetreiber extrem nervig sein, wenn auf einmal die deutsche URL anfängt, in Österreich zu ranken. Und das ist eigentlich so der erste Indikator dafür, dass dieses Problem oder dieses Phänomen bei euch auftreten würde, Wenn ihr auf einmal seht, dass die falschen URLs anfangen, in einem anderen Land zu ranken, der Traffic vielleicht aber in Summe gar nicht so sehr abnimmt, weil wie gesagt die deutsche URL in dem Falle es einfach übernimmt.
Und wenn man diesen Verdacht hat, dann gibt es zwei weitere Möglichkeiten den zu bestätigen und zu gucken, ob das wirklich Folding sein könnte. Und das eine ist, man macht einfach eine Side Query bzw. mit der Info, die Query und guckt mal nach, was die TLD Endungen sagen. In dem Falle seht ihr ein Beispiel, wo oben Info und eine AT Domain eingegeben worden ist. Google spielt euch aber eine DE Domain wieder und das ist ein guter Hinweis dafür, dass hier ein Zusammenfalten von hreflangs URL stattgefunden hat. Die zweite Möglichkeit oder die zweite, der zweite Indikator, den man haben kann, ist aus der GSC und das kann dann so aussehen, dass die Anzahl an URLs in dem Abschnitt Duplikate. Google hat eine andere Seite als der Nutzer als kanonisch bestimmt ansteigt. Und wenn man dann in die Daten wirklich reinguckt, dann sieht man auch da wieder, dass der Nutzer beispielsweise eine AT URL angegeben hat und Google sich aber die de URL nimmt. Ja, beides gute Anzeichen dafür, dass hier ein Folding stattgefunden hat. Und dann ist natürlich immer die Frage, hey, was kann ich denn jetzt dagegen eigentlich machen, wenn dieses Problem stattgefunden hat? Weil es passiert relativ random. Ja, man kann das, es kann auf einmal auftreten und es kann ehrlicherweise auch relativ von alleine wieder verschwinden. Es gibt aber eine interessante Aussage oder zwei interessante Aussagen eigentlich vom Kollegen John Mueller, die zu finden sind auf einem Blogbeitrag vom Kollegen Glenn Gabe. Und das ist nämlich einmal eine, ich muss sagen relativ hilflose bzw. nicht hilfreiche Antwort im Sinne von naja, ihr könntet ja mal ein Banner einbauen um dem User zu sagen, hey, guck mal, hier ist eigentlich eine andere Sprachversion. Finde ich gut. Das hilft aber relativ wenig. Ja, was aber vielleicht dann schon interessanter sein kann, ist die Aussage, dass wenn man eben weiß, man hat genau eins zu eins Duplikate im Content, dass man doch mal anfängt den zu lokalisieren, weil dann die Schweizer Version vielleicht eben doch nicht gleich der Deutschen sein sollte. Und das ist vielleicht auch einer der einzigen Möglichkeiten, da so ein bisschen gegen zu arbeiten, um vielleicht Google noch mal zu rütteln und zu sagen, hey, guck dir das bitte noch mal genau an. Das Phänomen kann einfach auftreten, Es kann, wenn man nichts tut, auch wieder verschwinden. Das kann aber echt lange dauern Und ist wirklich so ein Konstrukt im International SEO, was ein teilweise echt zur Verzweiflung bringen kann. Vor allen Dingen, wenn man nicht versteht, was da eigentlich passiert. Deswegen noch mal ganz kurz zusammengefasst für das Thema Folding. Wenn ihr merkt, dass ein anderes Land mit der gleichen Sprache anfängt, in einem anderen Land zu ranken, dann schaut euch nochmal an, wie die Info Query aussieht. Dann schaut euch noch mal an, wie die GSC Daten aussehen. Und wenn alles eine Sprache spricht, dann habt ihr hier scheinbar ein Foldingproblem und dann könntet ihr versuchen mit Content Lokalisierung noch mal gegenzuarbeiten. Ansonsten hilft wahrscheinlich erstmal nur abwarten und gucken, ob Google das wieder löst. Das kann passieren. Ich hatte einen Fall dieses Jahr, wo genau das wieder passiert ist und von daher es ist ein spannendes Thema. Man hat es nicht wirklich auf dem Schirm, aber wenn es da ist, kann es einen echt nerven. Das war die spannende Sache zum Thema Folding.
Und das führt uns zu dem zweiten Thema, das ich aufgreife, weil es dazu ein paar Rückfragen gab von unserem letzten Video, nämlich dem ganzen Thema NoIndex-Tag versus robots.txt. Das sind ja zwei Möglichkeiten, wie wir etwas steuern können. Das NoIndex-Tag steuert das Indexierungsmanagement und sagt eben etwas darf in den Index ja oder nein? Und die robots.txt ist eine Steuerungsdatei für den Crawler. Beides kann man also erstmal durchaus getrennt sehen. Es gibt aber eben Situationen, wo sie ineinander greifen. Und weil es beim letzten Mal dazu Fragen gab, wollte ich das einfach noch mal aufgreifen, ob man hier ein Problem hat mit diesen beiden Maßnahmen kann man beispielsweise in der GSC ganz gut sehen. Da gibt es ja den Bericht, dass etwas indexiert ist, obwohl es durch die robots.txt geblockt ist. Das ist eine Möglichkeit, um herauszufinden, hey, habe ich hier vielleicht irgendwie ein Problem mit diesen beiden Themen? Die zweite Möglichkeit ist, man macht einfach eine Side Query und auch da kann man dann, wenn man mal guckt, was sperre ich eigentlich in der robots.txt aus, sehen, ob davon was indexiert ist? Wenn ja, ist auch das ein guter Indikator dafür, dass ich hier was gegeneinander stört.
Und genau dieses Stören ist der Punkt, auf den ich ganz kurz eingehen will. Es gibt mittlerweile muss man sagen, in den Dokumentationen von Google auch den Hinweis darauf, dass das NoIndex Tag und die Nutzung von NoIndex Tag durch das robots.txt durch die robots.txt gestört werden kann. Ich sage auch immer gerne, das kannibalisiert sich, wenn was hier passiert ist. Wir haben eine Direktive im Head Bereich einer Webseite im Quellcode. Diese kann aber von Google gar nicht ausgelesen werden, wenn die URL gleichzeitig in der robots.txt gesperrt ist. Das heißt, man schießt sich eigentlich ins eigene Bein, indem man sagt ja, das darf nicht indexiert werden, aber es darf auch nicht verarbeitet werden. Und wenn das passiert und dann beispielsweise intern trotzdem auf diese Indexseite verlinkt wird oder extern auf diese Indexseite verlinkt wird, dann kann es eben passieren, dass diese URLs indexiert werden und wir solche URLs im Index haben. Wie der eine Screen gerade gezeigt hat. Deswegen wenn man mit beidem arbeitet, dann muss man sich ganz genau klar machen, was ist denn eigentlich der Sinn und Zweck meiner Maßnahme? Möchte ich etwas aus dem Index halten oder möchte ich etwas aus dem Crawling nehmen? Dann gibt es ja auch noch andere Möglichkeiten, die wir beim letzten Mal schon angesprochen haben. Aber beides zusammen kann Probleme herbeiführen und deswegen muss man gerade hier bei den Kombinationsmöglichkeiten aufpassen. Ich hoffe, das hat das Thema Noindex versus robots.txt noch mal ein bisschen klarer für euch gemacht. Ansonsten schickt einfach noch mal Fragen, wie ihr seht, wir reagieren darauf und das führt uns eigentlich zum Dritten Thema.
Und das ist das Thema Parameter-Konsistenz. Und Parameter-Konsistenz ist immer dann wichtig, wenn Parameter noch crawlbar sind. Wenn das schon alles blockiert ist, dann ist das vielleicht weniger spannend, weil man dann sagt okay, da kommt vielleicht kein Bot mehr drauf, aber wenn Parameter erstmal noch crawlbar sind, dann ist Parameter Konsistenz ein relativ wichtiges Thema. Und das liegt vor allen Dingen am ersten Kommutativgesetz, nämlich A plus B ist gleich B plus A. Das darf im besten Falle bei Parametern im SEO nicht funktionieren. Und es gibt gute Gründe warum. Und dazu will ich einfach mal ein Beispiel bringen, nämlich nehmen wir einfach mal an, wir haben fünf Parameter und die Kombinationsmöglichkeiten, die Aneinanderreihungsmöglichkeiten dieser fünf Parameter macht 120 Möglichkeiten aus. Ja, das ist eine ganz einfache Permutation ohne Wiederholung. Und jetzt nehmen wir mal an, wir haben 1000 Kategorien, dann reden wir aufgrund von fünf Parametern. Wenn wir keine Parameter Konsistenz haben, schon über gut 120.000 URLs, die hier entstehen können. Und das kann natürlich im Crawling ein echtes Wirrwarr generieren, wenn man hier nicht aufpasst. Und deswegen sagen wir immer im Umgang mit Parametern, dass eben A plus B nicht B plus A sein darf bei der Aneinanderreihung. Es ist also wichtig, dass Parameter sich in einer bestimmten Reihenfolge in die URL einfügen und nicht einfach irgendwo reinkommen.
Wenn man also mal wirklich so einen Shop hat, sollte man mal rumspielen mit seinen Parametern. Man nimmt einfach mal Größe, man nimmt vielleicht noch Farbe und vielleicht noch was drittes und man achtet mal wirklich darauf, wo sich die Parameter in die URL einsortieren. Und dann resettet man das Ganze und spielt es noch mal genau andersrum. Und wenn man sieht, dass die Reihenfolge in den Parametern angelehnt ist an die Reihenfolge der Klicks, dann hat man mit großer Wahrscheinlichkeit keine Parameter Konsistenz. Und das kann eben dazu führen, dass noch viel, viel mehr URLs generiert werden können, als wenn man sauber definiert hat, wo ein Parameter reinkommt. Wir reden jetzt noch gar nicht von Doppelauswahl, von Parametern, das gäbe es ja theoretisch auch noch mehrere Größen auswählen oder so, aber wenn man das wirklich beherzigt, dann ist es auf jeden Fall besser für Crawling, sofern eben Parameter noch nicht ausgeschlossen sind. Und glaubt mir, wenn ich euch sage, solche Parameterfehler können echt eine ganze Menge URLs ausmachen. Da reichen ein, zwei Fehler in der internen Verlinkung und ihr habt innerhalb von wenigen Wochen mehrere Millionen URLs. Natürlich gemessen daran wie viele Parameter habt ihr und wie viele Kategorien habt ihr beispielsweise? So, das war’s zum Thema Parameter-Konsistenz und auch schon das für das heutige Video. Ich hoffe es hat euch gefallen. Wenn ja, dann hinterlasst uns gerne einen Daumen hoch. Abonniert den Kanal. Drückt die Glocke, damit ihr das nächste Update nicht verpasst. Empfehlt uns gerne euren Freunden und wir hören uns auch wieder beim nächsten Mal, wenn es heißt Serious SEO hier auf Semrush Deutschland.