Transkript:
Wenn ihr wissen wollt, was ich 2022 für das Next Shiny Object halte, wenn ihr wissen wollt, was ich über Link-Cleanups denke und wenn ihr was zu der großen Neuerung von Google wissen wollt, dann bleibt jetzt dran. Hi und herzlich willkommen zur neuesten Folge von Serious SEO hier auf Semrush Deutschland. Heute habe ich drei Themen mitgebracht.
Bei dem ersten Thema geht es um das Next Shiny Object Syndrom und was ich 2022 als einen großen Anwärter dafür halte. Ganz kurz zur Erklärung, das Next Shiny Object Syndrom bedeutet, dass es wieder etwas Neues gibt und alle der Meinung sind Wow, das muss ich haben. Das ist irgendwie ganz wichtig und man vergisst darüber gerne hinaus, was man eigentlich schon tut oder tun muss, was man schon auf der Agenda hat und man denkt gerade eben nur noch an das eine. Und sowas gibt es in allen Lebensbereichen, aber natürlich auch bei uns im SEO. Und ich glaube, wir fangen gerade an, hier in 2022 das Thema AI-Content zu diesem Thema zu entwickeln. Das Thema AI-Content ist super spannend, versteht mich nicht falsch und für große Plattformen nahezu endoptimiert von Otto, Idealo, Ladenzeile, die großen Marktplätze. Für die ist das alles super spannend und auch interessant und die sollten sich auch damit beschäftigen. Ob es dann vielleicht für Snippet Optimierung ist, für Produkttexte ist oder für andere kleine Teasertexte vielleicht oder so, für die hat das total viel Sinn. Ich glaube aber, dass für sagen wir mal vielleicht round about 90 % plus der Webseiten da draußen das Thema nicht so hoch auf der Agenda stehen sollte, wie sie es jetzt vielleicht sich gerne wünschen. Ich glaube, viele haben da draußen noch ganz andere Herausforderungen. Sie stehen auch in einem ganz anderen Kontext da. Die haben strategische Probleme, die haben strukturelle Probleme, und die haben noch genug Themen, die sie eigentlich abarbeiten müssten, um dann vielleicht auch mal skalierfähig zu sein. Wenn die jetzt anfangen, sich aber mit einem solchen Thema zu beschäftigen, verpassen sie vielleicht die Möglichkeiten, die sie hätten durch andere Maßnahmen. Sie blocken Ressourcen für Themen, die jetzt eigentlich wichtiger werden für die Situation, in der sie sich jetzt befinden und versuchen, einfach nur wieder mit dabei zu sein, um das Neueste in Anführungsstrichen vom Neuesten zu haben. Es gibt interessante Plattformen da draußen, Content Boat Phrase, wie sie auch immer heißen. Ich spiele selber auch damit rum, das ist völlig okay, aber auch so ein bisschen aus Beratungssicht. Für viele Webseiten draußen, glaube ich, gibt es 2022 weiterhin auch noch andere Themen als das ganze Thema AI Content. Man sollte es nicht komplett aus dem Blick verlieren, aber schaut doch erstmal wirklich, was ihr noch bei euch auf der Agenda habt. Und wenn ihr da noch genug Sachen seht, wo ihr denkt ja, hm, weiß ich eigentlich muss ich machen, dann kümmert euch erstmal darum und versucht nicht dem dem Trend zu unterlegen und euch da mit den neuesten vom Neuesten zu beschäftigen. Macht erstmal das fertig, was ihr habt. Damit seid ihr in 2022 glaube ich immer noch auf dem richtigen Weg. Das war’s schon. Zum Ersten Thema ein kurzes Statement zum Next Shiny Object Syndrom und das führt uns weiter zum Zweiten Thema.
Beim zweiten Thema geht es um Link-Cleanups. Wir haben dieses Jahr nämlich ein sehr interessantes Jubiläum. Zehn Jahre Disavow-Tool. Ich glaube, es war so im Herbst 2012, als das Tool gelauncht worden ist. Und das war damals ja schon wirklich so eine, na es war keine kleine, das war schon eine größere Sensation. Es hieß ja vorher immer, Google kann sich um all diese Link-Themen kümmern. Man braucht sich keine Sorgen machen. Negative SEO gibt es nicht, das können sie alles rausfiltern und alles war gut. Und dann wurden diese Aussagen so ein bisschen aufgeweicht. Auch Matt Cuts war da vorne mit dabei und auf einmal gab es das Disavow-Tool und es hieß so ein bisschen, naja, jetzt macht man selber Webmaster, schaut euch mal die Links an, gibt uns mal die Daten. So und Link-Cleanups haben wir dann ja auch wirklich im großen Stil durchgeführt, um manuelle Maßnahmen zu beheben, um auszufiltern und eben aus dem Pinguin-Update raus zu kommen. Also da wurde wirklich sehr, sehr stark und sehr, sehr aktiv damit gearbeitet, aber hauptsächlich von Leuten, die sich damit auch wirklich auskennen, weil das Tool ist an einigen Stellen falsch angewendet auch wirklich gefährlich. Also es kann ja auch wirklich schaden. Und deswegen hier so eine Art kleinen Disclaimer, wer sich damit beschäftigt, der soll auch wirklich Ahnung damit haben. Wenn ihr jetzt nicht so wirklich euch mit dem ganzen Thema Link und Linkprofile auskennt, dann holt euch bitte jemanden, wenn ihr das denn machen wollt, der sich das anguckt und der sich damit auch auskennt. Und das ist jetzt auch nicht unbedingt für diese ganzen kleinen Webseiten. Wenn ihr nur so ein paar 100 Seiten vielleicht habt und ein paar 100 Links, dann ist das Thema vielleicht für euch wirklich noch nicht so spannend. Wenn wir jetzt über große Webseiten reden, dann ist das definitiv etwas, was man mit auf den auf die auf die Agenda nehmen sollte. Ich persönlich ich glaube, dass man Link-Cleanups immer noch so einmal bis vielleicht sogar manchmal zweimal im Jahr machen sollte. Ich meine, es gibt genug Scraper da draußen. Wir haben die Wallpaper-Scraper, die Logins-Scraper, wir haben Adultseiten, Wir haben Logos-Scraper, wir haben Bilder-Scraper. Wir haben Most-Visited-Websites. Also allein von der Schiene aus gibt es genug. Ja, aber es gibt ja auch noch andere Situationen, in denen es ja durchaus Sinn haben kann, vielleicht mal einen Linkup durchzuführen. Es könnte ja sein, ich mein Linkaufbau wird ja weiterhin noch betrieben. Ja, wie auch immer, das Kind jetzt nennen. Und es könnte ja sein, dass du peu à peu das Opfer, sag ich mal von Ablenklinks bist. Ja, das also andere Leute einfach links auf dich setzen, so. Es könnte aber auch sein, dass du zum Beispiel eine Domain gekauft hast und ihr wollt jetzt zwei Domains miteinander migrieren. Auch dann würde ich mir definitiv vorher das Linkprofil angucken, bevor du jetzt einfach stumpf alles weiterleitest. Ja, also es gibt Situationen, in denen ein proaktives LinkCleanup Verfahren definitiv Sinn hat, ja, und deswegen würde ich auch noch immer empfehlen, das zumindest mit einer gewissen Regelmäßigkeit zu machen. Ja, alle Daten zu sammeln, die man eben sammeln kann. Kein Tool hat alles so viel wie möglich aus den Datenbanken aus der GC zusammenführen, dann vielleicht in einem Tool konsolidieren und damit arbeiten. Semrush hat ja beispielsweise auch ein Tool. Ja, aber dann ist es wirklich ein aufwendiges Prüfverfahren. Also nicht jetzt einfach nur irgendwie die Empfehlung der Tools vertrauen, sondern dann ist es wirklich ein aufwendiges Verfahren und deswegen noch mal nur von Leuten durchzuführen, die sich mit Links und Linkprofil Analysen wirklich auskennen. Aber weil wir so wenig darüber reden und interessanterweise, obwohl Google ja 2021 zwei Link-Spam Updates gemacht haben, ja, ist das so eine etwas typische deutsche Mentalität zu sagen, man kümmert sich nicht so wirklich darum? Ja, das ist nicht so, das ist nicht so spannend. Und das ist aber wie gesagt, eine sehr, sehr deutsche Wahrnehmung. Das ist international ganz anders. So, das vielleicht zum Thema Link-Cleanups und das führt uns jetzt zum dritten Thema.
Und beim dritten Thema geht es um die große Neuerung. Und das kann natürlich nichts anderes sein als die GSC Inspector API. Was für ein großer Schritt, vor allen Dingen für uns SEOs. Wir können jetzt endlich, wenn auch mit einer gewissen Limitierung im SEO, bestimmte Informationen direkt rauskriegen aus der Search Console, die vorher einfach nur über den Inspector zur Verfügung standen. Wir können herausfinden, wann ist die URL das letzte Mal gecrawlt worden? Ist sie überhaupt indexiert? Gibt es ein Problem beispielsweise mit Canonical? Hat Google eine andere Interpretation als wir und, und, und.
Das sind natürlich spannende Daten, die wir jetzt ein bisschen mehr uns da rausholen können. Und das hilft uns natürlich. So, und natürlich haben da auch findige Leute schon gleich angefangen Skripte zu bauen und Ähnliches. Ich glaube, der Kollege Mike Richardson hat ein ein Google Spreadsheet gebaut, mit dem man theoretisch URLs on-Scale abfragen kann. Tobias Willmann hat glaube ich für Python schon was gebaut. Für Node.js gibt es glaube ich auch irgendwie was. Also das ist sicherlich etwas, was spannend ist. Bin mir sicher, die ersten Tools werden auch sehr, sehr zeitnah daran arbeiten oder tun das schon. Und von daher, wenn ihr euch noch nicht mit der Inspector API von Google beschäftigt habt, dann solltet ihr das auf jeden Fall tun. Das ist dreimal mehr relevant für euch, als jetzt vielleicht ein bisschen mit dem mit dem Content Thema herumzuspielen oder so. Also von daher hier ein klares Go, eine klare Empfehlung, Wenn ihr das noch nicht gemacht habt, viel Spaß. Nehmt euch einen Tag Zeit, beschäftigt euch damit und schaut euch mal an, was ihr da alles mit den Daten herausfinden könnt. So, das war es für die heutige Folge von Serious SEO. Ich hoffe, es hat euch gefallen. Wenn ja, lasst uns gerne einen Daumen oben, hier. Aktiviert die Glocke, dass ihr keine nächste Folge verpasst. Und ich freue mich, euch auch bei der nächsten Show von Serious SEO begrüßen zu können. Macht’s gut.