Transkript:
Du kannst ohne Tools eine große Domain gar nicht in allen Punkten überwachen. Darum ist es vor allem aus Unternehmenssicht meiner Meinung nach essenziell, hier in Tools zu investieren. Hi und herzlich willkommen! Mein Name ist Andor Palau und ich bin SEO Berater für Shops, Marktplätze, Publisher und Saas Unternehmen. Und in dieser Videoreihe gehe ich immer kurz auf eine Frage ein, die mir im Rahmen meiner Beratungstätigkeit typischerweise begegnet. Und heute geht es um das ganze Thema Alerts und Notifications bei Tools. Warnungen und Notifications ist ein Thema, über das wir im SEO leider noch viel zu selten sprechen und das meiner Meinung nach Tool Anbieter auch noch viel zu selten auf der Agenda haben, obwohl es so viele Ansätze für ein zielgerichtetes Monitoring gibt. Kurzer Disclaimer, ich bin Ambassador für Majestic und Oncrawl und einer der Gründe, warum ich Oncrawl so mag, ist, dass ich mit dem Tool eine Software im Gepäck habe, die es mir ermöglicht, nahezu jeden Zustand auf der Domain mit einem Alert im Monitoring zu versehen. Selbst auf selbst angelegte, gescrabte Informationen auf Brackets Basis beispielsweise kann ich am Ende einen Alert legen, der mich automatisch informiert, ob sich an dem Zustand was verändert hat, ob beispielsweise ein bestimmter Schwellenwert überschritten worden ist. Und dieser Punkt ist meiner Meinung nach sowohl für kleine Webseiten mit ein paar 100 URLs genauso valide wie für größere Infrastrukturen. Bei kleinen Webseiten, beispielsweise im B2B, können ungewollte Änderungen an der URL Struktur oder an den Metadaten oder bei der internen Verlinkung signifikante Auswirkungen auf den Market Share haben. Und auch bei wachsenden und großen Infrastrukturen wie Shops, Publisher oder Marktplätze werden oftmals ungesehen so viele Dinge verändert, es passiert so viel unter der Haube, wo es meiner Meinung nach dann notwendig ist, ein, über die Zeit anwachsendes Set an Regeln zu definieren und das zu kontrollieren. Und wenn ich sage anwachsend, dann meine ich damit, dass selbst Regelsets im mittleren Hunderterbereich nicht selten sind. Nur so kann man meiner Meinung nach immer komplexer werdende Infrastrukturen am Ende stetig überprüfen und eventuelle Gefahren, die es aus SEO Sicht gibt, minimieren. Und es gibt sehr viele Einzelthemen, wo eine automatisierte Überwachung von Veränderungen essenziell ist und helfen kann. Ich will hier einfach mal nur ein paar Beispiele nennen. Hat sich die Anzahl an URLs auf deiner Domain verändert? Hat sich die Anzahl von No-Indexseiten auf deiner Domain signifikant verändert? Ist eine spezielle Weiterleitungsregel noch aktiv? Beispielsweise mit dem Trailing Slash am Ende? Sind bestimmte Seiten weiterhin in der Navigation verlinkt? Haben sich die Anzahl an Paginationsseiten massiv verändert, weil beispielsweise irgendwelche Filter auf einmal nicht mehr greifen? Wurden die Metadaten verändert? Gibt es neue URLs, auf denen kein Content ausgespielt wurde oder wird. Werden Verlinkungen richtig gesetzt, überschreitet die Anzahl an Weiterleitungen oder Fehlerseiten vielleicht einen bestimmten Grenzwert? Haben URLs auf einmal eine Zahl am Ende, was es eigentlich gar nicht gibt vom System her oder Filmpreise auf Produkten usw. All das sind Themen, die man automatisiert überprüfen kann. Wichtig hierbei ist aber nicht nur, dass die Testung automatisiert ist, sondern auch, dass die Benachrichtigung automatisiert ist. Natürlich könnte man hier jetzt täglich oder wöchentlich die Daten manuell durchgehen und das mag bei kleineren Domains auf Basis eines Crawler crawl Vergleiches prinzipiell auch möglich sein, aber das gilt nicht für große Infrastrukturen, wo die Anzahl an Regeln schnell in die Hunderte gehen.
Hier braucht es dann schon ein Tool, das eben auch diese Benachrichtigung automatisiert und proaktiv eine Mail schickt oder einen Messenger Nachricht, wenn beispielsweise ein spezieller Schwellenwert überschritten ist, ohne dass man jetzt noch kompliziert eine SAP Integration einbauen muss usw. Das sollte automatisiert aus einem Tool kommen. Es gibt eigentlich kaum eine Situation, auf die man nicht eine Warnung oder eine draufsetzen kann. Aber es gibt natürlich trotzdem Limitierungen, da man Domains mit mehreren 100.000 URLs oder mehr nicht täglich komplett crawlen kann, auch wenn das technisch vielleicht möglich wäre. Daher gibt es meiner Meinung nach in der Regel zwei unterschiedliche Ansätze, wie man hier vorgehen kann. Das eine ist der Stichprobentest und das andere ist der Komplett Crawl. Beim Stichprobentest wird eine Handvoll an URLs, für die ein spezieller Status gilt, überwacht. Sollte sich an dem Status bei mehreren URLs etwas verändern, ist das ein guter Indikator dafür, dass es bei dem URL-Typus ein Problem gibt. Gerade bei großen Domains und globalen Regeln, wie beispielsweise das NoIndex auf Paginations-Seiten kann das ein guter und effektiver Ansatz sein. Hier helfen Tools wie beispielsweise Little Warden sehr super auch gerade für KMUs und B2Bler. Nur limitiert ist dieser Ansatz eben dann, wenn es um die Frage geht, ob beispielsweise eine signifikante Anzahl an URLs mit gar keinem oder nur sehr wenigen Inventar erzeugt worden ist. Hier braucht es dann schon größere Datensätze und daher dann eben meist sowas wie einem umfangreichen Crawl.
Daher hat es meiner Meinung nach Sinn bei den Komplettservice. Selbst wenn man diese nur auf einen Bereich macht, immer das volle Regelwerk einzusetzen, um so bei Releases beispielsweise auf Basis von Subsets, also partiellen Crawls zu arbeiten. Schlagen diese dann schon an, kann man sich entscheiden, ob man sich das Thema komplett gleich anguckt oder ob man noch mal ein Gesamtschau macht. Für kleine Domains könnte hier sowas wie die Contentking App beispielsweise hilfreich sein, weil hier wirklich jede Änderung überwacht wird und auch visualisiert wird. Das ist eine ziemlich hilfreiche Möglichkeit. Es ist also wirklich abhängig vom Ausgangspunkt und den zu prüfen und Zustand, ob man den einen Weg geht oder den anderen und am Besten gerade für die großen Infrastrukturen ist das natürlich eine Mischung von beidem.
Und man möchte natürlich so wenig Fehlmeldungen wie möglich generieren, weil Fehlmeldungen sonst schnell ausgeblendet werden und man sie als nicht so kritisch abtut. Aber ohne dieses durchdachte und permanent gepflegte Monitoring fliegt man meiner Meinung nach teilweise einfach blind. Und das lässt sich schon mit den bestehenden Tools heutzutage so gut entgegenwirken. Und daher hat es aus meiner Sicht einfach auch Sinn, dass die Unternehmen hier investieren, um die Gefahr zu verringern. So, das war’s von mir, von dieser Folge. Ich hoffe, es hat euch gefallen. Wenn ihr Fragen und Anregungen habt, dann gerne unten rein in die Kommentare. Wenn es euch gefallen hat, dann gerne einen Daumen hoch hier, aktiviert die Glocke, dann verpasst ihr auch nicht das nächste Video und macht’s gut.