<< Zurück zum eMinded-Magazin

SMX München Recap – Wohin geht die SEO-Reise in 2016

smx01

Und wieder einmal fand in München die SMX mit vielen bekannten Gesichtern statt. Obwohl SEO schon lange tot ist, treffen sich jedes Jahr aufs neue Online Marketer, um zwei Tage lang über die neuesten Themen, Trends und Ausblicke zu diskutieren. Auch dieses Mal wurde ein breites Themenspektrum geboten und wir als waschechte Münchner haben es uns natürlich nicht nehmen lassen, der SMX einen Besuch abzustatten und Euch einen Einblick in die SEO-Highlights zu gewähren.

Keynote: Rand Fishkins Optimierung für eine neue Welt

Engagement wird immer wichtiger und der Zurück-Button ist der größte Feind des SEOs. So lässt sich die Kernaussage von Rand Fishkin in seiner Keynote zusammenfassen. Es reicht schon lange nicht mehr, eine Seite nur für die Suchmaschine auszurichten. Es muss viel mehr darum gehen, mit dem Suchergebnis den User Intent bestmöglich zu befriedigen und den User auf seiner Seite zu halten. Click-Through- und Bounce Rate zählen zu den wichtigsten Rankingfaktoren. Laut Google selbst zählt RankBrain zum drittwichtigsten Rankingfaktor, welcher in der Lage ist, die Gewichtung der Rankingfaktoren selbständig bei einer Suchanfrage anzupassen. Welches jedoch der wichtigste und zweitwichtigste Faktor ist wurde leider nicht verraten – und das obwohl zweimal nachgefragt wurde.

Das „Wie“ und „Weshalb“ von SEO-Experimenten

„Viele Geburtstage sind gut für die Gesundheit. Denn wer viele Geburtstage hat lebt länger!“

Mit diesem Schlusssatz von Mario Fischer lässt sich der Inhalt seines Vortrages bestens beschreiben. Das Problem bei vielen Tests bzw. bei der Analyse von Rankingveränderungen besteht darin, dass der Zusammenhang fehlerhaft interpretiert wird. Auch lassen sich bei 200 Rankingfaktoren, die im Zusammenspiel wirken, keine einfachen, sondern eher komplexe Zusammenhänge betrachten, deren Interpretation schwierig ist. So müsste nach einer Veränderung auf der Website neben dem Ranking auch auf die Mitbewerber und gleichzeitig auf Google Updates geachtet werden. Danach sollte die Veränderung rückgängig gemacht werden, um festzustellen, ob sich das Ranking wieder in die gegensätzliche Richtung entwickelt. Auch bei negativen Veränderungen im Ranking nach Eingriff in die Website sollen wir nicht gleich in Panik verfallen. Dies kann auch immer an der Konkurrenz oder an Google Updates liegen.

Auch Marcus Tober unterstreicht die Aussage, indem er in seinem Vortrag auf die Unterschiede bei Tests eingeht. So ergeben sich deutliche Abweichungen in der Gewichtung der Rankingfaktoren, wenn Analysen auf unterschiedle Branchen aufgesplittet werden. Zum Beispiel führt auch die Inkludierung von Wikipedia zu einer Verfälschung der Analyse im Hinblick auf den Content.

John Müller und der perfekte Relaunch

Sobald eine Session mit John Müller ansteht, wird es erwartungsgemäß noch etwas voller im Saal. Gleich zu Beginn mach John klar, das zunächst der einheitliche Gebrauch von technischen Bezeichnungen wichtig ist, um die Wahrscheinlichkeit von Rankingveränderungen im Vorfeld festzustellen. Während also bei einer Umstellung auf https eher keine großen Veränderungen im Ranking zu erwarten sind, sieht dies bei einem Zusammenschluss bzw. einem Splitting der Website ganz anders aus.

smx02

John gibt außerdem noch den Tipp, bei einem Relaunch alles genau zu protokolieren, um später jeden Schritt nachvollziehen zu können. Außerdem nennt er auch die häufigen Ursachen für die Probleme beim Relaunch wie vergessene Redirects, die Umstellung interner Links sowie Canonicals-Tags und Webspam-Probleme. Im Anschluss an den im Vergleich eher kürzeren Vortrag folgt eine umso längere Fragerunde.

Content Republishing

Während es früher vor allem um den Umfang des Contents ging, ist heute wichtig, einen wirklichen Mehrwert für den User zu bieten. Daher sollten sich die Webmaster die folgende Frage stellen:

„Wenn mein Content morgen aus dem Web fliegen würde, würde ihn jemand vermissen?“

Da die User ja zunächst mit den Snippets in Berührung kommen, ist es wichtig, diese optimal zu gestalten, um eine gute Klickrate zu erzielen. Der Content einer Seite sollte einfach zu lesen und gut strukturiert sein. Hierfür helfen zum Beispiel Aufzählungen. Durch gute interne Links sollen weitere Seitenaufrufe stattfinden und die Verweildauer gesteigert werden. Es geht also um die Optimierung hinsichtlich des Long Click, um auch Google ein positives Signal zu senden.

Auch Rand verdeutlicht nochmal die Macht einer guten Klickrate, indem er das Publikum zu einem kleinen Experiment herausfordert: Für die Suchanfrage „Marcus Tandler SEO“ soll die derzeitige Position von OnPage.org alleine durch die Klicks des Publikums positiv beeinflusst werden. Obwohl sich das Keyword nicht im Snippet befindet, verändert sich die Position von 6 auf 2!

Außerdem sollte man seinen relevanten Content nutzen und weiter publizieren. Das kann zum Beispiel via Gastpost auf anderen Webseiten (mit Canonical auf die eigene) geschehen. Bei größerem Content können auch Teile herausgelöst, und als eigenständiger Content publiziert werden. Außerdem kann durch Übersetzungen des bestehenden Contents dieser für mehrere Länder verfügbar gemacht werden. Wichtig ist es für Rand zu verdeutlichen, dass es sich auch hier um eine SEO-Taktik handelt, die nicht missbraucht werden sollte.

SEO meets BWL: Regeln für maximal effiziente Websites

In seinem Vortrag erläutert Phillip Klöckner sehr eindrucksvoll, dass das ökonomische Prinzip auch für SEO gilt, und veranschaulicht dies am Crawl Budget einer Website. Die Datencenter von Google sind eine knappe Ressource und jedes Crawling kostet Geld. Google geht daher ökonomisch vor und vergibt jeder Seite ein gewisses Budget, das durch die folgenden Faktoren bestimmt wird:

  • PageRank
  • Page Speed
  • Qualität und Aktualität des Contents
  • Nachfrage und Relevanz

Außerdem sollte das Pareto-Prinzip, besser bekannt als 80:20-Regel, angewendet werden, um nur die ökonomisch wichtigen Seiten zu crawlen. Alle „unwichtigen“ Seiten sollten bestenfalls gelöscht werden. Bei Produktseiten sollten lieber 100 statt 15 Artikel angezeigt werden, um Crawl Budget zu sparen. Außerdem sollten die Seiten innerhalb von wenigen Klicks auffindbar sein.

Darauffolgend geht Bastian Grimm auf die häufigsten Fehler ein und findet ebenfalls, dass es besser ist, unwichtige Seiten zu löschen als mit NoIndex oder Canonicals zu arbeiten. Dabei kann mit dem Statuscode 410 gearbeitet werden. Dieser ist aber mit großer Vorsicht zu genießen da einmal gelöschte Seiten nicht mehr reaktiviert werden können. Außerdem sollten die Redirects überprüft und Weiterleitungsketten verhindert werden. Schließlich sollten auch die Logfiles ausgewertet werden und die interne Suche sollte statt GET- auf Post-Parameter umgestellt werden.

Fazit: Wer früher stirbt ist länger tot

Dieser Title eines bayerischen Kultfilms kann jedenfalls nicht für SEO stehen. Vielmehr stellt sich die gesamte Branche immer breiter auf und kombiniert verschiedene Disziplinen. Der User rückt immer mehr in den Fokus und nur Seiten, die sowohl technisch als auch inhaltlich beste Ergebnisse liefern, werden langfristig an der Spitze stehen.

smx03

Für mich persönlich gehört die SMX in München schon seit mehreren Jahren zu den besten Veranstaltungen im deutschen Raum. Speaker und Sessions der Extraklasse zeigen, dass es immer noch viel zu lernen gibt und helfen einem dabei, den eigenen Horizont zu erweitern. Ich freue mich schon sehr auf die nächste SMX und hoffe, euch mit diesem kleinen Auszug der für mich interessantesten Sessions einen guten Überblick gegeben zu haben.

Weitere Recaps von SMX-Besuchern

smx04

Teile diesen Artikel

3 Kommentare zu “SMX München Recap – Wohin geht die SEO-Reise in 2016

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.