- Startseite
- Triff uns
- SEOkomm
Die Konferenzen rund um die SEOkomm.
Oliver Hauser und sein Team haben wieder geladen: SEOkomm in Salzburg – Ausgabe 8. Nach den spannenden Vorträgen von letztem Jahr war klar, dass wir ebenfalls wieder mit dabei sind. Gesagt, getan: um 6 Uhr in der Früh saßen wir im Auto und bahnten uns den Weg nach Salzburg.
Um 8 Uhr ging es am Einlass noch gemütlich zu, die ersten Teilnehmer trafen ein und der Kaffee lief. Vorbereitung Tagesplanung:
Weiter als bis über den Mittag hinaus gelangt die Planung nicht – los geht es auf der Main Stage mit der Begrüßung: Oliver sagt Guten Morgen zu über 900 SEOs und der Moderator Tobias Fox leitet den Slidestorm mit 420 Folien ein.
Knowledge-Graph, AdWords, Karussel-Anzeige – Schlagwörter, die die Teilnehmer schon vor der Keynote beschäftigen. Was passiert in der SEO-Welt, wenn das streben nach Platz 1 kein Garant mehr für hohe Click-Through-Rates ist, weil die Suchintention bereits von erweiterten Antworten geliefert wird oder durch bezahlte Anzeigen bereits befriedigt wird?
Marcus beginnt erzählt von der Umfirmierung von "OnPage.org" zu "Ryte". Dafür hat das Team, neben den typischen Hausaufgaben auch viel WDF*IDF eingesetzt und verschiedene Wiki-Artikel damit verbessert. Die Platzierung für den Suchbegriff “Redirect” steig an, aber die CTR sank: Redirect wurde plötzlich als Knowledge-Graph gelistet, worüber Google jedoch keine Statistiken liefert.
Die Statistiken in der Google Search Console, kurz GSC sind auch häufiger problematisch, denn Sitelinks unter der Beschreibung zählen als 1.0 Platzierung rein, gemischt mit der Hauptseite ergeben sich Zahlen, die mit Vorsicht zu genießen sind – und korrekt interpretiert werden müssen.
“Mit gutem SEO erhält man nicht mehr als eine Chance”. Und wenn die Chance besteht, sollten die SEOs und Webmaster diese auch nutzen.
Weitere Themen: Fake News, Speed mit AMP inklusive höherer CTRs & Conversion-Rates und mobile Index. Dieser wird laut Marcus keine Evolution, sondern eine Revolution. So wie Coffeine 2009 die Google Suchergebnisse verändert hat, wird der mobile Index eine ähnlich hohe Umwälzung vor und hinter den Kulissen mit sich bringen.
Hosting ist effizienter als Crawling: Google will lieber via API die relevanten Inhalte verarbeiten, statt sie mühsam über Crawler abzurufen. So probiert Google aktuell via Jetpack und JSON-LD wordpress.com-Inhalte abzurufen, ohne dazu umständlich die HTML-Seiten durchgrasen zu müssen.
Die Google Search Console stand auch bei der Präsentation von Sebastian im Vordergrund. Da nur die wenigsten Unternehmen Big Data für Ihre Web-Analyse verwenden, empfiehlt Sebastian vorerst nur die Nutzung von Google Analytics, Google Search Console, Server-Logs, eigene nWebsite-Crawls mit Screaming Frog und Co.
Sobald ein Mehrfach-Ranking in der GSC erkennbar ist, sollte die wichtigste Seite optimiert und die anderen eliminiert werden.
Crawl der eigenen Website mit Screaming Frog und danach die Berechnung in Gephi. Alternativ Deepcrawl oder audisto nutzen, um PageRank, ChiRank und Co. zu ermitteln.
Neben SEO LogFileAnalyzer auch app.rawgraphs.io für Log-File-Analyse nutzen, damit vor allem ein Ziel erreicht werden kann: “Nutzt Daten statt zu raten”.
Gleich ob AngularJS, ReactJS, oder jQuery: JavaScript-Webseiten werden immer beliebter. Doch für ein organische Auffindbarkeit stellen diese JavaScript-Lösungen eine große Herausforderung für Google dar.
Daher stellt Artur vorab die Frage: wie interagiert der Crawler mit JavaScript? Aktuell agiert der GoogleBot mit dem Web-Rendering-Service von Chrome 41. Diese Version ist von 2015 und soll erst kommendes Jahr wieder aktualisiert werden. Daher sollte zum Debuggen und Testen diese Chrome-Version bzw. als Headless-Variante verwendet werden – neben dem klassischen Abrufen & Rendern aus der Search Console. Features wie HTTP/2, Websocket-Protokoll, IndexedDB und viele mehr werden nicht unterstützt. Hilfreich ist hier caniuse.com, um unterstützte Techniken zu verifizieren.
Für Screaming Frog Nutzer: Crawling mit JavaScript-Unterstützung aktivieren. Der Time-Out sollte wie beim Google-Bot maximal fünf Sekunden betragen.
Eine Lösung für eine bessere Indizierung in Suchmaschinen bieten kostenpflichtige Prerendering-Dienste. Dabei werden die Zugriffe der Crawler per User-Agent-Weiche auf die Prerender-Server umgeleitet. Die Herausforderung besteht hierbei wie beim Caching in der korrekten Aktualisierung der Inhalte.
Machine Learning ist eine Methode, die bei Google alles auf den Prüfstand stellt. Mit diesen Worten läutet Stefan die Tech-Session über maschinelles Lernen mit Vektoren ein.
Clustering beschreibt das Zusammenfassen einzelner Elemente oder ganzer Datensätze, welche mittels Algorithmen automatisiert werden können.
Machine-Learning ist nicht als künstliche Intelligenz zu verstehen, sondern bezeichnet vor allem statistische Verfahren. Daher gab Stefan hier ein wenig Nachhilfe in Mathe und erklärte sehr detaillierte Grundlagen: 1 und 0, Vektoren, Cosinus, Dimensionen und Co.
Für einen Test nahm Stefan eine 5 GB große Datei der deutschsprachigen Wikipedia und ließ diesen 5 Stunden durch Word2Vec rödeln. Das Ergebnis war nicht perferkt, aber immerhin besser als geraten.
Beispiel Word2Vec: 1. BVB, 2. erfolgreicher Fußballverein, 3. Dortmund. Wird Punkt 3 entfernt, spuckte sein Versuchsaufbau "FC Bayern" als passendes Pendant aus.
Als zweites Beispiel dienten 13 MB Twitter-Texte aus der SEO-Szene. Die Zusammenhänge der rund 150.000 Tweets waren innerhalb von nur einer Minute Berechnungszeit, bereits auf seinem Notebook zu sehen.
Wofür das Ganze? Zum Beispiel um Synonyme zu finden, Intelligence Competitive aufzubauen oder WDF*IDF auf eigene Faust zu erstellen.
Das Nachvollziehen von Rankings wird laut Stefan aufgrund dieser Technologien immer schwerer zu verstehen. Wer ML selber ausprobieren möchte, kommt um "Python" nicht herum.
Ein spannender Exkurs in die schöne Welt der Mathematik, die die Zukunft verändern kann.
"Technical SEO" trifft auf Dominik als Bezeichnung wohl am genauesten zu. Er zeigt zehn Tipps und neue Technologien, die SEOs auf den Schirm haben sollten:
“Für jede Suchanfrage gelten unterschiedliche Rankingfaktoren!”
Kai führt kritisch durch die moderne SEO-Welt von 2017: Korrelationen, die für Ranking-Studien herangezogen werden, sind von der Aussagekraft mit Vorsicht zu genießen. Auf keinen Fall dürfen Zusammenhänge ohne Berücksichtigung der Ursächlichkeit hineininterpretiert werden. Ein Aufruf, nicht blind allen Daten und Statistiken zu vertrauen, auch wenn es noch so verlockend scheinen mag.
“Man muss nur alle ML-Algorithmen durchprobieren, irgendeiner liefert schon die Daten, die ich haben will.” Eine äußerst erfrischende und gelungene Mischung aus Tiefgang und Unterhaltung!
Die letzte Session des Tages war ein kurzer Abriss von Dennis Oderwald über die notwendigen Hochlastoptimierungen von Webseiten und Online-Shops, die zum Beispiel bei "Die Höhle der Löwen" auftreten.
Das schwächste Glied in der Kette verursacht eine Überlastung, bei der viele Besucher oder gar viel Geld verloren werden kann. Daher müssen alle beteiligten Systeme überprüft und optimiert werden, so dass auch 100.000 gleichzeitige Besucher bewältigt werden können.
Tipp: Ansprechende Fehlerseiten mit Mehrwert und gleichzeitig Remarketing-Pixeln für den Notfall erstellen. So kann zumindest Schadensbegrenzung betrieben werden.
Die Qualität der Vorträge konnte wie schon letztes Jahr voll überzeugen. Vielen Dank an Oliver Hauser und sein Team für die tolle Veranstaltung!
Bilder und Text: Sebastian Eggersberger
Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.
Es ist die siebte SEOkomm, die am Freitag, 18.11.2016 in Salzburg, genauer in Bergheim bei Salzburg, in den Hallen von brandboxx stattfand. Deutschland und Österreich – gefühlt ein gemeinsames SEO-Land, denn die bekannten Gesichter von den anderen SEO-Konferenzen und sind auch hier vertreten.
Eingeläutet wurde die Veranstaltung nach einer kurzen Begrüßung durch den Organisator Oliver Hauser mit einem wunderschönen Abriss durch die gesamte SEO-Welt durch Marcus Tandler alias Mediadonis.
Google hat enorm viele Suchanfragen – nach Schätzungen kommen 70% von Bots und nur 30% von echten Nutzern – aber Google will mehr Informationsquellen: der DNS-Service 8.8.8.8 beispielsweise wickelt bereits 7% aller Anfragen ab. Chrome hat als Browser inzwischen weltweit den größten Verbreitungsgrad und hat Firefox und den Internet Explorer weit hinter sich gelassen. Das mobile Betriebssystem Android ist für den Suchmaschinengiganten ein wahrer Daten-Segen.
Marcus fand eine schöne Mischung aus Übersicht, Aussicht und Einsicht: letzteres traf die (nicht vorhandene?) SEO-Abteilung von Continental, den kleinen unbedeutenden Reifenhersteller. Keine oder schlecht gepflegte Meta-Descriptions und der fehlende SEO-Fokus auf ihr Kerngeschäft (die Seite für Fahrradreifen rankt vor der für Autoreifen) brachte die SEOkomm-Besucher zum Lachen und Weinen gleichzeitig.
Relevanz misst Google mit vielen Faktoren, einer davon könnte die Telefonnummer sein: nach Marcus Detektivarbeit korreliert die Ortsvorwahl auf Webseiten mit standortbezogenen Suchergebnissen. Die Erklärung ist einfach: Ortsvorwahl 089, Suchanfrage für München – thematisch fügt sich das ja schön zusammen. Relevanz und holistische Inhalte sind hier die Schlüsselwörter.
Websites sauber aufräumen: Dominik Woicik motivierte Entwickler, SEOs, Website-Betreiber und Content-Manager zum Hausputz: die drei Bereiche interne Verlinkung, Crawling und Indexmanagement bilden die Basis für das Unterfangen. Bei den internen Links natürlich keine Weiterleitungen verwenden, auf keine Fehlerseiten linken und wichtige Seiten öfter verlinken als unwichtige. Klingt einfach, ist aber ein ordentliches Stück Arbeit.
Beim Crawling gilt vor allem eines: Effizienz. Das Crawl-Budget sinnvoll nutzen, den Google-Bot nicht ärgern oder irreführen und selbst immer wieder testen. Auch hier gilt: klingt einfach, abhängig von System und Größe kann das aber richtig ausarten.
Bereich drei, das Indexmanagement, widmet sich den Inhalten auf der Seite. Dominik vergleicht hier sehr treffend die Webseite mit einem Kühlschrank: viele Inhalte darin können mit der Zeit anfangen zu schimmeln und müssen erneuert werden. Das bedeutet, entweder regelmäßig zu überarbeiten oder schlicht und ergreifend einfach entfernen. Saubermachen, auch wenn es im ersten Moment schmerzt.
Sebastian Erlhofer referierte 40 Minuten über die Google Search Console, welche immer noch unter Webmaster Tools in der URL geführt wird. Wichtige Klarstellung: immer die Zahlen hinterfragen, die angezeigt werden. GSC liefert bereinigte Werte, weshalb immer wieder Abweichungen vorzufinden sind. Auch sollte die Search Console nicht als Link-Optimierungs-Tool genutzt werden – da gibt es deutlich bessere Alternativen auf dem Markt.
Für SEOs, die eine Disavow-Liste pflegen müssen, ist ein einfaches Hochladen, Einreichen und Warten der falsche Weg, um schnell sichtbare Ergebnisse zu erzielen. Grund: Google schaut bei einer Vielzahl der gelisteten Seite sehr wahrscheinlich nicht so schnell vorbei. Sebastians Behelfslösung: eine nagelneue Website mit neuer Domain erstellen, die Websites aus der Disavow-Liste dort verlinken und die neue Website dann bei Google zum indexieren einreichen. So crawlt sich der Bot durch das neue HTML und folgt den Links zu den zu entwertenden Domains und die Aktualisierung erfolgt.
Weitere Themen des Vortrags waren Aufräumen (Statuscode 410 “gone” statt 404 nutzen und in der Search Console die Funktion „Als korrigiert markieren” anhaken), Content-Pflege (attraktive Schwellenkeywords mittels Suchanfragen finden) und die API nutzen.
Ein technischer Vortrag mit vielen guten Tipps, wie sich mehr aus der Google Search Console rausholen lässt. Und nicht vergessen: immer die Daten wegspeichern!
– zumindest zu großen Teilen. Diese Aussage stammt vom Google-Mitarbeiter und Webmaster-Guru John Müller. Er stand im über halbstündigen Panel Fragen aus der Runde wieder Frage und Antwort. Erfahrungen damit hat er: allein in den bisher stattgefundenen Webmaster-Hangouts wurden über 2.440 Fragen von ihm mit einer stoischen Gelassenheit beantwortet, von denen manche die Zuschauer nur mit einem „das hast du grad nicht wirklich gefragt” quittiert worden wäre.
Mobile First ist immer noch nicht angekommen, aber die Anteil mobiler Nutzung wächst stetig. Google praktiziert das Mobile First Credo bereits seit über sechs Jahren, bei Website-Schmieden ist das aber noch nicht immer der Fall.
Stefan Fischerländer verdeutlicht in seinem Vortrag nochmal die Wichtigkeit, sich um die mobile Website zu kümmern. Er rät sogar zu einem mobile-only Tag: Einen Tag in der Woche nur mit dem Smartphone arbeiten und die eigenen Webseiten anschauen – immerhin sehen geamt-durchschnittlich (abhängig von Branche und Bereich) über die Hälfte der Nutzer die Seite auf diese Weise. Dieser Schritt wirkt erstmal ziemlich drastisch, ist aber genauer betrachtet nur konsequent und richtig.
Kurz nach 18 Uhr neigte sich der SEOkomm dem Ende – doch gab es noch ein letztes Highlight: die Party am Abend im Kavalierhaus. Klingt für viele im ersten Moment unanständig, war es aber nicht. Bei feinstem Essen, gutem Bier mit erhellenden Motiven und Cocktails wie Longdrinks konnte ein jeder entspannt den Abend Revue passieren lassen. Damit nicht genug, gab es via Jochen Schweizer draußen auch noch ein „Wir-schmeißen-mit-dem-Bagger-Holzklötzchen-um” Spiel auf Zeit. Die schnellsten drei gewannen dabei Gutscheine von Jochen Schweizer. Bis zuletzt war mir mit 51 Sekunden noch ein Sieg auf dem Treppchen sicher – bis der geschätzte Kollege Hans Jung um kurz vor halb elf an den Start ging und mich mit 50 Sekunden davon verbannte. Viel Spaß beim Surfen an der Stelle!
Die SEOkomm in Salzburg war 2016 eine top Veranstaltung: sehr gute Speaker, guter Zeitrahmen und wieder um einige Anregungen reicher geht es zurück in die Heimat. Man merkt der Konferenz die sieben Jahre an – professionell vom Einlass über Mittagessen bis zum Schluss. Wir freuen uns auf die SEOkomm 2017!
Bilder und Text: Sebastian Eggersberger
Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.