SEOkomm

SEOkomm 2018 Recap vom 23. November 2018 in Salzburg

Die neunte Ausgabe der SEOkomm in Salzburg wartete wieder mit einem vollen Programm rund um die Suchmaschinenoptimierung auf. Zum ersten mal ist Sebastian Blum als Speaker zum Thema Google Tag Manager vertreten.

KeynoteMarcus Tandler

Vorteile durch Sichtbarkeitsverlust: was zunächst unsinnig klingt, bringt Vorteile. Google schmiss zuletzt massenhaft Seiten aus den Top 10 der Suchergebnislisten, die ganz selten geklickt wurden, so zum Beispiel bei T3N: über 2,7 Mio Impressionen „verloren“, jedoch damit gerade mal 5.000 Klicks eingebüßt – definitiv vernachlässigbar gegenüber den eigentlichen Rankings.

Search Console nutzen

Die Zahlen hierzu stammen aus der Google Search Console, denn „die Leistungsdaten der GSC sind einfach die besten Daten für die SEO-Performance der Website“, so Tandler.

Auch sollte die GSC nicht nur über die Weboberfläche, sondern vor allem via API genutzt werden: bis zu 25.000 Zeilen pro API-Call sind inzwischen möglich. Die Vermutung dahinter: Google will das SERP-Scraping eindämmen, da immer noch über 75% der Suchabfragen von Bots durchgeführt werden, eben auch um Rankings, Trends und Neuerungen zu ermitteln. Die massenhaften Abfragen können sogar so weit reichen, dass selbst für die echten Nutzer Geschwindigkeitsbeeinträchtigungen bemerkbar wurden – geht bei dem auf Geschwindigkeit getrimmten Unternehmen aus Mountain View gar nicht.

kona

Ziel: eine Software zu entwickeln, die linguistisch so umfassend ist wie unsere Sprache. Nicht mehr tippen & lesen, sondern zuhören & verstehen. Nicht mehr langwierig nach den Informationen auf einer Seite suchen müssen, sondern direkt die Antwort bekommen. Google beginnt bereits damit, selbstständig mit Anchor- und Headline-Links direkt zur „richtigen“ Stelle zu springen: zu den „fraggles“, also den granularen Informationen. Sie wollen keine Webseiten mehr ranken, sondern Informationen. Passend dazu nun auch WordPress neue Technik mit Blocks, welche von Google später direkt via API statt über Crawling abrufbar sein soll. Da WordPress inzwischen für 30% der weltweiten Websites eingesetzt wird, ist die Wirkung dazu natürlich enorm.

JavaScriptMartin Splitt (Google)

JavaScript: ein Name, aber verschiedene Bedeutungen. Ursprünglich als serverseitige Sprache angedacht, wird es heutzutage massenhaft in Browsern eingesetzt und sorgt seit jeher bei vielen Admins für Kopfzerbrechen. Vor allem neue, komplett auf JavaScript basierende Websites stellen neue Herausforderungen an die Suchmaschinen.

Hybrid-Rendering

War bei HTML-Seiten mit angereichertem JavaScript zur nachträglichen Filterung oder Sortierung der Content noch komplett im Quelltext vorhanden, lädt nun JavaScript oftmals selbst Content nach, z. B. bei Single Page Applications (SPA). Das HTML-Gerüst hingegen enthält diesen Inhalt nicht mehr. Das stellt nicht nur den Google-Bot vor Probleme, sondern kann auch zu Einschränkungen beim Nutzererlebnis führen. Denn vor allem bei einfachem, „nur“ clientseitigem Rendering und mobiler Nutzung ergeben sich Perfomancebeeinträchtigungen. Besser wäre daher eine Hybrid-Rendering-Lösung, also Server-side Rendering + JavaScript im Browser. Das ist natürlich deutlich aufwändiger, bietet dafür aber dann das Beste aus beiden Welten.

Google-Bot & JavaScript

Wenn der Bot beginnt, eine Seite zu crawlen, lädt er den HTML-Inhalt in einen Processor und gibt die ersten Links gleich wieder zurück in die Crawl-Warteschlange. Wenn Zeit ist („das Web ist groß“), wird das HTML dann erst noch zusätzlich gerendert und somit erst das JavaScript ausgeführt. Dieses gerenderte HTML geht dann wieder zurück zum Processor und die neu hinzugekommenen Links gelangen dann erst in die Crawl-Warteschlange. Bei reinen JavaScript-Seiten wird diese erste Indexierung jedoch rausgeworfen. Hier wird laut Martin richtig SEO-Potential verschenkt, da das Rendering oft stark verzögert stattfinden kann.

Data-driven Technical SEO: LogfilesBastian Grimm

Kein Webtool und kein Programm kann das Verhalten des Google-Bots auf der eigenen Website aufzeigen: nur die eigenen Server-Logfiles sind dazu in der Lage. Das Problem dabei: Logfiles sind eine riesige Menge Datenwust. Deshalb müssen vor einer Logfile-Analyse die richtigen Fragen gestellt werden, um wirklich einen Nutzen daraus zu ziehen.

Logfiles müssen dabei nicht zwingend personenbezogene Daten beinhalten: vor allem, wenn bereits bei der Erhebung nach den Suchmaschinenbots gefiltert wird, ist die Verwendung und Verarbeitung der Logs problemlos datenschutzkonform möglich.

Tools zum Analysieren von Logfiles

  • Bastian nennt als Einsteiger-Tool in die Welt der Logfiles den ScreamingFrog Logfile Analyzer. Denn spätestens wenn die Daten größer werden und im Team an der Auswertung gearbeitet wird, fällt die praktische Desktop-Anwendung aus.
  • Das Gegenstück zum „kleinen ScreamingFrog Logfile Analyzer“: Splunk Enterprise für Large-scale Log-Management. Kostet richtig, aber für große Unternehmen entsprechend gut geeignet.
  • Bekanntestes Setup & Open-Source: Elasticsearch (Daten), Logstash (Processing) & Kibana (Visualisierung). Aufwändig in der Grundinstallation und bis die ersten funkelnden und aussagekräftigen Daten vorliegen, aber beliebig skalierbar und abgesehen von der Einrichtung keine extra Kosten für Gebühren.

Tipps für den Start

  • Zuerst werden die Logfiles auf Anomalien im Zeitverlauf (also Peaks) untersucht: gibt es extreme Ausschläge? Falls ja: wie lassen sich diese erklären (außer mit falschen Daten)?
  • Immer die Crawl-Frequenz nach User-Agent im zeitlichen Verlauf betrachten. Hierbei helfen Visualisierungen für eine schnelle Übersicht. Wie oft schaut der mobile Bot von Google vorbei, wie oft der Desktop? Werden wichtige Seiten innerhalb von 30 Tagen nicht vom Google-Bot besucht, gibt es dringenden Handlungsbedarf! Ebenso bedarf es eines Vergleichs der vermeintlich wertvollsten Landingpages vs. Crawl-Frequenz. Bei Missverhältnis vor allem die interne Verlinkung verbessern.
  • Suche nach weiteren Bots und Scrapern und diese bei Bedarf via nginx- oder .htaccess-Konfiguration aussperren, um Server-Last zu reduzieren. Viele geben sich auch nur als Google-Bot aus, sind es aber gar nicht. Daher immer mit Reverse-DNS prüfen.
  • Komprimierung und Bildoptimierung können ebenfalls mit Logfiles analysiert werden: größte Datenpakete identifizieren und prüfen, ob alle Performance-Optimierungen auch wirklich greifen.
  • Auch die Logfiles zu JSON-, XML- und JS-Dateien analysieren. Werden die Sitemaps von den Suchmaschinen überhaupt regelmäßig abgefragt oder liegen sie komplett ohne Besucher auf dem Server rum?

Google Tag Manager plus Data Layer: deine besten Freunde im Online MarketingSebastian Blum

Wenn Marketing-Abteilungen bei der IT graue Haare verursachen, kann ein Grund Google Tag Manager lauten. Das mächtige Tool birgt für eine Website ein wahnsinniges Verbesserungs- und Gefährdungspotential zugleich. Damit zumindest die klassischen Probleme, welche die Performance und Funktionalität beeinträchtigen, reduziert werden können, stellte Sebastian Blum die Vorteile des Data Layer und den Einsatz von mehreren Containern auf einer Website für die jeweils unterschiedlichen Zwecke vor. Eine ausführlichere Version des Vortrags findet sich in unserer Zusammenfassung unter https://www.sblum.de/tagmanager.

Fazit

Wir bedanken uns wieder ganz herzlich bei Oliver Hauser, seiner Frau und dem ganzen Team für die Organisation, den Speakern für die genialen Vorträge und allen, die bis hierhin gelesen haben. Bis nächstes Jahr zur sage und schreibe zehnten SEOkomm!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 17

SEOkomm 2017 Recap vom 17. November 2017 in Salzburg

Oliver Hauser und sein Team haben wieder geladen: SEOkomm in Salzburg – Ausgabe 8. Nach den spannenden Vorträgen von letztem Jahr war klar, dass wir ebenfalls wieder mit dabei sind. Gesagt, getan: um 6 Uhr in der Früh saßen wir im Auto und bahnten uns den Weg nach Salzburg.

Um 8 Uhr ging es am Einlass noch gemütlich zu, die ersten Teilnehmer trafen ein und der Kaffee lief. Vorbereitung Tagesplanung:

  • Keynote mit Marcus Tandler: eh klar.
  • Datenorientiertes SEO mit der GSC: gebucht.
  • JavaScript SEO: sollte man sich mal anhören.

Weiter als bis über den Mittag hinaus gelangt die Planung nicht – los geht es auf der Main Stage mit der Begrüßung: Oliver sagt Guten Morgen zu über 900 SEOs und der Moderator Tobias Fox leitet den Slidestorm mit 420 Folien ein.

Keynote: Position ZeroMarcus Tandler

Knowledge-Graph, AdWords, Karussel-Anzeige – Schlagwörter, die die Teilnehmer schon vor der Keynote beschäftigen. Was passiert in der SEO-Welt, wenn das streben nach Platz 1 kein Garant mehr für hohe Click-Through-Rates ist, weil die Suchintention bereits von erweiterten Antworten geliefert wird oder durch bezahlte Anzeigen bereits befriedigt wird?

Marcus beginnt erzählt von der Umfirmierung von "OnPage.org" zu "Ryte". Dafür hat das Team, neben den typischen Hausaufgaben auch viel WDF*IDF eingesetzt und verschiedene Wiki-Artikel damit verbessert. Die Platzierung für den Suchbegriff “Redirect” steig an, aber die CTR sank: Redirect wurde plötzlich als Knowledge-Graph gelistet, worüber Google jedoch keine Statistiken liefert.

Die Statistiken in der Google Search Console, kurz GSC sind auch häufiger problematisch, denn Sitelinks unter der Beschreibung zählen als 1.0 Platzierung rein, gemischt mit der Hauptseite ergeben sich Zahlen, die mit Vorsicht zu genießen sind – und korrekt interpretiert werden müssen.

“Mit gutem SEO erhält man nicht mehr als eine Chance”. Und wenn die Chance besteht, sollten die SEOs und Webmaster diese auch nutzen.

Weitere Themen: Fake News, Speed mit AMP inklusive höherer CTRs & Conversion-Rates und mobile Index. Dieser wird laut Marcus keine Evolution, sondern eine Revolution. So wie Coffeine 2009 die Google Suchergebnisse verändert hat, wird der mobile Index eine ähnlich hohe Umwälzung vor und hinter den Kulissen mit sich bringen.

Hosting ist effizienter als Crawling: Google will lieber via API die relevanten Inhalte verarbeiten, statt sie mühsam über Crawler abzurufen. So probiert Google aktuell via Jetpack und JSON-LD wordpress.com-Inhalte abzurufen, ohne dazu umständlich die HTML-Seiten durchgrasen zu müssen.

Datenorientiertes SEO mit Fokus auf die GSCSebastian Erlhofer

Die Google Search Console stand auch bei der Präsentation von Sebastian im Vordergrund. Da nur die wenigsten Unternehmen Big Data für Ihre Web-Analyse verwenden, empfiehlt Sebastian vorerst nur die Nutzung von Google Analytics, Google Search Console, Server-Logs, eigene nWebsite-Crawls mit Screaming Frog und Co.

Google Search Console (GSC)

  • Daten nach Geräte-Kategore und Suchtyp unterscheiden
  • 1.000 URL-Grenze pro Tag beachten
  • Daten regelmäßig sichern

Sobald ein Mehrfach-Ranking in der GSC erkennbar ist, sollte die wichtigste Seite optimiert und die anderen eliminiert werden.

Crawl der eigenen Website mit Screaming Frog und danach die Berechnung in Gephi. Alternativ Deepcrawl oder audisto nutzen, um PageRank, ChiRank und Co. zu ermitteln.

Neben SEO LogFileAnalyzer auch app.rawgraphs.io für Log-File-Analyse nutzen, damit vor allem ein Ziel erreicht werden kann: “Nutzt Daten statt zu raten”.

JavaScript SEOArtur Kosch

Gleich ob AngularJS, ReactJS, oder jQuery: JavaScript-Webseiten werden immer beliebter. Doch für ein organische Auffindbarkeit stellen diese JavaScript-Lösungen eine große Herausforderung für Google dar.

Daher stellt Artur vorab die Frage: wie interagiert der Crawler mit JavaScript? Aktuell agiert der GoogleBot mit dem Web-Rendering-Service von Chrome 41. Diese Version ist von 2015 und soll erst kommendes Jahr wieder aktualisiert werden. Daher sollte zum Debuggen und Testen diese Chrome-Version bzw. als Headless-Variante verwendet werden – neben dem klassischen Abrufen & Rendern aus der Search Console. Features wie HTTP/2, Websocket-Protokoll, IndexedDB und viele mehr werden nicht unterstützt. Hilfreich ist hier caniuse.com, um unterstützte Techniken zu verifizieren.

Für Screaming Frog Nutzer: Crawling mit JavaScript-Unterstützung aktivieren. Der Time-Out sollte wie beim Google-Bot maximal fünf Sekunden betragen.

Eine Lösung für eine bessere Indizierung in Suchmaschinen bieten kostenpflichtige Prerendering-Dienste. Dabei werden die Zugriffe der Crawler per User-Agent-Weiche auf die Prerender-Server umgeleitet. Die Herausforderung besteht hierbei wie beim Caching in der korrekten Aktualisierung der Inhalte.

Machine-Learning mit Word2VecStefan Fischerländer

Machine Learning ist eine Methode, die bei Google alles auf den Prüfstand stellt. Mit diesen Worten läutet Stefan die Tech-Session über maschinelles Lernen mit Vektoren ein.

Clustering beschreibt das Zusammenfassen einzelner Elemente oder ganzer Datensätze, welche mittels Algorithmen automatisiert werden können.

Machine-Learning ist nicht als künstliche Intelligenz zu verstehen, sondern bezeichnet vor allem statistische Verfahren. Daher gab Stefan hier ein wenig Nachhilfe in Mathe und erklärte sehr detaillierte Grundlagen: 1 und 0, Vektoren, Cosinus, Dimensionen und Co.

Für einen Test nahm Stefan eine 5 GB große Datei der deutschsprachigen Wikipedia und ließ diesen 5 Stunden durch Word2Vec rödeln. Das Ergebnis war nicht perferkt, aber immerhin besser als geraten.

Beispiel Word2Vec: 1. BVB, 2. erfolgreicher Fußballverein, 3. Dortmund. Wird Punkt 3 entfernt, spuckte sein Versuchsaufbau "FC Bayern" als passendes Pendant aus.

Als zweites Beispiel dienten 13 MB Twitter-Texte aus der SEO-Szene. Die Zusammenhänge der rund 150.000 Tweets waren innerhalb von nur einer Minute Berechnungszeit, bereits auf seinem Notebook zu sehen.

Wofür das Ganze? Zum Beispiel um Synonyme zu finden, Intelligence Competitive aufzubauen oder WDF*IDF auf eigene Faust zu erstellen.

Das Nachvollziehen von Rankings wird laut Stefan aufgrund dieser Technologien immer schwerer zu verstehen. Wer ML selber ausprobieren möchte, kommt um "Python" nicht herum.

Ein spannender Exkurs in die schöne Welt der Mathematik, die die Zukunft verändern kann.

Zehn SEO-HacksDominik Wojcik

"Technical SEO" trifft auf Dominik als Bezeichnung wohl am genauesten zu. Er zeigt zehn Tipps und neue Technologien, die SEOs auf den Schirm haben sollten:

  • Free Losless Image Format, kurz FLIF: Bilder-Optimierung für besseren Page Speed. Wird aber aktuell leider noch von keinem Webbrowser unterstützt. Status: die nächstn ein bis zwei Jahre beobachten.
  • JavaScript-Frameworks: AngularJS & ReactJS (oder Google vs. Facebook). Passend dazu: PreactJS als abgespeckte, aber deutlich performantere ReactJS-Version. Zu beachten: Server Side Rendering (SSR) und Client Side Rendering (CSR). Tipp: Rendertron als Renderer verwenden
  • Progressive Web Apps (PWA): reines Google-Universum, der Einsatz könnte in manchen Fällen mehr Sinn als klassische Apps machen
  • WebVR: mehr Engagement und völlig neue Möglichkeiten
  • Individuelle Logfile Analyse mit Big Query und Google Data Studio – alternativ: mit Logstash und Kibana
  • Nutze Octoparse: „easy web scraping“ für automatisiertes Crawlen von Websites
  • Verwende unbedingt Schema.org Question und Answer Markup
  • Tipp: Einsatz von commoncrawl.org statt eigene Tools zu entwickeln
  • Save the Web: Security Header richtig einsetzen, um die Webseite gegen Angriffe abzusichern

Data-Driven-SEOKai Spriestersbach

“Für jede Suchanfrage gelten unterschiedliche Rankingfaktoren!”

Kai führt kritisch durch die moderne SEO-Welt von 2017: Korrelationen, die für Ranking-Studien herangezogen werden, sind von der Aussagekraft mit Vorsicht zu genießen. Auf keinen Fall dürfen Zusammenhänge ohne Berücksichtigung der Ursächlichkeit hineininterpretiert werden. Ein Aufruf, nicht blind allen Daten und Statistiken zu vertrauen, auch wenn es noch so verlockend scheinen mag.

“Man muss nur alle ML-Algorithmen durchprobieren, irgendeiner liefert schon die Daten, die ich haben will.” Eine äußerst erfrischende und gelungene Mischung aus Tiefgang und Unterhaltung!

YAY! Hochlastoptimierung für DHDLDennis Oderwald

Die letzte Session des Tages war ein kurzer Abriss von Dennis Oderwald über die notwendigen Hochlastoptimierungen von Webseiten und Online-Shops, die zum Beispiel bei "Die Höhle der Löwen" auftreten.

Das schwächste Glied in der Kette verursacht eine Überlastung, bei der viele Besucher oder gar viel Geld verloren werden kann. Daher müssen alle beteiligten Systeme überprüft und optimiert werden, so dass auch 100.000 gleichzeitige Besucher bewältigt werden können.

Tipp: Ansprechende Fehlerseiten mit Mehrwert und gleichzeitig Remarketing-Pixeln für den Notfall erstellen. So kann zumindest Schadensbegrenzung betrieben werden.

Fazit

Die Qualität der Vorträge konnte wie schon letztes Jahr voll überzeugen. Vielen Dank an Oliver Hauser und sein Team für die tolle Veranstaltung!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

Salzburg 16

SEOkomm 2016 Recap vom 18. November 2016 in Salzburg

Es ist die siebte SEOkomm, die am Freitag, 18.11.2016 in Salzburg, genauer in Bergheim bei Salzburg, in den Hallen von brandboxx stattfand. Deutschland und Österreich – gefühlt ein gemeinsames SEO-Land, denn die bekannten Gesichter von den anderen SEO-Konferenzen und sind auch hier vertreten.

Eingeläutet wurde die Veranstaltung nach einer kurzen Begrüßung durch den Organisator Oliver Hauser mit einem wunderschönen Abriss durch die gesamte SEO-Welt durch Marcus Tandler alias Mediadonis.

Make SEO great again

Google hat enorm viele Suchanfragen – nach Schätzungen kommen 70% von Bots und nur 30% von echten Nutzern – aber Google will mehr Informationsquellen: der DNS-Service 8.8.8.8 beispielsweise wickelt bereits 7% aller Anfragen ab. Chrome hat als Browser inzwischen weltweit den größten Verbreitungsgrad und hat Firefox und den Internet Explorer weit hinter sich gelassen. Das mobile Betriebssystem Android ist für den Suchmaschinengiganten ein wahrer Daten-Segen.

Marcus fand eine schöne Mischung aus Übersicht, Aussicht und Einsicht: letzteres traf die (nicht vorhandene?) SEO-Abteilung von Continental, den kleinen unbedeutenden Reifenhersteller. Keine oder schlecht gepflegte Meta-Descriptions und der fehlende SEO-Fokus auf ihr Kerngeschäft (die Seite für Fahrradreifen rankt vor der für Autoreifen) brachte die SEOkomm-Besucher zum Lachen und Weinen gleichzeitig.

Relevanz misst Google mit vielen Faktoren, einer davon könnte die Telefonnummer sein: nach Marcus Detektivarbeit korreliert die Ortsvorwahl auf Webseiten mit standortbezogenen Suchergebnissen. Die Erklärung ist einfach: Ortsvorwahl 089, Suchanfrage für München – thematisch fügt sich das ja schön zusammen. Relevanz und holistische Inhalte sind hier die Schlüsselwörter.

„Du lädst Google zu dir nach Hause ein“

Websites sauber aufräumen: Dominik Woicik motivierte Entwickler, SEOs, Website-Betreiber und Content-Manager zum Hausputz: die drei Bereiche interne Verlinkung, Crawling und Indexmanagement bilden die Basis für das Unterfangen. Bei den internen Links natürlich keine Weiterleitungen verwenden, auf keine Fehlerseiten linken und wichtige Seiten öfter verlinken als unwichtige. Klingt einfach, ist aber ein ordentliches Stück Arbeit.

Beim Crawling gilt vor allem eines: Effizienz. Das Crawl-Budget sinnvoll nutzen, den Google-Bot nicht ärgern oder irreführen und selbst immer wieder testen. Auch hier gilt: klingt einfach, abhängig von System und Größe kann das aber richtig ausarten.

Bereich drei, das Indexmanagement, widmet sich den Inhalten auf der Seite. Dominik vergleicht hier sehr treffend die Webseite mit einem Kühlschrank: viele Inhalte darin können mit der Zeit anfangen zu schimmeln und müssen erneuert werden. Das bedeutet, entweder regelmäßig zu überarbeiten oder schlicht und ergreifend einfach entfernen. Saubermachen, auch wenn es im ersten Moment schmerzt.

Google Search Console Advanced

Sebastian Erlhofer referierte 40 Minuten über die Google Search Console, welche immer noch unter Webmaster Tools in der URL geführt wird. Wichtige Klarstellung: immer die Zahlen hinterfragen, die angezeigt werden. GSC liefert bereinigte Werte, weshalb immer wieder Abweichungen vorzufinden sind. Auch sollte die Search Console nicht als Link-Optimierungs-Tool genutzt werden – da gibt es deutlich bessere Alternativen auf dem Markt.

Für SEOs, die eine Disavow-Liste pflegen müssen, ist ein einfaches Hochladen, Einreichen und Warten der falsche Weg, um schnell sichtbare Ergebnisse zu erzielen. Grund: Google schaut bei einer Vielzahl der gelisteten Seite sehr wahrscheinlich nicht so schnell vorbei. Sebastians Behelfslösung: eine nagelneue Website mit neuer Domain erstellen, die Websites aus der Disavow-Liste dort verlinken und die neue Website dann bei Google zum indexieren einreichen. So crawlt sich der Bot durch das neue HTML und folgt den Links zu den zu entwertenden Domains und die Aktualisierung erfolgt.

Weitere Themen des Vortrags waren Aufräumen (Statuscode 410 “gone” statt 404 nutzen und in der Search Console die Funktion „Als korrigiert markieren” anhaken), Content-Pflege (attraktive Schwellenkeywords mittels Suchanfragen finden) und die API nutzen.

Ein technischer Vortrag mit vielen guten Tipps, wie sich mehr aus der Google Search Console rausholen lässt. Und nicht vergessen: immer die Daten wegspeichern!

Der Googlebot soll wie ein normaler Browser funktionieren

– zumindest zu großen Teilen. Diese Aussage stammt vom Google-Mitarbeiter und Webmaster-Guru John Müller. Er stand im über halbstündigen Panel Fragen aus der Runde wieder Frage und Antwort. Erfahrungen damit hat er: allein in den bisher stattgefundenen Webmaster-Hangouts wurden über 2.440 Fragen von ihm mit einer stoischen Gelassenheit beantwortet, von denen manche die Zuschauer nur mit einem „das hast du grad nicht wirklich gefragt” quittiert worden wäre.

Mobile SEO

Mobile First ist immer noch nicht angekommen, aber die Anteil mobiler Nutzung wächst stetig. Google praktiziert das Mobile First Credo bereits seit über sechs Jahren, bei Website-Schmieden ist das aber noch nicht immer der Fall.

Stefan Fischerländer verdeutlicht in seinem Vortrag nochmal die Wichtigkeit, sich um die mobile Website zu kümmern. Er rät sogar zu einem mobile-only Tag: Einen Tag in der Woche nur mit dem Smartphone arbeiten und die eigenen Webseiten anschauen – immerhin sehen geamt-durchschnittlich (abhängig von Branche und Bereich) über die Hälfte der Nutzer die Seite auf diese Weise. Dieser Schritt wirkt erstmal ziemlich drastisch, ist aber genauer betrachtet nur konsequent und richtig.

Networking Party

Kurz nach 18 Uhr neigte sich der SEOkomm dem Ende – doch gab es noch ein letztes Highlight: die Party am Abend im Kavalierhaus. Klingt für viele im ersten Moment unanständig, war es aber nicht. Bei feinstem Essen, gutem Bier mit erhellenden Motiven und Cocktails wie Longdrinks konnte ein jeder entspannt den Abend Revue passieren lassen. Damit nicht genug, gab es via Jochen Schweizer draußen auch noch ein „Wir-schmeißen-mit-dem-Bagger-Holzklötzchen-um” Spiel auf Zeit. Die schnellsten drei gewannen dabei Gutscheine von Jochen Schweizer. Bis zuletzt war mir mit 51 Sekunden noch ein Sieg auf dem Treppchen sicher – bis der geschätzte Kollege Hans Jung um kurz vor halb elf an den Start ging und mich mit 50 Sekunden davon verbannte. Viel Spaß beim Surfen an der Stelle!

Fazit

Die SEOkomm in Salzburg war 2016 eine top Veranstaltung: sehr gute Speaker, guter Zeitrahmen und wieder um einige Anregungen reicher geht es zurück in die Heimat. Man merkt der Konferenz die sieben Jahre an – professionell vom Einlass über Mittagessen bis zum Schluss. Wir freuen uns auf die SEOkomm 2017!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.