SMX München

SMX München 2020Search Marketing Expo Summer Edition am 1. und 2. September 2020

Alles anders und doch vertraut. Endlich wieder eine Veranstaltung vor Ort und trotzdem Abstand. Die SMX 2020 sticht sicherlich deutlich hervor in ihrer langjährigen Geschichte: von der abgesagten Vor-Ort-Veranstaltung im März hin zu einem ersten reinen Online-Event nun im September nochmal der Nachschlag und die SMX Teil 2 2020 als hybride Veranstaltung: jede/r Teilnehmer/in gab zuvor an, ob der SMX persönlich in den Räumen des ICM oder online via Stream beigewohnt wird.

Und so fand – durch die gesetzlichen Regelungen begleitet – die SMX 2020 doch noch als „echtes“ Event mit persönlichen Kontakt statt.

Als Keynote-Speaker waren Julius van de Laar, bekannt für seine Vorträge über seine Zeit im Wahlkampf-Team von Barack Obama sowie tags darauf André Morys, UX-Koryphäe von konversionsKRAFT auf der großen Bühne absolut richtig platziert.

Die weiteren Vorträge waren aktualisierte oder gänzlich neu hinzugekommene Präsentationen zu den angesagten Themen: Google Discover, SEA-Ausreißer Lockdown und nicht zuletzt natürlich auch Technikthemen wie Weiterleitungsmanagement, Cookie-Störungen durch Browser & DSGVO, strukturierte Daten oder Dauerbrenner Site Speed.

Impressionen SMX Summer Edition 2020

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

2019

SMX München 2019Search Marketing Expo vom 2. bis 3. April 2019

1.600 Teilnehmerinnen und Teilnehmer aus sage und schreibe 35 Ländern – mit diesen beeindruckenden Zahlen eröffnete Rising Media die zwölfte SMX. In bis zu sieben gleichzeitig stattfindenden Tracks ging es wieder rund um die Themen Suchmaschinenoptimierung und -marketing mit namhaften Speakern von Google, Microsoft, Booking.com, Vodafone und vielen mehr.

Tag 1, Dienstag 2. April

Keynote: Die vier Reiter der Web-Marketing-ApokalypseRand Fishkin

Guten Inhalt erstellen, damit Links aufbauen, via Social Media Links streuen und Traffic einheimsen: das SEO Playbook funktionierte 2009 bis 2016 sehr gut, aber jetzt nicht mehr.

  1. Die großen Plattformen wie Twitter, Facebook und YouTube wollen die Besucher auf ihren eigenen Seiten halten und stellen Posts mit Outbound-Links schlechter.
  2. Weniger Klicks von Google: mehr und mehr Antworten werden direkt auf der SERP-Seite geliefert – ein weiterer Klick und Besuch einer Website entfällt damit immer öfter.
  3. Influencer failing influencing: die tatsächliche Reichweite für Promotions und gesponserte Inhalte ist viel niedriger als es auf den ersten Blick den Anschein hat.
  4. Ads ROI gehen gegen 0, denn man konkurriert mit Werbetreibenden, die der ROI oft gar nicht interessiert. Für Mitbewerber können andere Kennzahlen viel interessanter sein, z. B. neue Nutzer generieren – und zerstören damit die klassische Anzeigenschaltung, die sich für Unternehmen noch rechnet.

Ein Ausweg? Laut Rand die Rückkehr zur eigenen Website und E-Mail-Marketing. Diese Kanäle werden so unterschätzt und bieten noch so viel Potential. Auch die Verfolgung von Keywords mit hoher CTR sind in vielen Fällen die spannenderen – nicht die mit hohem Suchvolumen.

Zielgruppenansprache in einer datenschutzorientierten WeltDr. Martin Schirmbacher

Die zielgruppenspezifische Ansprache & DSGVO. Alles, was mit personenbezogenen Daten – aber auch Daten, die auf Pseudonym schließen – zu tun hat, unterliegt der DSGVO. Daher sind auch Dienste betroffen, die nur auf IDs gehen, mit der Verordnung zu betrachten. Jedoch wurde mit der Einführung nicht alles schlechter: das berechtigte Interesse ist ein mächtiges Instrument, das es zuvor für Marketer nicht gab!

Was jedoch über das berechtigte Interesse hinausgeht, muss mit einer Einwilligung legitimiert werden. Hierbei gilt: Opt-In = Einwilligung => Möglichkeit des Widerrufs. Kein Opt-In: Opt-Out => Widerspruch im Nachgang

Nach Martin Schirmbacher wäre eine solche Widerspruchsklausel, wie jetzt in der DSGVO verankert, hinfällig, wenn alles nur auf Einwilligung gesetzt wird. Daher ist seiner Meinung nach das Positionspapier von der DSK nicht haltbar.

Die Nutzung einer Facebook Custom Audience hingegen ist demnach nur mit Einwilligung rechtlich sauber, da der normale Nutzer nicht davon ausgehen kann, dass seine E-Mail-Adresse von einem Unternehmen einfach bei Facebook hochgeladen wird. Wichtig an der Stelle auch: Facebook zeigt inzwischen den Nutzern an, welche Unternehmen mit ihnen interagieren.

Ein letzter Satz zur Cookie-Richtlinie: diese ist in Deutschland noch nicht bzw. mittels TMG noch unzureichend umgesetzt. Des Weiteren ist es nur eine Richtlinie – keine Verordnung wie die DSGVO. Rechtlich geklärt wird es wohl erst mit der ePrivacy-Verordnung. 2019. Oder 2020. Oder später.

Tag 2, Mittwoch 3. April

Wenn die Technologie unser Leben bestimmt - Überlebensstrategien für eine neue ÄraKarl Gilis

Es muss am Vornamen liegen: die Content-Karls predigen – und das können sie gar nicht oft genug – den Nutzer-zentrierten Ansatz in der gesamten Unternehmensphilosophie. An der Speerspitze kommt natürlich die eigene Website zum Tragen, denn sie ist in vielen Branchen der (Haupt-)Akquise-Kanal. Verstehe deine Nutzer, ihre Bedürfnisse, ihre Ängste – und richte danach die Website aus.

Anhand von plakativen und realen Beispielen zeigte Karl Gilis, welch enormer Hebel sich hinter einer richtigen Ansprache und der Herangehensweise eines Customer Centric Marketing verbirgt.

Dass das jedoch schwieriger vonstatten geht, als gedacht, zeigen die präsentierten Zahlen eindrucksvoll: während 80 % der Unternehmen selbst davon ausgehen, den Kunden in den Fokus zu rücken, sehen sich nur 8 % der Kunden tatsächlich auch im Mittelpunkt – eine brutale Lücke.

Fazit: die Erkenntnisse gibt es (oft), die Marschroute ist klar; jetzt geht es daran, die Hausaufgaben zu erledigen.

Impressionen SMX 2019

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

2018

SMX München 2018Recap vom 20. bis 21. März 2018 in München

Vor zehn Jahren startete die Konferenz für SEO und SEA: die SMX. Damit findet sie 2018 zum elften mal statt und zog über 1.600 Teilnehmerinnen und Teilnehmer aus über 30 Ländern an! Wir waren wieder zu dritt vor Ort und stellen einen Teil der besuchten Sessions und Eindrücke der SMX vor.

Tag 1, Dienstag 20. März

Keynote: Unicorn Marketing 2018Larry Kim

Analog zu dem aktuellen Trend, Thin-Content aus dem Index zu kegeln, um die durchschnittliche Qualität der indexierten Seiten zu steigern, geht Larry noch einen Schritt weiter und fokussiert sich auf die Unicorns der Seite. Dazu passt die Entwicklung seit 2017, dass grundsätzlich weniger Artikel Reichweite erzielen – die, die es aber packen, dafür umso mehr Nutzer erreichen.

Über die Shares, aber auch via Analytics (Anteil Traffic) und Search Console (CTR) lassen sich solche Unicorns identifizieren und
mit Folgeartikeln weiter ausbauen. Larry erfasste bei seinen Projekten, dass 3-5% der Beiträge für 50-70% des Traffics verantwortlich ist. Dabei sind aber Unicorns nicht mit viralen Hits zu verwechseln, die einmalig, aber dafür richtig durch die Decke gehen.

Die Donkeys, also der Gegenpart zu den Unicorns, hingegen müssen analysiert und notfalls gekappt werden. Von Deindexieren und Löschen ist hier die Rede – je nach Fall kann auch ein Zusammenlegen mit anderen Inhalten aber durchaus sinnvoll sein.

Mobile First IndexingJohn Müller und Leslie To

John Müller und Leslie To räumten ein wenig mit den Mythen rund um Google Mobile First Indexing auf.
John stellt hierfür klar, dass Google eben keine zwei Indexe, sondern nur einen führt. Bisher wurde dieser immer von dem Desktop-Bot befüllt – und genau das will der Suchgigant eben umstellen. Google schaut also jetzt dann (Umstellung läuft für die Seiten, die Google für mobil-fähig hält) zuerst mit dem mobilen User Agent und prüft dann noch die Desktop-Variante.

Daher unbedingt prüfen, ob strukturierte Daten, hreflang und Co. korrekt in der mobilen Version ausgeliefert wird.

Wer seine Server-Logs analysiert und feststellt, dass bereits zu 60% der mobile Google-Bot und nur noch 40% Desktop-Bot crawlt, heißt das noch nicht zwangsläufig, dass Google für die Seite auf Mobile-First-Indexing umgestellt hat. Angestrebt sind 80% Mobil-Anteil und 20% Desktop.

Google Analytics und Google Tag ManagerSimo Ahava

Wer sich mit dem Google Tag Manager schon einmal intensiver beschäftigt hat, wird um die Beiträge von Simo Ahava sicherlich nicht herum gekommen sein. Die GTM-Koryphäe aus Finnland ging in seinem Vortrag vor allem auf die Datenqualität und Probleme einer Out-of-the-box-Installation von Google Analytics ein. Von dem Unsinn, wie und warum genau so eine Session definiert wird bis zur Verweildauer, welche viele Analytics-Nutzer als tatsächlich exakten Messwert verstehen, wurden die Schwachstellen des Analyse-Tools beleuchtet. Mit dem Google Tag Manager lassen sich viele dieser Probleme jedoch in den Griff bekommen und eine bessere Datenbasis für wichtige Design-Entscheidungen vorhalten.

Dazu zählt beispielsweise die Erfassung der tatsächlichen Sichtbarkeit und Verweildauer mittels JavaScript oder die Business-Ziele der Website mit Mikro- und Makro-Conversions versehen (von der klassischen Conversion bis hin zu Events, wenn das Kontaktformular in den sichtbaren Bereich des Nutzers gelangt und mehrere Sekunden angesehen wird).

Tag 2, Mittwoch 21. März

Nach dem verlängerten Abend mit Freibier und interessanten Gesprächen ging es am zweiten Tag um 9 Uhr mit den ersten Vorträgen gut besetzt weiter.

Technical Onpage & Onsite ClinicJohn Müller

Wie jedes Jahr durfte natürlich auch dieses mal die technische Website-Untersuchung nicht fehlen. 2018 wurden starke Kandidaten eingereicht, die grundsätzlich schon sehr viel sehr richtig machen. Größtes Problem: nicht korrekt implementierter hreflang. Eine Stolperfalle hier waren iFrames und divs im head-Bereich, die Google beim Crawlen als head-Ende und body-Anfang interpretieren und somit auch wichtige Meta-Angaben aus den head schmeißen. Daher immer ordentlich das HTML prüfen und mit den Google Tools verifizieren.

Aber auch bei korrekt implementierten hreflang gilt: die Inhalte für die anderen Länder-Varianten nicht nur kopieren, sondern auch lokalisieren – also für das Zielland auch wirklich anpassen. Andernfalls wird Google nur eine Version statt der (vermeintlich) Länder-angepassten Seiten verwenden, was vor allem bei Währungsanpassungen ärgerlich wäre.

  • Für das Geo-Targeting empfiehlt John ein Backup, beispielsweise mit JavaScript: ein kleiner Hinweis “Hey, du bist auf der Seite de-DE, es gibt für dich als Schweizer aber auch die de-CH” ist hier bereits ausreichend. Ausdrücklich nicht gewünscht sind harte Weiterleitungen oder Blockierungen (Google-Bot kommt oftmals aus den USA und muss alle Versionen erreichen können).
  • Breadcrumbs werden auf mobilen Seiten gerne mal ausgeblendet – hinsichtlich Mobile First Index sollten sie aber im HTML erhalten bleiben, damit Google die Seiten besser crawlen und einordnen kann.
  • Priority Angabe in der Sitemap wird von Google ignoriert und kann ersatzlos weggelassen werde.

Die wohl interessanteste Aussage kam am Schluss bei den Q&A auf die Frage, was bei „noindex, follow“ Seiten passiert. Hierzu erklärte John, dass nicht das passieren würde, was wir alle erwarten: Kurzfristig ist alles gut, Google berücksichtigt natürlich den noindex und folgt den Unterseiten. Wenn die Seite jedoch langfristig auf noindex steht, wird sie vom Crawler wie eine 404 behandelt – und lässt die Links auf der Seite fallen. Hier sind wir sehr gespannt, wie das vor allem unter den SEOs noch die Runde macht.

Large Scale SEO: Automatisierung von SEO ChecksPascal Landau und Ralf Ohlenbostel

Extrige Mobile-Website, App & Website – und das alles in mehreren Sprachen für mehrere Länder. Damit hier kein falscher Canonical und fehlender hreflang unentdeckt bleibt, hat sich About You mal eben hingesetzt und in drei Monaten Entwicklungszeit das auf die eigenen Bedürfnisse angepasste Monitoring-Tool inkl. einfacher Datenpflege via Google Tabellen für entwickelt. Man merkte Pascal den technischen Entwickler-Hintergrund und die dazugehörige Leidenschaft für SEO in seinem Vortrag an. Die vorgestellte Lösung zeigte ganz klar, wie sich Unternehmen mit großen Webseiten aufstellen können, wenn sie nur wollen.

Fazit SMX 2018

Über 1.600 Teilnehmer wurden an zwei Tagen mit feinen Vorträgen von top Speakern versorgt. Wir haben wieder ein paar Anregungen mitgenommen und neue Hausaufgaben für die kommenden Wochen. Bis zur nächsten SMX am 2. und 3. April 2019!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

2017

SMX München 2017Recap vom 14. bis 15. März 2017 in München

Zwei Tage war im Münchner ICM wieder ein Schaulaufen der Experten und Top-Speaker rund um das Such- und Online-Marketing geboten: die SMX 2017. Mit drei Leuten waren wir auch dieses Jahr wieder dabei und besuchten dabei knapp 40 Sessions. Einen Teil davon fassen wir hier zusammen.

Tag 1, Dienstag 14. März

Die U-Bahn ist voll, die SMX wartet: im International Congress Center laufen die Registrierungen der Besucher ebenso auf Hochtouren wie die Kaffeemaschinen. Um 9 Uhr startet dann die erste Keynote klassisch mit Rand Fishkin, dem altbekannten Wizard of Moz.

Keynote: die Suchlandschaft 2017Rand Fishkin

Rand, einer der 30 besten Young Tech Entrepreneurs unter 30 nach der Business Week, zeigte die dramatischen Änderungen der Sprachsuche auf: die Voice Search wird als disruptive Neuerung selbst das schnelllebige Online-Marketing ordentlich durchrütteln. Denn die Sprachsuche präsentiert keine Suchergebnisse, aus denen der Benutzer wählen kann, sondern konkrete Antworten. Für Marketer wird es hier einfach zunehmend schwieriger, in bestehende Märkte einzudringen und sich neu zu positionieren.

Neben einer spannenden Präsentation von echtem Nutzerverhalten im Web abseits der von Google präsentierten Zahlen wies Rand zum Ende der Keynote auch noch auf eine Gefahr von ganz anderer Seite hin: die mögliche Abschaffung der Netzneutralität, welche vor allem kleine Unternehmen und Start-Ups, aber auch die Endnutzer gewaltig treffen könnte. Hier positionierte sich Rand klar und eindeutig pro Netzneutralität, denn nur so bleibt das Internet für alle offen wie heute auch.

Google Analytics Power-Reporting für SEO und SEAAndrew Garberson

Andrew Garberson von Luna Metrics aus Pennsylvania zeigte in seinem Vortrag die Verknüpfung von Analytics und AdWords Daten via Google Drive. Andrew fliegt – wenn er nicht gerade in München auf der SMX referiert – durch die USA und gibt Analytics und SEO Trainings und bezeichnet sich selbst als absoluten Analytics-Nerd. Er will mit Tools nicht nur Analytics nutzen, um gezielt Fragen zu beantworten, sondern auch, um künftige Fragen vorauszusehen.

Statt ständig in die Analytics-Dashboards zu schauen, empfiehlt Andrew, viel häufiger die Google Analytics Alerts zu nutzen – sowohl für Verschlechterungen wie auch für Verbesserungen. Bei den wöchentlichen bzw. monatlichen Berichten sollten zudem wichtige Kennzahlen auch mit den Vergleichsgrößen im Titel angegeben werden, um auch Montagmorgen feststellen zu können, welche Werte gut und welche schlechter sind.

Für ein Multi-Channel-Reporting oder ein Budget-Tracking (geplante vs. tatsächliche Ausgaben) kann der GA-Enthusiast auch die Google API mit Google Sheets nutzen. Hierfür stellt Google ein kostenfreies Plugin bereit und ermöglicht so verknüpfte Reports und erweiterte Daten.

Daten messenJens Fauldrath

Genau um 32.642 Besucher? Das ist der „Nonsense Math Effect“: wir glauben viel mehr den Daten, wenn sie wissenschaftlich aussehen. Einfache Case-Studies geben zwar signifikante Daten an, aber lassen oft mathematische Grundregeln der Statistik außen vor.

Daher müssen bei der Erfolgsmessung viel mehr Faktoren als nur einzelne Zahlen betrachtet werden:

  • Richtige Stichprobengröße: je höher der zu erwartende Uplift, desto mehr Conversions müssen betrachtet werden (um eine erwartete Verbesserung von +5% zu testen sind z. B. über 9.000 Conversions empfohlen)
  • Richtige KPI wählen: Je höher die Business-Relevanz einer KPI ist, desto größer muss die Stichprobengröße sein, um signifikante Uplifts feststellen zu können
  • Finger weg von Hochrechnungen – Aktionen, Wettbewerb und Saison beeinflussen Test erheblich!

Im zweiten Teil von Jens Fauldrath ging es dann weiter mit Zahlen – die aus der Google Search Console.

Was ist Position 1? Die von der Search Console ausgewiesene 1 ist nicht immer an erster Stelle: wird z. B. eine Bilder-Reihe direkt unterhalb der Suchleiste eingeblendet, ist diese über der ersten Position. Auch die Position 11 kann auf Seite 1 sein: z. B. mittels dem Knowledge Graph.

Die viel größere Problematik bei der täglichen Arbeit mit der GSC sind aber die unterschiedlichen Aggregationslevel, z. B. zwischen Property und Seiten. Auch sind Suchanfragen nie vollständig aufgelistet: Google nimmt alle Suchanfragen heraus, die nicht häufig genug gesucht werden oder persönliche Daten beinhalten. Aus seiner Zeit bei der Telekom weiß Jens, dass das bis zu 60% der Suchanfragen ausmachen kann. Ein Vergleich der „Klicks gesamt“ mit den aufgelisteten Suchanfragen zeigt diese Differenz auf.

Tipp für die Click-Through-Rate-Messung bei den Keywords: wirklich aussagekräftig geht das nur mit einer Filterung nach Zielland, andernfalls gibt es keine brauchbaren Daten. Des Weiteren kann die CTR auch bei aktivem Content-Marketing einem einen Streich spielen: die ausgewiesene CTR in der GSC kann sinken, weil die Seite aufgrund dem Mehr an Text plötzlich für viel mehr Begriffe rankt. Daher sollten für eine ordentliche Erfolgsmessung von Content Marketing Maßnahmen die CTRs eines bestimmten Keyword-Sets vorher und nachher verglichen werden.

Google Tag Manager Hacks für Online MarketersMichael Janssen und Jens Hinrichs

Nach einem kurzen Einstieg zum Google Tag Manager (“Wenn ein Trigger reagiert, dann wird ein Tag ausgelöst, mit Variablen, alles innerhalb eines Containers”) zeigten Michael und Jens, wie sich Online-Marketer mit dem mächtigen Tool schnell selbst helfen können, wenn die IT nicht schnell genug reagieren kann.

Geeignete Add-Ons für Browser sind datalayer, Tag Assistant by Google und GTM Sonar. Wer WordPress einsetzt, dem sei das Plugin von duracelltomi empfohlen.

Mögliche Erweiterungen, die mit dem Tag Manager umsetzbar sind: JSON-LD für strukturierte Daten oder sogar Canonicals. Warum? Weil’s geht – und funktioniert. Wer aber diese Sachen mit der IT regeln kann, sollte natürlich lieber das machen. Die präsentierten Lösungen sind empfohlen, wenn ein Release länger dauert oder sich die IT wirklich querstellt.

Fazit für den ersten SMX-Tag 2017

Bekanntes und Neues, Bestätigung und Optimierungsmöglichkeiten: die SMX zeigt sich wieder hochkarätig, wenngleich wir persönlich den ersten Tag vom Vorjahr stärker fanden. Trotzdem freuten wir uns natürlich über eine Vielzahl wirklich guter Vorträge und sind gespannt auf den nächsten Tag.

Tag 2, Mittwoch 15. März

Die ersten neuen Erkenntnisse vom Vortag sind gerade so verarbeitet, da beginnt auch schon Teil zwei der SMX. Pünktlich um 9 Uhr starteten die ersten fünf Sessions.

RLSA-Rezept für stark umkämpfte MärkteLarry Kim

Larry, Gründer von WordStream, erfrischte den Mittwochmorgen mit vielen Einhörnern, extrem guter Laune und einer sehr belebenden Vortragsart. RLSA ist weit mehr als nur Gebote für bekannte Besucher bei den AdWords Anzeigen zu erhöhen und sollte vor allem bei Brands sehr viel mehr genutzt werden. So können auch generische Suchanfragen wie “geburtstagskarte” mit kostendeckenden ROAS genutzt werden.

Facebook Custom Audience und die RechtslageTom Thaler, Matthias Pierrick Weth und Dr. Martin Schirmbacher

Sinus-Milieus sind von vorgestern, Personas und Zielgruppen von gestern; heute aktuell ist das “people based marketing” und morgen “predictive behaviour”. Tom Thaler zeigte dazu kurze Blackhat-Beispiele, die ihm anonym zugespielt wurden.

Beispiel: IT-Enterprise-Solution Anbieter haben eine sehr spitze Zielgruppe. Facebook erlaubt aber, auf E-Mail und Telefonnummern zu targeten – v. a. letzteres ist interessant, da diese selten mehrfach eingesetzt und gewechselt werden. Neben den internen Datenquellen wie ERP, CRM und Newsletter gibt es da ja die spannenderen Fälle: externe Datenquellen wie Xing, LinkedIn oder fremde Websites (z. B. Branchenverzeichnisse durch Scrapen einholen). Wer es sehr genau mag: Custom Audiences sind ab 20 Personen aufwärts möglich, können aber durch 19 Fake-Profile zu einem exakten Treffer führen. Natürlich sind diese Praktiken von Facebook untersagt und auch datenschutzrechtlich mehr als fragwürdig (sprich: verboten). Aber technisch ist es möglich und funktioniert.

Wichtig auch: Facebook ordnet bis zu drei oder vier E-Mail-Adressen einem Profil zu. Zum Beispiel über eine Nachricht „schick mir eine Mail an die xy@office.tl“ kann hier laut Tom schon ausreichen. Für günstigere Kosten beim Bewerben hilft der alte Leitspruch: die richtige Botschaft an die richtige Zielgruppe zur richtigen Zeit. Eine daraus resultierende hohe CTR begünstigt die weitere Ausspielung der Facebook-Ads. Als Kennzahl zur Einordnung nennt der Österreicher eine Marke von 20-25% als gute Click-Through-Rate.

Eine zusätzliche Möglichkeit, die CTR so hoch zu halten, präsentierte Matthias von Catbird Seat: die vorherige Kategorisierung und Einordnung nach demografischen Merkmalen der eigenen CRM-Daten hilft bei der spezifischen Custom Audience. Diese können auch für einen Ausschluss genutzt werden: Kunden, die bereits gekauft haben und sehr wahrscheinlich nicht wieder kaufen werden, können durch eine eigene Custom Audience von den anderen Zielgruppen ausgeschlossen werden. Auch dadurch steigt die CTR und sinkt der Preis.

Ob das alles in Deutschland aber überhaupt so rechtens sei, zeigte Dr. Martin Schirmbacher auf. Datenschutzrecht ist Verbotsrecht: jede Verarbeitung personenbezogener Daten bedarf einer Rechtfertigung (Einwilligung oder gesetzliche Gestattung). Der Personenbezug ist bei Custom Audiences durch E-Mail-Adressen, Telefonnummern und Nutzer-IDs gegeben. Auch das Hashen der Angaben während des Uploads (also eine Pseudonymisierung), hilft nicht viel, weil Facebook diese Hashes ja abgleicht und wieder auf einzelne Personen zurückführt.

Eine Einwilligung auf Kundenseite zur Nutzung der Custom Audiences ist theoretisch denkbar, wird aber nahezu nirgends gemacht. Auch aufgrund der fehlenden genauen Aufstellung (Transparenz über Verwendung der Daten) erfolgt selten eine wirklich wirksame Einwilligung.

Aber: es machen alle. Warum? Weil es funktioniert – und keiner mitbekommt. Die neue EU-Datenschutz-Grundverordnung, kurz DSGVO, wird hier auch Änderungen mit sich bringen – nicht unbedingt nur in einschränkender Weise.

Relaunch nationaler und internationaler WebsitesBastian Grimm und Philipp Klöckner

Es ist immer wieder ein Riesenthema und füllte daher auch den gesamten Vortragssaal: der Relaunch.

Die wichtigste Frage vorab: gibt es wirklich gute Gründe, einen Relaunch durchzuführen? Dies kann zum Beispiel der Umzug auf eine neue TLD sein, weil hier laut Philipp lokale TLDs wie .de oder .at bessere CTRs bringen.

Der nächste Schritt bei einem zugesagten Relaunch ist die Risikoabwägung und – ganz wichtig – ein Frühjahrs-Putz. Dabei auf das Crawl Budget achten und eventuell die Panda-Diät nutzen. Abhängig von der Seitengröße ist hier ein noindex oft besser als ein Verbot via robots.txt – aber das ist auch abhängig von der Seitengröße.

Nach dem Relaunch ist die Arbeit dazu aber noch lange nicht vorbei: eine Lifeline Quality Assurance hilft beim Feinschliff auch nach dem Release. Empfehlung von Pip: regelmäßig automatisiert alle wichtigen Inhalte abtesten, z. B. mit Testomato.

Ein dicht bepackter Vortrag mit guten Folien. Sowohl für Relaunch-Unerfahrene wie auch für Profis sind gute Checklisten dabei, die definitiv dabei helfen, die Klassiker zu vermeiden.

Server LogsDominic Woodman

Die Antworten auf die Fragen, die immer an John Müller gestellt werden, sind bereits vorhanden: in den Server-Logs der eigenen Website. Findet Google die Seite wichtig? Die Server-Logs verraten es. Wenn der echte Google-Bot häufig vorbeikommt und viele verschiedene URLs crawlt, ist das ein deutliches Zeichen.

Google Analytics, aber auch die Search Console zeigen nur einen Teil davon auf, was auf der eigenen Seite passiert. Wenn mehr los ist, empfiehlt Dominic Google Big Query. Bei kleinen Seiten reicht noch der Screaming Frog Analyzer und Excel. Nach einer Auswertung lohnt sich ein Vergleich der gefilterten Google-Bot Daten aus den Server Logs und der Google Search Console.

Fazit für den zweiten SMX-Tag 2017

Der Mittwoch präsentierte sich für uns stärker als Tag 1 und verdeutlichte wieder, was in der SMX steckt: geballtes Expertenwissen mit vielen Anregungen, die uns wieder die nächsten Wochen beschäftigen werden.

Wir sagen Danke an die Referenten für zwei Tage tiefe Technik-, Content Marketing- und SEA-Einblicke und sehen uns 2018 zur zehnten SMX!

Bilder und Text: Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

2016

SMX München 2016Recap vom 17. bis 18. März 2016 in München

Zum neunten Mal ruft Rising Media zur SMX München. Auch 2016 gibt es wieder absolute Top-Speaker, die in elf Tracks über zwei Tage sehens- und hörenswerte Vorträge halten.
War letztes Jahr noch Sprachsuche, -erkennung und Co. im Hauptfokus, widmet sich ein Kernthema dieses Jahr um die Ursache dahinter: Machine Learning und Artificial Intelligence., kurz ML und AI.

Tag 1, Donnerstag 17. März

Keynote – Optimierung für eine neue Welt: wie Google Machine Learning in die Suche integriertRand Fishkin

Rand Fishkin – der Gründer von MOZ und zum achten Mal auf der SMX – vergleicht zum Start der Veranstaltung die Suchergebnisse von 2012 mit 2016: in den vier Jahren hat Google nicht einfach nur seinen Suchalgorithmus verbessert, sondern auch ein völlig anderes System mit eingebaut: das eingangs angesprochene Machine Learning, kurz ML. Den ersten Einsatz fand ML in Google Adwords und kann so deutlich präziser vorhersagen, was wann geklickt wird.

Ein weiteres – für den ML-Endandwender durchaus bekanntes Feld – ist der Wandel der Google Bildersuche: über extrem viele Daten, die zerlegt, verarbeitet und neu zusammengesetzt werden, kann Google Inhalte in Bildern identifizieren und in Text „übersetzen“. So werden Personen, Orte oder Tiere als solche erkannt. Das ist eine Anwendung von vielen, bei denen Machine Learning und die künstliche Intelligenz AI (Artificial Intelligenz) ihre Stärken ausspielen.

Ein weiteres Einsatzgebiet ist die Suche, deren ML-Komponenten Google mit RankBrain tituliert und seit Ende 2015 in den organischen Suchergebnissen einlaufen lässt.

Das System mit ML und AI wird so schnell so komplex, dass selbst Google einräumt, nicht alles exakt zu verstehen, was in RankBrain passiert. Aber sie sind nicht die Einzigen, welche die durchaus mit ein wenig Skepsis zu betrachtende Technik einsetzen: Facebook setzt ML bereits bei der Auswahl des NewsFeeds ein und Twitter macht sich ebenfalls daran, das Gezwitscher für den Nutzer „relevant” zu halten.

Unsere Learnings

  • Verstehe und gebe den Besuchern der Seite alle Bedürfnisse: was wollen die Suchenden / Interessenten
    • Kommerzielle Suchergebnisse ranken nicht mehr für informelle Suchanfragen
    • Mehr Interaktion auf den informellen Seiten bieten
  • Optimiere Snipptes, Titles & Co. für höhere CTR – User-Signal nicht als Ranking-Faktor unterschätzen
  • Signale optimieren: ein Facebook-Feed mit wenig relevanten Post verschlechtert auch darauffolgende Posts
  • Platziere Handlungsaufrufe (CTAs) im First-Screen

Während vor einigen Jahren der Fokus in der SEO-Branche noch auf Keywords und Linkbuilding gerichtet war, steht im Jahr 2016 deutlich mehr Engagement auf der Seite im Vordergrund: Verweildauer, Seiten pro Session und Absprungrate.

Entwicklung eines Attributionsmodells – Vergleich der Marketing-KanäleLennart Paulsen

Die reale Kundensicht kann derzeit in keinem Tracking-Tool wirklich richtig abgebildet werden. Um zumindest eine Näherung zu erzielen, gibt es in den verschiedenen Tracking-Tools die sogenannten Attributionsmodelle. Lennart Paulsen empfiehlt, Navigational Traffic aus allen Analysen auszuschließen und seine Daten zu bereinigen. Konkret beinhaltet der Navigational Traffic laut ihm direkte Einstiege, AdWords-Anzeigen mit enthaltenem Brand-Keyword und organische Einstiege auf der Startseite.

Je bekannter und stärker eine Marke ausgebildet ist, desto mehr Daten sind zu bereinigen und somit können auch mehr Conversions den tatsächlichen Kampagnen zugeordnet werden. Um valide Kampagnen-Kennzeichen als Entscheidungsgrundlage ermitteln zu können, kommt man ohne ein sinnvolles Attributionsmodell und eine Daten-Bereinigung nicht aus.

Im zweiten Teil des Vortrags ging Matthias Cada einen Schritt weiter und zeigte am Beispiel eines Fashion-Start-Ups, wie eine datengetriebene Marketing-Steuerung im Unternehmen umgesetzt werden kann.

Unsere neuen Erkenntnisse bezüglich der UTM-Parameter:

  • source ist Billing-Instanz, d.h. google, bing, criteo, facebook
  • medium ist Werbe- oder Link-Typ, z. B. cpc, cpm, email
  • term eignet sich hervorragend für die Decision Info:
    • bei SEA das Keyword
    • bei Emails die Kontaktliste
    • beim Preisvergleich die Artikelnummer
    • bei Display-Werbung das Placement

Wichtig ist eine Entscheidung auf Keyword-Ebene zu ermöglichen und eine Antwort geben zu können, wo zusätzliches Budget sinnvoll eingesetzt werden sollte.

Zusammenfassend sollte das Unternehmen sein Attributionsmodell leben und möglichst rein datengetrieben entscheiden. Somit ist eine Priorisierung auf die effizienten Keywords möglich.

Mobile Usability und Design – ein Blick aus NutzersichtBas van den Beld

Speaker Bas van den Beld hielt seinen letzten Vortrag in Island, bevor er am SMX-Donnerstag im dritten Slot über die Entwicklung des Mobiltelefons und dazugehöriger Nutzung referierte.

1999 kam sein Chef zu ihm und meinte: „Bas, you need a mobile phone.” Darauf entgegnete er lediglich mit einem überraschten „Why?” Die ständige Erreichbarkeit war damals ungewollt, aber vor allem ungewohnt. Die Entwicklung des Mobiltelefons, verglichen mit anderen Technologien wie Radio oder Fernseher, veränderte unseren Umgang mit der Technik und untereinander rasend schnell.

Sein jüngstes Kind nutzt begeistert Googles Sprachsuche, zum Beispiel mit „who is sleeping right now” – ein für Erwachsene eher ungewöhnlicher Suchterm in der Internetnutzung. Grundsätzlich gab es einfach eine enorme Veränderung in den letzten 15 Jahren:

  • Ein Mobiltelefon ist vor allem bei der jüngeren Generation mehr ein Äquivalent zum persönlichen Tagebuch, das aber auch mit Freunden geteilt wird
  • Mobilfreundlich heißt nicht einfach nur, eine lesbare Seite zur Verfügung zu stellen, sondern auch auf den aktuellen Ort, Nutzung und Kontext einzugehen
  • Unterschiedliche Verhalten an unterschiedlichen Orten
  • 43% nutzen ihr Mobiltelefon während dem Lernen – sei es zum Nachschlagen, Musikhören oder kurze Zwischen-Ablenkung
  • 70% der Millenials nutzen Sprachsuche
  • Mobilgeräte sind heutzutage bereits unsere persönlichen (digitalen) Assistenten
  • Viele mobile Suchanfragen enden heutzutage mit einem „near me“, zum Beispiel „hotel near me“

Im zweiten Teil legte Cindy Krum, CEO von MobileMoxie und aus Denver, Colorado, die Mobile Usability dar.

  • Multi-Plattform bedeutet zuerst einmal viele unterschiedliche Technologien. Es ist Job der Entwickler, dass dafür überall die Inhalte passen
  • Mobil ist schnelllebiger und besticht durch hohe Absprungquoten (vgl. Foto)
  • Mobil hat eine niedrigere Toleranz für Fehler

Für Entwickler und Marketer:

  • Webpagetest.org und Co. statt nur Google Pagespeed Insight nutzen – nicht so schick, aber mehr Infos
  • Fast Form Completion – Formulare automatisieren: Postleitzahlen und Co. können vorausgefüllt werden
  • Den Bitly Redirector nutzen: damit ist auch eine nachträgliche Änderung möglich, welches Endgerät auf welchen App-Store oder Website soll

Keynote – Marketing-Automatisierung macht den Traum von Multi-Channel Marketing-Programmen zur Realität! Und warum setzen so wenige Unternehmen den Traum um?Dela Quist

  • E-Mail-Marketing ist ein richtig gut funktionierender Kanal, aber nur ein Teil im Multi-Channel-Marketing
  • 2014 gab es 974 Agenturen und Dienstleister, die sich Marketing-Automatisierung auf die Fahne geschrieben haben, inzwischen sind es 1.876
  • Jeder spricht über Marketing-Automatisierung, aber keiner hat bzw. nutzt es wirklich. Die Technologie ist verfügbar, das Wissen, die Möglichkeiten – aber die Umsetzung fehlt
  • Eine Kampagne auf allen Endgeräten gut aussehen zu lassen ist nicht Multi-Channel – sondern unser Job. Stattdessen Omnichannel statt Multichannel – den Menschen in den Mittelpunkt stellen
  • Ohne E-Mail kann kein vernünftiges Online-Marketing erfolgen – im Internet ohne E-Mail-Adresse unterwegs zu sein ist für Dela Quist wie in der Offline-Welt ohne festen Wohnsitz
  • Korrekte Attributions-Modelle verändern die Meinung über klassische Kanäle
  • 90% der Internetnutzung werden bei 9 großen Unternehmen verbracht – die Konkurrenz für „kleine Angebote” ist also groß

Der perfekte RelaunchJohn Müller

John Müller, Trends Analyst bei Google, hielt eine äußerst hilfreiche Präsentation zum beliebten Trend-Thema Relaunch. Vorweg stellte er die Begrifflichkeiten vor, die sich später immer wieder fanden:

  • URL = Protokoll + Host + Pfad
  • URL = https:// + www.example.de + /seite2
  • Relaunch Variatonen: Protokoll, Host, Pfad und Inhalte können sich ändern oder gleich bleiben (siehe Matrix)
  • Vorarbeit leisten:
    • Dokumentieren: einmal alles Crawlen
    • Testen und Aufräumen „echten” Duplicate Content vor dem Relaunch in den Griff bekommen
  • Nach einem Relaunch und bei dem Wunsch von Google neu gecrawlt zu werden empfiehlt John, die Server-Kapazitäten aufzustocken, damit nicht aus Rücksicht auf die Seite langsamer indexiert wird
  • Nicht nur Desktop, sondern immer auch Mobile-Bots nach dem Relaunch testen
  • Bei einem Host-Wechsel diesen früh in der Google Search Console vornehmen
  • Moderne JS-Frameworks müssen mehr und ausführlicher getestet werden: Google kommt schon recht gut damit zurecht, aber es gibt noch Grenzen
  • Werden Inhalte entfernt, die thematisch auch nirgends mehr neu aufgegriffen werden, nicht einfach auf Kategorie- oder gar Startseite weiterleiten, sondern ein 410-Statuscode ausgeben. Google würde bei einer Weiterleitung zu themenfremden Seiten einen Soft-404 ausgeben
  • HTTP2 kann und soll bereits benutzt werden, auf der Google-Agenda steht es noch für 2016, aber eher später im Jahr. Hier gilt: kein HTTP2 ohne HTTPS
  • Da die Google Search Console nur Daten der letzten drei Monate liefert und aktuell auch noch keine Erweiterung in Sicht ist: GSC-Daten regelmäßig herunterladen und archivieren. Gerade bei einem Relaunch können diese Daten sehr wertvoll sein
  • Bei reiner Protokoll-Umstellung: alte http-Version noch mit einer Archiv-Mail in der GSC belassen und die Mailadresse weiterleiten, um eventuell doch auftretende Benachrichtigungen zu erhalten

Planet Facebook und Planet Google: Das mobile WerbeuniversumThomas Hutter und Michel Ramanarivo

Hauptvorteile von Facebook-Ads:

  • Cross-Device Targeting und Tracking
  • Gute Platzierungsmöglichkeiten: privater Kontext des Nutzers statt im Umfeld anderer Werbungen

Besonderheiten von Facebook-Ads:

  • Enormer Anteil Mobil und mobile-only: gerade Jüngere nutzen Facebook nur noch per Smartphone-App und nicht mehr am Desktop
  • Platzierung von Werbeanzeigen auch außerhalb von Facebook und Instagram: Mobile Apps mit FB-SDK können ebenfalls Facebook-Ads ausliefern
  • Like-Kampagnen funktionieren mobile deutlich besser als Desktop
  • Lead-Ad (anfänglich nur mobile, jetzt auch Deskop) bieten CTA-Buttons zu Formularen innerhalb von Facebook. Der Vorteil: mehr Details wie Name, E-Mail und Co., ohne dass der Nutzer selbst viel ausfüllen muss, da Facebook selber viel vorab ausfüllen kann
  • Neues Facebook-Werbeformat seit 28. Februar: Canvas. Hier hat Thomas Hutter bereits extrem gute Erfahrungen gemacht. Canvas liefert quasi Full-Screen-Landingpages auf Facebook mit individuellen Links zu den Zielseiten. Damit sind richtige Kampagnen ohne weiteren Technik-Einsatz umsetzbar
  • Publikumsfrage: Targeting wird evtl. ausgehebelt, wenn „Beitrag hervorheben” gewählt wird. Empfehlung von Thomas Hutter: am besten immer den PowerEditor unter Chrome verwenden

Teil 2 lieferte Michel Ramanarivo, zuvor bei Rocket Internet gewesen, über Googles SEM-Maßnahmen im Mobile-Bereich

  • Mobile Gebotsanpassung mit Formel für einen ersten Näherungswert berechnen:
    (Wert pro Mobil-Klick / Wert pro Desktop-Klick)-1
  • Bei Mobile-Anzeigen in die URL ein m.domain.de einbauen – das erweckt beim Nutzer das Signal: „hier gibt es eine mobil-optimierte Website, das passt“
  • Sitelinks für mobile Endgeräte so kurz wie möglich fassen, so wird nichts abgeschnitten

Interessant waren die Zahlen zu Apps: ungefähr eine Million Apps befinden sich in den beiden großen App-Stores von Apple und Google, aber …

  • 60% davon haben keinen Download!
  • 95% der Apps sind weniger als einmal pro Monat in Verwendung
  • 20% der installierten Apps werden nur 1x verwendet
  • 91% aller Downloads sind kostenlos

Die große PPC Account-Struktur-DebatteOliver Zenglein

Die Geschäftsführer Oliver Zenglein von der SEM Boutique und Matthias Weth von der Münchner Agentur Catbird Seat stellten sehr ausführlich ihre Best-Practices und Erfahrungen bezüglich der Kampagnen- & Anzeigengruppen-Struktur in AdWords vor. Wir selbst verfolgen einen ähnlichen Ansatz, der in einigen Beispielen übereinstimmt, sich in anderen wiederum aber auch deutlich unterscheidet.

Seit Jahren sollte bekannt sein, dass die Suchbegriffe, die passende Anzeige (adcopy) und die Zielseite in Einklang sein müssen. An Hand einiger Beispiele wurde jedoch aufgezeigt, dass dies auch 2016 noch nicht immer der Fall ist.

Unsere Learnings aus dem Vortrag:

  • Brand-Keywords dürfen nur in Brand-Kampagnen enthalten sein
  • Getrennten Kampagnen für exakte und passende Keywords
  • Finger weg von Weitgehend passend, lediglich Modifizierer für weitgehend passende Keywords verwenden
  • Bei passenden Kampagnen alle exakten Keywords negativ buchen, gerne mit Unterstützung eines AdWords Scripts
  • Bei einer allgemeinen Anzeigengruppe innerhalb einer Kampagnen auch die Keywords spezifischerer Anzeigengruppen negativ buchen
  • In einer Anzeigengruppe nur eine Zielseite verwenden und für Gebotsanpassungen die Anzeigengruppe duplizieren
  • Getrennte Accounts sind oft für Such- oder Displaynetzwerk sinnvoll
  • Eigenen Account für Shopping-Kampagnen anlegen
  • Stringente Namenskonversionen einhalten

Abschließend lässt sich sagen, dass die Komplexität möglichst gering gehalten werden sollte. Nur so viele Kampagnen und Anzeigengruppen wie nötig anlegen und mit Hilfe von AdWords-Script (Teil-) Automatisieren, wo möglich.

Large Scale SEO – So bringen Sie Ordnung ins Chaos SEOJoost de Valk

Joost de Valk, besser bekannt als Yoast vom gleichnamigen WordPress SEO-Plugin, präsentierte im letzten Track die Management-Lösungen, wenn große Webauftritte mit unterschiedlichen Systemen laufen. Also beispielsweise den Blog mit WordPress, Hauptsystem mit einer Individual-Programmierung und den Shop mit Magento.

  • Hole alle benötigten Daten: Aggregieren und in Analytics vereinen (z. B. FB- und Twitter-Stats)
  • Fokus neu auf Engagement-Analytics legen
  • Fehler auf der Website sollten nicht zuerst in GSC auffallen – sondern lange vorher. Andernfalls wirkt es so, als würde der Webmaster seine Arbeit nicht machen
  • Die Crawl-Statistiken in der GSC sind laut Yoast nahezu nutzlos, besser und deutlich aussagekräftiger ist eine Auswertung der Googlebot-Zugriffe in den Logs via stash, Elasticsearch und Kibana
  • Testgetriebene Entwicklung mit Prüfung für Canonicals, hreflang, URLs und Co. einbauen – ein uns sehr vertrauter Ansatz

Grundsätzlicher appellierte Yoast an die Webmaster, mehr Zeit in das Monitoring der eigenen Seiten zu legen und auftretende Fehler an der Wurzel zu packen und zu lösen.

Tag 2, Freitag 18. März

Nutzung von kostenfreien Machine Learning APIs für SEOJan-Willem Bobbink

Für Google steht nicht das Ergebnis im Vordergrund, das am besten übereinstimmt, sondern jenes, das die Suchintention voll befriedigt. Dabei hilft Machine Learning (ML). Stephen Hawking, Bill Gates und Co. warnen zwar vor einer zu schnellen Entwicklung, die wir Menschen vielleicht irgendwann nicht mehr überblicken, Referent Jan-Willem Bobbink hingegen sieht noch keine wirkliche Gefahr von Robotern mit einer AI, da diese keine Rachegelüste verfolgen.

Passend dazu das Zitat von Paul Haahr von Google: „We don’t fully understand RankBrain“.

Jan-Willem unterscheidet in zwei ML-Typen: supvervised (du weißt, wonach du suchst) und unsupervised (Knoten und Zusammenhänge, die passen). ML kann Regeln selbst „entdecken“: so dauert es beispielsweise bei einfachen Spielen wie Space Invaders erst einmal, bis ein gegnerischer Schuss als schlecht eingestuft wird, aber dann wurde eine wichtige Grundregel des Spielprinzips verstanden und die Ergebnisse verbessern sich deutlich – wohlgemerkt ohne, dass man es in den Algorithmus einprogrammierte.

Wer selber ML für eigene Projekte ausprobieren will, sollte lediglich 10% der verfügbaren Daten für Testzwecke verwenden, um später die richtig arbeitende ML auch erkennen zu können. Des weiteren kommen täglich neue freie APIs für ML – dem Spieltrieb sind also vorab erst einmal keine Grenzen gesetzt.

Doch wozu überhaupt Machine Learning? Jan-Willem Bobbink nannte ein paar Probleme, die mit ML gelöst werden (können):

  • Spam-Klassifizierung von nutzergenerierten Inhalt
  • Kategorisierung und Klassifizierung von Inhalten: z. B. ein WordPress-Blog mit 120 Kategorien und über 8.000 Tags wurden mithilfe von ML neu geordnert. Denkbar ist in dem Themenbereich beispielsweise auch eine Überwachung von externen Seiten, die zum eigenen Angebot linken: wurden sie z. B. gehackt und werben mit Viagra? Links von solchen Seiten will ein SEO ja dann doch lieber auf der Disavow-Liste sehen
  • Text-Extrahierungen von Seiten: Scrapen für Fortgeschrittene. Statt auf ein immergleiches HTML mit entsprechender Auszeichnung angewiesen zu sein, um beispielsweise Konditionen und Preise für ein Hotelzimmer auf der Seite zu finden, kann ein Scraper mit ML den Inhalt auch dann richtig zuordnen, wenn der Anbieter sein Frontend umbaut und neu strukturiert.

Unsupervised ML findet bereits Verwendung bei einer Query-Klassifizierung oder einigen Recommondation-Engines für interne Verlinkung, basierend auf E-Commerce, Nutzerverhalten und SEO-Metriken.

  • blog.mashape.com/list-of-50-machine-learning-apis/
  • notprovided.eu 7 Tools for journalism etc.
  • import.io für ML-basiertes Scraping, um sich unabhängig von Frontend-Änderungen zu machen

Agile Team from the ScratchMario Hilmers

statt „Time for a Change: Umstellung der Online Marketing-Abteilung auf Agile Teams” gab es den Vortrag „Agile Team from the Scratch”, Speaker Mario Hilmers ebenfalls von der Otto Group (dazu gehört nicht nur Otto, sondern auch Heine, Baur, Neckermann, shopping24, QUELLE, myToys und viele viele mehr).

Das Team hatte die Möglichkeit, ihre Tools und Arbeitsweisen komplett frei und neu aufzubauen und steckte viel Herzblut in diese Angelegenheit. Mario selbst lebt schon seit knapp vier Jahren einen agilen Workflow und möchte auch gar nicht mehr anders arbeiten. Nur noch Kanban & Scrum.

Auf dem Plan stand nichts anderes als das nach eigenen Aussagen größte Webanalyse-Projekt Europas: 16 Unternehmen aus dem DACH-Bereich mit über 100 Domains mit mehr als 200 Projektteilnehmern. Die Herausforderung war die Überführung des Projekts in einen laufenden, stabilen Betrieb, der mit Benchmarks und vielen Charts eine schnelle Auswertung sicherstellt.

Die Wahl der agilen Arbeitsweise mit dem Team war im ersten Schritt Kanban:

  • Schnell aufzusetzen
  • Arbeitsweise „Testen, erneut testen, Erfolgreich“
  • Klassische und einfachstes Kanban-Board: Backlog, in Progress, Done

Dass Team startete mit einer einfachen Aufgabenliste in Excel, was Mario so jedoch nicht wieder empfehlen würde. Diese Liste wurde dann in Themen geclustert und mithilfe eines Beraters in ein Kanban-Board gegossen.

Version 1 war ein Kork-Brett mit vier Spalten. Wichtig dabei war die Visualisierung, wo Arbeitsleistung von anderen abhängt.

Version 3 beinhaltete dann vom Arbeitsablauf bereits Backlog, Next, In Progress, Challenge und Done

Wichtige Neuerung bei den Tickets: wann ist es in Backlog gekommen, wer hat es bearbeitet und wie lange hat es gedauert? Wenn ein Ticket zwei Monate oder länger hängt, wurde es einfach entfernt. Ist es doch wichtig, taucht es sowieso wieder auf.

Daily Standups

  • 15min (zu knapp, aber zeitsparend)
  • 30min (Zeitverschwendung, Themen schweifen ab)
  • Richtige Uhrzeit: wahnsinnig wichtig, aber es ist schwierig, den richtigen Zeitpunkt für ein ganzes Team zu finden. Spielerische Strafen bei Zu-spät-Kommen verbesserten die Pünktlichkeit leicht

Mario führte weiter aus, dass das Team einfach selbst Lust auf agiles Arbeiten haben muss. Zusammen mit Ritualen wie Fitness-Dienstag, Bergfest mit Partyhüten feiern uvm. ist eine ausgewogene Mischung drin. Ebenfalls ist er der Meinung, dass Agil nicht möglich ist, wenn die Arbeit stark von externen Input abhängt.

Vorteile agiles Arbeiten:

  • wahnsinnig transparentes Arbeiten (ist nicht jeder gewohnt)
  • hohe Umsetzungsgeschwindigkeit (intern)
  • viele Ideen durch offene Kommunikation (offen Reden ist aber auch nicht jeder gewohnt)

Das Team hat sich so also mittels Kanban mit der agilen Arbeitsweise vertraut gemacht und haben dann beschlossen, alles umzustellen und nach Scrum zu arbeiten:

  • der erste Gehversuch ging schief: 1. Sprint exakt nach Lehrbuch durchgezogen, trotzdem (oder gerade deswegen) katastrophal
  • inzwischen ist das Team nach 4-5 Sprints mit Reviews schon deutlich schneller unterwegs
  • Software-Unterstützung mit Jira

Das Team um Mario war das erste bei der Otto Group, welches eine agile Arbeitsweise eingeführt hat, daher wurde mit Kanban gestartet. Auf die Frage, ob bei einer neuen Entscheidung Kanban oder Scrum gewählt werden würde, antwortete Mario schlicht mit: beides. Scrum als großer Überbau und Kanban im Kleinen.

Die fünf entscheidenden Faktoren für einen erfolgreichen agilen RelaunchGabriel Beck

  • Messbare Ziele (Verweildauer, Seiten pro Session) statt subjektiver Vermutungen (Design gefällt mir nicht mehr)
  • Relaunch muss Business- und nicht Design-getrieben entwickelt werden: Design kann gleichzeitig positive und negative Auswirkungen haben (wirkt edler => Shop ist teurer geworden).
  • Reduziere Komplexität: sichert den Projekt-Erfolg (nicht den Relaunch-Erfolg)
  • Isoliere Komponenten, um Prinzipien verstehen zu können: Bei einem Relaunch werden so viele Faktoren verändert, dass sich im Nachhinein keine Wirkung mehr direkt zuordnen lässt
  • Validiere die Hypothesen quantitativ, bevor Änderungen ausgerollt werden: ein Redesign (große Veränderung, große Wirkung) kann auch mit A/B-Tests abgesichert werden

Agile Sprints

  • Sprint: Header und Farbe (Logo links / mitte; helle / dunkle Variante): keine signifikanten Effekte – auch keine negativen => freie Auswahl der präferierten Version
  • Sprint: Kategorieseiten-Test: Seite will sich verjüngen, Test mit Pinterest-Style. Selbst -5,8% weniger Conversions sind nicht signifikant
  • Sprint: Produktdetailseiten: vorzeitig eine Version eingestellt, weil zu hohe Verschlechterung
  • Sprint: Follow-Up Test Produktdetails: Mehrwert prominent herausgestellt – signifikante Verbesserung

Von weiß bis grau – was ist erlaubt und was wird teuer? Rechtsfragen bei der Verwendung von Marken in SuchmaschinenChristian Solmecke

Start vgl. SEO-Day Köln: Kanzlei-Blog
Youtube-Kanal brachte 8.000 Mandate

Ein klassischer Linkkauf muss aus rechtlichen Gründen gekennzeichnet sein (Afffiliate-Links, Advertorials etc.), aber widerspricht den Google-Richtlinien.

Links einfach nur mit einem Sternchen* kennzeichnen reicht laut Rechtsanwalt Christian Solmecke nicht aus, jedoch ist hier die Rechtsprechung noch nicht abschließend geklärt. Werbung, gleich ob AdWords-Anzeigen oder Advertorials müssen immer mit „Anzeige“ gekennzeichnet sein, andere Begriffe wie „sponserd Article“ und ähnlich reichen hingegen nicht aus.

AdWords Anzeigen mit Keywords der Mitbewerberbuchen ist hingegen schon bei mehreren Gerichten geklärt worden: grundsätzlich ist es dieses Vorgehen erlaubt, aber es muss klar ersichtlich sein, dass es sich nicht um die Seite des Mitbewerbers handelt.

Ein Anhängen an den Ruf einer Marke mit Formulierungen wie „sieht aus wie…” oder „so gut wie..” / „besser als…“ hingegen wird als Rufausbeutung gewertet und ist untersagt.

Beachtet man die oben genannten Punkte nicht oder nicht ausreichen, ist man schnell im Bereich einer Markenverletzung – und die hat Folgen:

  • bei einfachen Marken mind. 50.000 Euro Streitwert, bei größeren Marken 250.000
  • pro Instanz rund 8.000 Euro Gerichtskosten (bei einem 50.000 Euro Streitwert)

Fazit: „einfach mal die Agentur machen lassen” ist zwar möglich, aber mit oben genannten Risiken verbunden. Deshalb gilt: immer achtsam sein und vor allem bei „grauen“ Werbe-Aktionen vorab einen Rechtsanwalt mit einschalten.

Speed Matters – Mobile Speed Matters More: Performance-Optimierung und das Google AMP-ProjektCindy Krum und Dominic Woodman

Accelerated Mobile Project, kurz: AMP. Ziel der neuen Technologie ist, wie der Name vermuten lässt, mobile Seiten richtig schnell zu machen.

Wichtig: bei AMP handelt es sich um ein Framework und nicht etwa ein Zusatz, der noch mit ins HTML gebaut wird.

Wer sollte AMP nutzen?

  • Ist Google News eine wichtige Traffic-Quelle?
  • Produziert man viel Inhalt? Also mindestens tägliche neue Beiträge
  • Soll der Inhalt verbreitet werden? Wenn der Inhalt nur über eigene Kanäle verbreitet werden soll, ist AMP das Falsche
  • Weist die Seite einen hohen Mobil-Traffic auf?

Was bringt AMP?

  • Schnellere Webseiten für Mobil: für einen Vergleich wurde bei 20 Publishern Desktop / mobile Seite vs. AMP untersucht:
    • +615% Document complete
    • +154% Start Render
    • +284% Visual Speed
  • über 12 Werbenetzwerke wie AdSense, Plista und Co. werden bereits unterstützt, weitere sind in Vorbereitung
  • Drupal, Joomla und WordPress haben bereits erste Lösungen für AMP

Was sollte ein Publisher jetzt machen?

  • Evaluieren, ob man AMP braucht
  • Ausarbeiten, ob die oben genannten Vorteile den Mehraufwand rechtfertigen. Falls ja: ausprobieren!

Fazit

Zwei Tage, 15 Vorträge: es gab viel Bekanntes und wir wurden oft in unserer Arbeit bestätigt. Trotzdem gab es natürlich auch wieder viel Neues und Anreize, mehr zu testen und auszuprobieren. Wir berichten wieder von der SMX 2017.

Bilder und Text: Sebastian Blum und Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.

2015

SMX München 2015 Recap vom 17. bis 18. März 2015 in München

SMX 2015 in München: die Suchmaschinenmarketing Konferenz für SEO und SEA. An zwei Tagen wurden über 50 Vorträge im International Concress Center in der Messe Riem abgehalten. Wir waren dabei und präsentieren kurze Zusammenfassungen der von uns besuchten Tracks.

Tag 1, Dienstag 17. März

„Auf die Plätze-Los-Fertig“-Marketing vermeiden – sinnvolle Strategien für effektive AnalysenJeff Sauer

  • Genaue Ziele definieren, die der gesamten Vision entsprechen. Davon die Taktik ableiten, das Team passend zusammensetzen und die besten Werkzeuge verwenden
  • Stärker auf das Pareto-Prinzip achten (80% der Aufgaben mit 20% des Aufwands erreichen)
  • Die erreichten Ziele müssen im eigenen Unternehmen verkauft werden
  • Google Analytics & andere Tools bringen laufend neue Funktionen, daher regelmäßig reinschauen und alte sowie neue Einstellungen überprüfen und gegebenfalls setzen
  • Die Funktionen von Google Analytics auch wirklich verwenden und über den Einsatz des Google Tag Managers nachdenken

SEO = Search Experience OptimiziationMarcus Tober und Raij Nijjer

  • Der Roll-out von Hummingbird hatte Einfluss auf die Suchergebnisse von 96% aller Suchanfragen, Panda und Pinguin Update hingegen nur einen kleinen einstelligen Prozentsatz
  • Es sind definitiv keine einzelnen Landingpages für synonyme Keywords notwendig: Google liefert gleiche Ergebnisse bei unterschiedlichen Suchen, weil die Intention zu großen Teilen verstanden wird (Prozess, der in den letzten vier Jahren extrem verbessert wurde)
  • Alte Spam-Projekte einfach mal löschen. Man braucht sie nicht. Wirklich.
  • Backlinks müssen unwichtiger werden: gerade bei mobilem Surfen wird nicht verlinkt, sondern Links werden geteilt und sind daher kein langfristiges Rankingsignal.

AdWords bietet so viel mehr: API + Scripts für MarketersEvert Veldhuijzen und Russell Savage

  • Genaue Unterschiede mit jeweiligen Vor- & Nachteilen zwischen AdWords-API und AdWords Scripts
  • Sinnvolle Marketing-Automatisation für AdWords-Anzeigen
  • Automatische Alerts per E-Mail oder SMS bei Auffälligkeiten
  • Verknüpfung mit externen Datenquellen wie Real-Time-Events, Wetter, Verkehr sind leicht umsetzbar
  • Praktischer Einsatz von AdWords-Scripts anhand einiger Beispiele erklärt

Mobile WebseitenoptimierungAleyda Solis, Zineb Ait Bahajji, Cindy Krum

  • Responsive Webdesign (RWD) ist kein Ranking-Faktor, ob die Seite für mobiloptimiert ist, jedoch sehr wohl
  • RWD wird von Google empfohlen, da bei den Alternativen “Dynamic Serving” oder der Auslagerung auf eine Subdomain (m.domainname.de) zu oft Fehler gemacht werden
  • Für Google kein CSS, JavaScript und ähnliches blocken: Google benötigt auch diese für den Bot vermeintlich unwichtigen Sachen, um die Mobil-Freundlichkeit erkennen zu können
  • Bei Lösungen mit Subdomain (m.domainname.de) auf korrekte Weiterleitungen auch bei Deep-Links achten. Google führte wegen Weiterleitungen auf die Hauptseite einen Warnhinweis im Snippet ein, dass das Suchergebnis nicht wie gewünscht zum Artikel, sondern mobil auf die Startseite führt
  • Flash für Mobil komplett streichen (v. a. bei Videos auch testen)
  • Videos mit Transkripten versehen: Nutzer möchten evtl. was über den Inhalt wissen, auch wenn sie gerade in der U-Bahn sind und kein Video anschauen können oder wollen
  • Keine extra Seiten für App-Werbung ("Negativ-Beispiel" Slideshare.net), ein Hinweis-Banner auf eine verfügbare App bis max. 30% des Bildschirms ist aber in Ordnung
  • Kennzeichnung mobiloptimierter Seiten in den Google SERPs führte zu „großartigen Ergebnissen bei der User Experience”, genaue Zahlen durfte Zineb Ait Bahajji von Google aber leider nicht verraten
  • Verweis auf 21. April 2015 (Google wird mobiloptimierte Webseiten in der mobilen Suche stärker bevorzugen): Google redet seit einem halben Jahrzehnt von mobilfreundlichen Seiten, es wird Zeit für die Umsetzung

Keine Lust mehr auf Copy-and-paste? Internal Storytelling mit Daten und ReportsJeff Sauer

  • Daten sinnvoll zu Informationen und Wissen anreichern
  • Es ist die Verantwortung der Online-Marketing Abteilung, dem Unternehmen Informationen und Wissen bereitzustellen und somit eine Entscheidungsgrundlage zu schaffen
  • Ziel muss sein, aus den Informationen und dem Wissen Weisheit zu erlangen

Neuromarketing bei AdWordsAndré Morys

  • Unser Gehirn wäre schnell überlastet, wenn es absolut alles lesen und bewerten würde, was wir bei einer Suchergebnis-Seite lesen kann
  • „System 1“ unseres Gehirns, der implizite Teil, soll stärker beachtet werden
  • Landingpages für Typen optimieren, nicht nur Keywords: Performer, Tradionalisten und Offene (frei nach Lymbic Map), diese Ansprachen aber natürlich auch A/B-Testen
  • Test im Rahmen einer Masterarbeit mit der FH Hof: Persönlichkeitstest mit Google AdWords beworben: Optimieren einer einzigen Zeile (Title, URL und letzte Zeile blieben gleich) auf die drei verschiedenen Typen: Korrelation mit den Ergebnissen in dem Persönlichkeitstest
  • Zielgruppen nicht über Google AdWords, aber sehr wohl über Facebook gut ansteuerbar
  • Wer seine Zielgruppe (z. B. nach Lymbic Map) kennt, kann auch bei Google AdWords über die Ansprache früher filtern und Kosten sparen.

Die unbekannten KPIs der Internet-SuperstarsJordan Koene

  • Unterschiedliche KPIs für jeden Blickwinkel & Entscheider
  • Nicht in Keywords denken, sondern in Themenfeldern
  • Sinnvolle Segmentierung der Besucher durchführen

Facebook AtlasTom Thaler

  • Viel Erzählungen von “seinem Freund”, der da ganz andere Sachen macht
  • Die Open Graph Schnittstelle ist über die US-Version von Facebook für alle nutzbar
  • Ein exaktes Targeting bis runter auf eine einzelne Person ist definitiv möglich (auch wenn von Facebook so nicht vorgesehen)
  • Sichtbarkeitseinstellungen der Facebook-Profile wird über Open Graph teilweise ausgehebelt
  • Quintessenz: Technisch ist bei Facebook deutlich mehr machbar, als rechtlich erlaubt.

Tag 2, Mittwoch 18. März

„Persona-based Keyword“-StrategienKarl Kratz

  • Wieso auf demografischen Personas basierende Strategien nicht funktionieren können
  • Sehr gute Denkanstöße, um ereignisbasierte Persona-Definitionen zu finden und zu definieren
  • Ziel ist immer eine Resonanz zu erzeugen, damit aus einem Bedarf eine Konversion werden kann
  • Immer auf den Customer Lifetime Value optimieren und nicht mehr in Keywords denken
  • Es gibt auch viele andere Traffic-Kanäle als „nur die Konkurrenz zu Bing”

Law ClinicDr. Martin Schirmbacher

Die Law Clinic war ein Vortrag im gesponserten Raum (auch Teilnehmer mit Lobby-Ausweis dürfen teilnehmen), dadurch entstand wohl bereits im Vorfeld der Eindruck, das wäre eine Werbe-Veranstaltung. Die Folge: flauschige Runde mit fünfzehn Teilnehmern. Jedoch war der Vortrag bzw. Diskussion aber komplett werbefrei und sehr informativ. Wer bekommt schon eine dreiviertel Stunde mit einem Rechtsanwalt, ohne daür bezahlen zu müssen?
Diskussionsschwerpunkt war eindeutig der Datenschutz nach dem BDSG und ihre praktische Umsetzung in Unternehmen mit Webseiten:

  • In den Firmen ist Datenschutz immer noch ein Nischenthema und wird gerne aufgeschoben
  • Agenturen sehen die Verantwortung für die Thematik gerne beim Kunden, diese erwarten aber das von der Agentur
  • “Friss-oder-stirb-Mentalität” bei Datenschutzeinwilligung; es gibt nur die Option, alles zu erlauben oder dem Ganzen komplett fernzubleiben. Daher ist eine Forderung von Datenschützern: Einwilligungen partiell erlauben oder verweigern können
  • Eine Datenschutzerklärung kann eine Einwilligung nicht ersetzen!
  • Eine pseudonyme oder anonyme Datensammlung (z. B. bei Trackern) ist oftmals durchaus erlaubt, weil eben nicht konkret personenbezogen
  • Eine IP-Adresse ist laut Datenschützern personenbezogen, da zumindest der Anschlussinhaber dahinter ermittelt werden kann. Die Frage ist in den Augen von Dr. Schirmbacher jedoch noch nicht abschließend geklärt.
  • Rechtlich liegt keine Datenübermittlung in Drittstaaten vor (vgl. hierzu die öffentliche Verfahrensverzeichnisse de Unternehmen), wenn eine Auftragsdatenverarbeitung (ADV) existiert
  • Für den Landesbeauftragten für Datenschutz in NRW ist die ADV mit Google bzgl. Analytics und anderer Produkte von keiner Relevanz, da bestimmte Vertragsbestandteile (z. B. eine Prüfung auf Einhaltung der Vorschriften durch das Unternehmen bei Google) nicht erfüllt werden: starke Diskrepanzen zwischen den einzelnen Landesdatenschutz-Aufsichtsstellen
  • EU-Cookie-Richtlinie: in den Niederlanden gibt es aktuell eine sehr strenge Umsetzung dieser Richtlinie, die Folge „lästige” Hinweise. „So kommen künftig neben Popup-Bockern auch Einwilligungs-Geber”. Empfehlung: bis noch nichts explizit entschieden ist, muss der Extra-Hinweis noch nicht implementiert werden, jedoch aber auf jeden Fall in die Datenschutzerklärung aufgenommen werden

Keynote: War Captain Kirk Google-Nutzer? Die Zukunft der Suche!Behshad Behzadi

Behshad Behzadi, Director of Conversational Search, Google Inc. demonstrierte die Funktionen der Google-Suche im Jahr 2015 und wie sie über die Jahre zunehmend schlauer wurde, z. B. mit der Nutzerintention und Erkennung von Synonymen und Zusammenhängen.

Google Now wurde live vorgeführt und die Komplexität und Verknüpfungen mit Apps beeindruckend dargestellt. Funktionen wie der der Berichtigung (“whales” – “no, i mean w-a-l-e-s”) sind notwendig: ungefähr jedes zwöfte Wort wird laut seiner Aussage noch von Google Now falsch interpretiert. Hier wurde wieder gezeigt, wohin die Reise geht: sprechen statt tippen.

Content Analyse: Fokus Funnel in Universal AnalyticsSimo Ahava

  • Wie man Enhanced E-Commerce in Universal Analytics verwenden kann, um den Textinhalt zu analysieren
    • Product View: der Aufruf einer Content-Seite
    • Add to cart: wenn 50% des Textes beim Herunterscrollen sichtbar wurden
    • Checkout: wenn über den gesamten Text heruntergescrollt wurde
    • Transaction: wenn über den gesamten Text gescrollt wurde und die Verweildauer so lang ist, dass der Besucher den kompletten Artikel gelesen hat. Mindestverweildauer ist die Anzahl der Wörter geteilt durch die durchschnittliche Lesegeschwindigkeit.
    • Revenue: Ist die Anzahl der Wörter im Text als Cent-Betrag
  • Somit stehen für die E-Commerce-Auswertungen „Produktleistung“, „Verkaufsleistung“ und „Transaktionen“ für die Content-Analyse als „Textleistung“ oder „Komplett gelesene Artikel“ bereit.
  • Mit Hilfe des Google Tag Managers lassen sich sehr leicht aussagekräftige Content-Analysen realisieren

HTML Performance Optimierung für GeeksCindy Krum, Bastian Grimm

Google präferiert schnelle Seiten. Das Problem: bei Responsive Webdesign (RWD) ist das schwerer zu realisieren. Folgende Tipps sind das A und O:

  • Viel mehr auf die Anzahl der Requests als nur immer auf die Dateigröße achten
  • In einem Beispiel wurde ein mobiler Abruf über mit einer Latenzzeit von über 13 Sekunden wegen 65 Requests errechnet
  • Es gibt keinen Grund, auf acht Stylesheets zu verlinken, zwei reichen aus
  • Tool zum Nutzen: Google PageSpeed Chrome Plugin

Sprites

  • Bilder mobil-freundlich einbinden: nach wie vor via Sprites, aber:
    • nicht mehr als 5 Sprites
    • keine Single-Images Sprites (unterwandert den Sinn und Zweck von Sprites)
    • nicht alle Sprites auf allen Seiten einbinden
    • veraltete Sprites laden (kommt öfter vor, als viele denken, vergessen Entwickler schlicht ab und an einfach, dass diese noch eingebunden sind)
  • Sprites sind nicht zu Cashen, daher klein halten
  • Template Name in Sprite-Namen inkludieren

Caching

  • Aufpassen mit Proxy-Caching
  • Vorsicht auch bei Caching für immer und invalidieren ermöglichen
  • Bei einer Dateinamen-Umbenennung (z. B. neuere Version) wird sofort neu gecacht, auch wenn ein langer Wert eingestellt ist
  • Invalidieren via ET-Tag
  • Unbedingt gzip und minify nutzen womöglich

CDN

  • Auf korrekte Einstellungen achten, z. B. hinsichtlich der unterschiedlichen User-Agents
  • Immer prüfen, ob alle Abfragen erlaubt sind, besonders der Einsatz von https und externen CDNs bergen Gefahren für Fehler

Website Speed

  • 100 ms machen einen deutlichen Unterschied (Tests von Amazon und Yahoo)
  • #1 Requests sind und bleiben dasgrößte Problem, solange noch HTTP 1.1 eingesetzt wird
  • jQuery trägt dick auf: unbedingt minifizieren und gzipen (auch wenn die Lesbarkeit des Quelltexts leidet – Performance geht vor)
  • Top oder Bottom ist oft egal, der Browser muss sowieso erst alles laden. Abhilfe: Render Blocking. hier wartet der Browser nicht auf die Antwort, sondern geht schonmal die weiteren Bereiche der Seite durch.
  • <script async …> bietet jedoch keine Garantie bzgl. der Reihenfolge der Ausführung
  • Empfehlung: JavaScript-Loader wie HeadJS nutzen! Gerade mal 2 kb Code
    Problem: Tonnen von Loaders verfügbar; defer.js
  • Bei Verwendung der Standardeinstellungen ist jQuery ein Render-Blocker, hier unbedingt optimieren
  • DNS Pre-Fetching nutzen
  • Bilder sind fast immer zu groß: Metadaten kicken und JPEGs immer komprimieren, v.a. wenn sie von Photoshop kommen
  • Repace JPG on-the-fly mit WebP (sehr leicht zu implementieren)

Webserver Module – HTTP/2

  • Implementierung im Browser nur über TLS: SSL connection notwendig
  • Binary Format: erlaubt multiplexed Streams
  • Weite Verbreitung noch nicht abschätzbar: noch kein Einsatz empfohlen, solange Chrome und Firefox HTTPS/2 noch nicht vollständig unterstützen

Webmaster on the roofMarcus Tandler mit Aleyda Solis, Dan Petrovic, Rand Fishkin und Kaspar Szymanski

Marcus hatte eine sehr lustige Diskussionsrunde mit Top-Speakern auf die Beine gestellt. In meinen Augen war es die lustigste Session der ganzen SMX.

Die größte Überraschung waren die guten Deutschkenntnisse von Rand, sehr beeindruckend. Als es um Live-Beispiele von Schrottlinks ging, wollte Rand Fiskin eine Linkkauf-Anfrage ausfüllen, jedoch ging im Internet Explorer (Kein Witz – Wirklich IE in VM auf Macbook!) das Formular nicht. Sofort wurde ein Tweet auf Deutsch gepostet:

Leider war die Session zu schnell vorbei, ich hätte noch Ewigkeiten weiter zuhören können.

Integration von Kundendaten: CRM und Web-AnalyticsKarsten Courtin, Olga Walter

Vereinigung von CRM und Web-Analyse-Daten

  • CRM-Daten werden in ein Cookie geschrieben und übergeben
  • CRM Daten werden in einem Cookie an die DMP (Data Management Platform) übergeben: alles erst nach Login möglich. Diese Lösung sollte aber komplett Inhouse gelöst werden
  • DMP bietet Segementierung und standardisierte Schnittstellen via AdServer oder DSP / SSP
  • Aufwendig, aber sehr effektiv. Der Markt mit passender Software steigt, jedoch sollte auf Anbieter gesetzt werden, die auch vor Ort helfen können.

Semantische Optimierung: RDF und JSON-LD genauer beschriebenCraig Bradford

Craig aus London ist ehemaliger Kickbox-Weltmeister und hat in seiner Session technisch sehr detailiert die aktuellen Möglichkeiten vorgestellt, schematische Daten auszuweisen.

  • Empfehlenswert ist die 2014 vorgestellte Schema.org Auszeichnung “sameAs”
  • Genaue Vergleich zwischen RDF und JSON-LD und eine persönliche Einschätzung, wann Craig was bevorzugt
  • Deep Links sowohl für Webseiten als auch Android Apps setzen und bei Android ein App Manifest bereitstellen. Derzeit gibt es folgende drei Möglichkeiten:
    • <link rel="alternate" …
    • Sitemap im <url>-Tag
    • JSON-LD mit Schema.org

Im zweiten Teil der Session wurden viele Beispiele von google.io präsentiert und zukünftige Möglichkeiten präsentiert.

Technical Onpage & Onsite ClinicJohannes Müller

  • Müller ist seit über 7 Jahren bei Google und aktuell im Webmaster Team
  • Mobile Usability Tool in GWMT nutzen (neue Funktion). Ziel: vergessene Templates finden
  • Blocked Ressources via GWMT prüfen (CDN, APIs etc.)
  • Google empfiehlt https: hierbei ist die Sicherheit und Integrität der Seite für Google im Vordergrund (Hotspots von Hotels oder Messen binden gerne mal zusätzliche Werbung in die Abfragen mit ein, das ist mit https nicht möglich
  • Beispiel – fewo-direkt: 4 große Kritikpunkte (kein https / hreflang, keine saubere XML-Sitemap, viele 404, blockierte Ressourcen)
  • Andere Website-Kritik: Verhältnis beim Crawlen war mit 200:1 zu hoch, da sehr viel nicht indexiert wird (Ressourcen des Google-Bots) und der ; Canonical war nicht auf https gesetzt, obwohl verfügbar
  • Sitemap heißt nicht, einfach nur alle Links aufzulisten, sondern auch das Versehen von neuen Artikeln mit einem Änderungsdatum; so können neu hinzugefügte Seiten schneller vom Google-Bot gecrawled werden
  • Nicht alle blockierten Ressourcen sind auch für den Google Bot wichtig: z. B. Conversion-Pixel oder Tracking-Zähler. Diese dürfen weiter blockiert bleiben
  • Auf Kodierung einer Seite achten: UTF-8, ANSI und Co.
  • Analyse einer Zeitungsseite: entweder den ersten Klick für Besucher frei zugänglich machen oder nicht indexieren, wenn eine Bezahlschranke darüber liegt
  • Nicht unnnötig viele Subdomains einsetzen, diese müssen nämlich alle einzeln bei GWMT angemeldet und individuell eingestellt werden
  • hreflang: „x-default” für Startseite + 302 Redirect (nicht 301) und immer in alle Richtungen verlinken. Tipp: de-DE und en-GB vereinfachen, wenn es nur eine de- und en-Version gibt
  • Empfehlung bei Umstellung auf https: alles auf einmal, nicht sukzessiv. So kann Google alles pauschal weitergeben und muss nicht zuerst analysieren, was jetzt http und was https zuzuordnen ist. Schlimmstenfalls gibt es Rankingverluste in den ersten ein bis zwei Monaten (unserer Erfahrung nach auch bis zu drei Monaten)
  • Disavow-Tool bedenkenlos bei Negative-SEO nutzen

Die Zukunft des Trackings hat längst begonnenBen Prause

eprofessional gehört zum Springer-Verlag

  • Schwerpunkt Multi-Channel-Tracking
  • Disruptive Technologien (Technologien, die Märkte verändern)
  • Web Analyse Tool (Google Analytics) => Customer Journey Tool (intelliAd, exactag uvm)
  • Cross-Device-Tracking: Facebook ist hier deutlich weiter als Google (nicht unbedingt technisch, aber rechtlich und in der realen Umsetzung für Unternehmer)
  • Internet der Dinge: überproportional hoher Anstieg im Automotive-Bereich
  • Amazon Echo: Google Now / Siri von Amazon und fürs Haus
  • BMW arbeitet mit SAP und IBM für Big Data zusammen: Google greift mit selbstfahrenden Autos deren Markt an
  • Grenzen zwischen persönlichem Komfort und persönlicher Freiheit werden verwischen

Technisches SEO bei ZalandoRalf Ohlenbastel

Ralf hat eine Vielzahl von technischen Lösungen für SEO-Probleme bei großen Seiten wie Zalando vorgestellt.

  • href-lang war eine große Herausforderung, da die meisten Webseiten unterschiedlich aufgebaut sind. Da eine synchrone hreflang-Auszeichnis mit dem <link>-Attribut nicht möglich war, wurde es bei Zalando asynchron über die Sitemap realisiert
  • Mit einem eigenen & dem Testing-Tool Testomato sellt die SEO-Abteilung die Qualität und Verfügbarkeit aller Webseiten sicher und überwacht zusätzlich den laufenden agilen Entwicklungs-Prozess
  • Wichtiges Learning: immer ohne Loadbalancer auf einem Server mit der neuesten Software testen!
  • Jedes Team muss selbst die für sich passenden Tools finden, um die Arbeit teilzuautomatisieren und besser unterstützen zu können

Suche und Recht – Was gibt es Neues bei SEO und SEA?Dr. Martin Schirmbacher

  • Google Maps ist In den deutschen Gerichten am häufigsten vertreten (Verkehrsrecht, Infos), Gerichtssache selbst hingegen AdWords (Brandbidding)
  • Umfrage beim Beispiel Beate Uhse & Brandbidding durch Eis.de: ist eine Markenverletzung oder ist keine Markenverletzung gegeben: beides ist der Fall. Letztlich wurde gerichtlich aber nun entschieden, dass es sich um eine Verletzung handelt, da der Brand-Name nach Ansicht der Richter ausgenutzt wird
  • Beim Brandbidding macht es keinen Unterschied, ob exakt oder weitestgehend passend eingebucht wird: der Anzeigen-Ersteller muss dafür sorgen, dass die Schaltung korrekt abläuft
  • AdWords sind und bleiben Werbeanzeigen: wer mit Preisen oder Rabatten wirbt, muss ihre Verbindlichkeit achten und umgehend auf der Landingpage die gesamte Preisstruktur offen legen (z. B. „inkl. MwSt, zzgl. Versandkosten”)
  • SEO Onpage: Meta-Description mit Markennamen ist eine markenmäßige Verwendung (betrifft auch interne Suchen z. B. in Preissuchmaschinen)
  • SEO-Texte kopieren: geistige Schöpfungshöhe; Gebrauchsanweisungs-Texte fallen hier eigentlich gar nicht darunter
  • Linkkauf: rein rechtlich gesehen gibt es das Verbot der Schleichwerbung zu beachten. Das Gebot zur Trennung von redaktionellem Content und werbenden Inhalt kann unter Umständen beim Linkkauf greifen; jedoch gilt wie immer: wo kein Kläger, da kein Richter (“es steht ja auch in den großen Zeitungen nichts darüber – man kann sich jetzt natürlich fragen warum”)

Fazit

Zwei informative Tage mit richtig vielen Anregungen, Ideen und hilfreichen Tipps für den Onliner-Alltag. Die nächste SMX in 2016 wird wohl ein Muss.

Bilder und Text: Sebastian Blum und Sebastian Eggersberger

Anmerkung: Die hier verwendeten Fotos dürfen gerne kostenfrei verwendet werden! Wir freuen uns über eine Quellenangabe.