Skip and go to main content

Von unseren Depsters November 22, 2017

SEOkomm 2017 – Recap der SEO-Konferenz in Salzburg

Image

Knapp 900 Teilnehmer zählte die diesjährige SEOkomm. Ein neuer Rekord. Und die Besucher wurden nicht enttäuscht: Neben leckerem Essen gab es wieder eine top besetzte Agenda. Hier folgt eine Zusammenfassung unserer wichtigsten Erkenntnisse.

Keynote von Marcus Tandler: «Position Zero»

Mit sagenhaften 420 Folien in 50 Minuten sorgte Marcus Tandler (Co-Gründer und Co-Geschäftsführer der Ryte GmbH) gleich zu Beginn für ein Highlight. Im ersten Teil seines Vortrags erläuterte er den Domain-Wechsel von onpage.org zu ryte.com, den seine Firma in diesem Jahr im Zuge des Re-Branding vollzogen hat. Zentrale Learnings aus SEO-Sicht:

  • Zu Beginn hilft es, wenn man die komplette Website crawlt und ganz klassisch per Excel ein URL-Mapping erstellt.
  • Traffic-starke Backlink-Quellen (Referrals) sollten direkt kontaktiert werden, damit diese ihre Verlinkungen anpassen.
  • Ein gutes WDF*IDF-Tool leistet beim Überarbeiten Content-starker Seiten wie Magazin und Wiki wertvolle Dienste.

SEOKOMM 2017 – RECAP DER SEO-KONFERENZ IN SALZBURG

Knapp 900 Teilnehmer zählte die diesjährige SEOkomm. Ein neuer Rekord. Und die Besucher wurden nicht enttäuscht: Neben leckerem Essen gab es wieder eine top besetzte Agenda. Hier folgt eine Zusammenfassung unserer wichtigsten Erkenntnisse.

Keynote von Marcus Tandler: «Position Zero»

Mit sagenhaften 420 Folien in 50 Minuten sorgte Marcus Tandler (Co-Gründer und Co-Geschäftsführer der Ryte GmbH) gleich zu Beginn für ein Highlight. Im ersten Teil seines Vortrags erläuterte er den Domain-Wechsel von onpage.org zu ryte.com, den seine Firma in diesem Jahr im Zuge des Re-Branding vollzogen hat. Zentrale Learnings aus SEO-Sicht:

  • Zu Beginn hilft es, wenn man die komplette Website crawlt und ganz klassisch per Excel ein URL-Mapping erstellt.
  • Traffic-starke Backlink-Quellen (Referrals) sollten direkt kontaktiert werden, damit diese ihre Verlinkungen anpassen.
  • Ein gutes WDF*IDF-Tool leistet beim Überarbeiten Content-starker Seiten wie Magazin und Wiki wertvolle Dienste.

Danach folgte ein kurzer Exkurs zur Google Search Console:

  • Am spannendsten sind hier die CTR-Daten – also die Leistungen der Suchtreffer im organischen Bereich (SERPs). Eine gute Performance ist ausschlaggebend, um im Ranking nach oben zu gelangen.
  • Mehrfach-Rankings können häufig durch Site-Links entstehen (gut!) oder durch Keyword-Kannibalisierungen (schlecht – dies sollte dann näher analysiert und per 301-Redirects behoben werden!).
  • Die Google Search Console kann auch dabei helfen, Keyword Opportunities zu finden.

Schliesslich ging es noch um aktuelle Google-Trends:

  • Bekämpfung von Fake News mit Hilfe des Knowledge Base Trust Score. Ziel: Google will allgemein mehr Qualität in den Sucherergebnissen.
  • Ende von First Click Free. Stattdessen: Flexible Sampling (relevant für Verleger und Publisher).
  • Das dominante Thema ist aber weiterhin Speed. Passend dazu die These von Marcus vom letzten Jahr: Google (bzw. das AMP Project) versucht mit Accelerated Mobiles Pages (AMP) das gängige HTML im mobilen Web zu ersetzen.
  • Neben AMP sind noch immer Progressive Web Apps (PWAs) ein grosses Thema. Ab 2018 wird es PWAs auch für Desktop geben.
  • Der Mobile First Index wird eine Revolution und der nächste grosse Entwicklungsschritt in der Web-Geschichte. Google dominiert aktuell 95 Prozent des weltweiten Such-Traffics im Bereich Mobile Search.
  • Vermutung von Marcus Tandler: Der Mobile Index könnte perspektivisch gesehen auch ohne URLs auskommen. Wenn es keine URLs mehr gibt, dann haben Apps prinzipiell dieselben Chancen wie «normale» Webseiten, um als Such-Treffer ausgespielt zu werden.
  • Aus Mobile First Indexing könnte irgendwann Cloud First Indexing werden. Google pusht das Thema Cloud enorm. Denn: Hosting ist viel besser und effizienter als Crawling. Auch im Hinblick auf Artificial Intelligence (AI).
  • Stichwort Voice Search: Die Bedeutung von W-Fragen in Form von Voice Queries nimmt stetig zu. Die klassische Keyword-Suche könnte somit bald passé sein. Für SEOs heisst das: umdenken!
  • Viel besser als Platz 1 in der Google-Suche ist Position Zero – die direkte Antwort. Die Anzahl dieser Featured Snippets ist in letzter Zeit rasant gestiegen. Vorgehen:
    • Recherchieren, welche Fragen deine Nutzer haben.
    • Die wichtigste Frage sollte im Title Tag stehen.
    • Die Antwort auf diese Frage sollte dann im Fliesstext etwa 40 bis 50 Wörter lang sein.
    • Bei der Optimierung eines bestehenden Featured Snippets stellt die Funktion «Fetch and Render» in der Google Search Console ein mächtiges Werkzeug dar.

Sebastian Erlhofer: «Datenorientiertes SEO mit Fokus auf die Google Search Console»

Suchmaschinenoptimierung sollte datengetrieben erfolgen. Doch was heisst das konkret? Wie lassen sich die Daten der Google Search Console gewinnbringend einsetzen? Mit diesen Fragen befasste sich Sebastian Erlhofer (Gründer und Geschäftsführer der mindshape GmbH).

Zentrale Takeaways:

  • Es gibt vier Dimensionen der Suchmaschinenoptimierung: Analysieren, Optimieren, Monitoring, Strategie-Entwicklung.
  • Bei alledem gilt: Man sollte ein begründetes Bauchgefühl entwickeln. Doch die Zukunft wird immer komplexer. Um weiterhin die richtigen SEO-Entscheidungen zu treffen, benötigt man verlässliche Daten.
  • Daten sind für SEOs in dreierlei Hinsicht wichtig:
    • Sie erleichtern die Priorisierung (Welche SEO-Idee sollte ich zuerst angehen?).
    • Sie bieten die Grundlage für das Monitoring und Alerting (Wo brennt es?).
    • Sie können selbst konkrete Vorschläge für Optimierungen geben.

Grundlagen für die Datengewinnung mit der Google Search Console:

  • Property-Sätze für verschiedene Varianten anlegen (http, https, www, non-www etc.).
  • Daten regelmässig downloaden und abspeichern – idealerweise auf Tages-Basis und separat nach Endgerät (Desktop, Mobile).
  • APIs benutzen.
  • Property-Cap beachten: Es können maximal nur 1.000 verschiedene URLs pro Tag erfasst werden.
  • Anwendungsbeispiele mit der Google Search Console im Bereich der Suchanalyse:
    • Mehrfach-Rankings identifizieren und deren Ursache klären (z.B. Keyword-Kannibalisierung).
    • Bislang ungenutzte Ranking-Chancen durch CTR-Analyse entdecken (Fälle mit wenigen Klicks, aber vielen Impressionen).

Und was passiert sonst? Machine Learning ist im Kommen! Durch Machine Learning kann man z.B. folgende SEO-Aufgaben effizienter gestalten:

  • Thin Content ermitteln.
  • Content identifizieren, den die Nutzer nicht mögen.
  • Aussagekräftige Keyword-Potential-Analysen erstellen.
  • Den internen Page Rank berechnen.
  • Crawl-Häufigkeit prüfen durch Log-File-Analyse.
  • Time to First Byte-Monitoring aufsetzen (Page-Speed).

Karl Kratz: «Blumento-pferde per Sprachsuche bestellen»

Ob Alexa, Cortana, Google Assistant oder Siri: Voice Search ist in aller Munde. Doch die Technologie der digitalen Sprach-Assistenten steckt noch in den Kinderschuhen. In seinem Vortrag zeigte Karl Kratz anhand von Live-Beispielen, was derzeit im Bereich der Sprachsuche möglich ist und welche Folgen dies für den Online-Bereich hat.

Zentrale Takeaways:

  • Diverse Anwendungsfelder der Sprachsuche: Informationen suchen, Kontakte anrufen, Navigationssoftware bedienen, Bestellungen aufgeben, Zahlungen veranlassen etc.
  • Sprache ist ein natürliches Interface: Die Sprachsuche geht schneller als Tippen. Meistens.
  • Das Kind Sprachsuche lernt gerade laufen. Und die ganze Welt macht mit.
  • Wichtig für Produkt-Designer ist ab sofort: Wie gut lässt sich deine Marke bzw. dein Produkt aussprechen? Was passiert bei Dialekt?
  • Wie bleibt man auch in Zukunft mit seinem Web-Angebot findbar?
    • Dokumente mit strukturierten Daten versehen. Standard: JSON-LD. Wichtig ist dabei z.B. die «same as»-Auszeichnung. Alternative Spielwiese zum Google Testing Tool: https://json-ld.org/playground/. Karl: «Je reicher wir unsere Dokumente machen, desto besser können sich andere Systeme mit uns verbinden.»
    • W-Fragen-Tools einsetzen, die sinnvollsten Fragen der Nutzer aufgreifen und hierzu passende Antworten verfassen. Ziel: In die Antwort-Boxen reinkommen.
    • Bei der Sprachsuche kommt derzeit ein komplexes Geflecht an Suchsystemen und Subsystemen zum Einsatz. Bislang nimmt Bing eine wichtige Rolle als Suchsystem in der Voice Search ein (Alexa nutzt Bing, Cortana nutzt Bing, Siri nutzt Bing bei der Bildsuche). Bei den Subsystemen ist u.a. Yelp als Datenbasis stark vertreten. Für SEOs heisst das: Künftig muss auf systemübergreifende Findbarkeit hin optimiert werden und nicht mehr auf die reine Sichtbarkeit in einem dominanten Suchsystem (Google)!
    • Weitere Kriterien, die aus SEO-Sicht immer wichtiger werden: Erwartungskonformität (Entspricht das Sucherergebnis der Voice Search des Nutzers?), Merkbarkeit im Sinne von Hörbarkeit, Verarbeitbarkeit.
    • Position 1 (und Position 2) wird wichtiger denn je – in jedem Suchsystem! Wer weiter hinten rankt, hat in der Voice Search schlichtweg verloren.
    • Somit: Optimierung auf allen Ebenen nötig. Im Bereich der Subsysteme bedeutet das: verstärktes Rezensionsmanagement.

Testmöglichkeit für Alexa, ohne das Gerät kaufen zu müssen: die Apps «Reverb» und «Alexa app» downloaden oder auf echosim.io gehen.

  • Der Aspekt Datensicherheit ist noch nicht gelöst. Beispiel: Eine einfache Frage reicht aus (Was war meine letzte Überweisung?) und der digitale Sprachassistent plaudert munter drauf los.
  • Es wird bei schema.org bald eine neue Auszeichnung namens «Speakable» geben.
  • Voice Search ist ein Schritt hin zur Virtual Reality.
  • Es gibt noch keinen Assistenten, der alle relevanten Suchsysteme und Subsysteme abdecken kann und unter einem Dach vereint.

Artur Kosch: «JavaScript SEO – Crawling, Indexierung und Auditing von JavaScript-Websites»

Welche Probleme gibt es aus SEO-Sicht beim Einsatz von JavaScript? Darum ging es im Vortrag von Artur Kosch (geschäftsführender Gesellschafter von Kosch Klinik Performance).

Zentrale Takeaways:

  • Ausgangspunkt: Google kann laut eigener Angabe JavaScript-Inhalte rendern und crawlen. Diese Aussage ist jedoch gefährlich.
  • Anhand von Experimenten mit JavaScript-Websites lässt sich feststellen, dass andere Suchmaschinen erst gar nicht versuchen solche Inhalte zu rendern.
  • Grundsätzliches Problem: Suchmaschinen können JavaScript Funktionalitäten nicht ohne Weiteres verstehen. Somit können Inhalte nicht gefunden, nicht abgerufen und nicht komplett interpretiert werden (Verlust an inhaltlicher Relevanz).
  • Allerdings: Aus Gründen der Performance und der vergleichsweise einfachen Implementierung verliert JavaScript nicht an Popularität.
  • Lösungen wie SEO4AJAX oder prerender.io können die dynamischen Inhalte in suchmaschinenfreundliche HTML-Snapshots umzuwandeln. Nachteile: u.a. grosser Implementierungsaufwand und Lizenzkosten.
  • Do´s für SEOs:
    • «Fetch and Render»-Funktion in der Google Search Console nutzen, um zu verstehen wie Google Website-Content darstellen kann.
    • Screaming Frog SEO Crawler mit JavaScript Rendering Mode verwenden, um das Google-Crawling nachvollziehen zu können.
    • Chrome Headless Browser nutzen, um zu verstehen wie ein Suchmaschinen-Bot mit dem Inhalt umgeht.
    • Für Entwickler und Website Betreiber gilt weiterhin: Wer auf der sicheren Seite sein will, sollte sich nicht auf JavaScript verlassen (Ausnahmen bildet Isomorphic JavaScript).

Nicole Mank: «How to rock in local SEO»

Anhand der Local-Strategie für Volvo Deutschland zeigte Nicole Mank (Suchmaschinen-Expertin bei der web-netz GmbH), wie lokales SEO funktioniert.

Zentrale Takeaways:

  • Allgemein lässt sich beobachten: Anstieg der lokalen Suchanfragen, der mobilen Suchanfragen und der Anfragen im Bereich Voice-Search. Zugleich spielt Google immer häufiger Standort-bezogene Suchtreffer aus.
  • Steuerungsinstrumente für local SEO: Google My Business, Google Maps und die «normale» Google-Suche.
  • Herausforderungen bei Volvo:
    • Grosser Standort und vielfältige Stakeholder (Volvo Brand, Volvo-Händler, Dritte).
    • Wichtige Website-Daten fehlten bzw. waren nicht vollständig.
    • Duplicate Content durch mehrfache Verwendung identischer Textbausteinen je Händler, Ort etc.
    • Technisch nicht optimal gelöste Website-Store-Finders.
    • Keine strukturierten Daten (schema.org) im Einsatz.

Fragen? Wir sind hier, um zu helfen!

Hoppla!

Wenn Sie dies lesen, können Sie das Formular, das hier sein sollte, leider nicht sehen. Sie haben wahrscheinlich einen Werbeblocker installiert. Schalten Sie den Werbeblocker aus, um das Formular zu sehen. Es funktioniert trotzdem nicht? Öffnen Sie diese Seite in einem anderen Browser oder setzen Sie sich mit uns in Verbindung: [email protected]