SEO Tools vs. Google: Was du von 16 SEO-Experten noch lernen kannst! (Onpage-Optimierung)

Weiter geht es mit Teil 2 unserer Artikelserie „Top SEO-Tools der Profis“. Solltet Ihr die anderen Artikel noch nicht gelesen haben könnt Ihr sie hier noch einmal nachlesen:

1. Top SEO-Tools der Profis (Keyword-Recherche)
2. Top SEO-Tools der Profis (Link-Building)
3. Top SEO-Tools der Profis (Ranktracking)

Featured Content: Du möchtest 100 Google-Ranking-Faktoren als handliches PDF erhalten? Einfach anmelden und gratis euren Bonus erhalten!

SEO Tools 2016 (Onpage-Optimierung): Einleitung

Heute befassen wir uns mit dem Thema „OnPage-Optimierung„! Auch hier haben wir wieder unsere bekannten SEO-Experten befragt. Die Antworten werden euch gefallen!

SEO steht ja bekanntermaßen für Search Engine Optimization, übersetzt Suchmaschinenoptimierung.
Google selbst hat in seinen Googlebot, genannt Crawler (ein Suchalgorithmus, welcher das Web nach Seiten durchstöbert), diverse Rankingfaktoren eingebaut, welche eine Seite nach bestimmten Kriterien bewerten, um letztendlich dem Suchenden das beste Ergebnis anzuzeigen.

Das Ergebnis dieser Bewertung hieß „PageRank“, welcher seit April 2016 von Google abgeschafft wurde und keine Werte mehr anzeigt!

16 SEO-Experten verraten Ihre liebsten SEO Tools im Online-Marketing

Alle Faktoren, welche zum Ranking gezählt werden, sind natürlich unbekannt, jedoch gibt es zumindest sehr viele Anhaltspunkte, welche eine Seite erfolgreich platzieren.
Zu einem der wichtigsten Faktoren der „OnPage-Optimierung“, also der Optimierung der eigentlichen Webseite, gehört neben dem Inhalt auch der Aufbau der Webseite.

Der Aufbau der Seite ist im Grunde das Inhaltsverzeichnis bzw. die Navigation, eine Orientierung für den Crawler, um den Textinhalt besser einzuordnen.

Weist der technische Aufbau Fehler auf, kann der Crawler die Webseite nicht korrekt auslesen. Die Folge ist eine schlechtere Bewertung durch Google.

Es sind oftmals die kleinen Dinge, die großen Einfluss auf Rankings nehmen können, wie zum Beispiel die korrekte Verwendung der H-Überschriften und eine gute interne Verlinkung innerhalb der eigenen Seite.

Onpage-Optimierung: Die wichtigsten Faktoren

URL:
Der Name der Webseite sollte den eigentlichen Suchbegriff beinhalten.

Titel:
Der sogenannte „title-Tag“, der Titel der Website, hier sollten entsprechende Keywords ebenfalls platziert werden

Keywords:
Natürlich kann man nur auf einige wenige Suchbegriffe auf einer Seite ranken, ganze Textpassagen machen keinen Sinn. In unserem Fall, als Beispiel, versuchen wir auf Begriffe wie „Rechnungsprogramm“ oder „Rechnungssoftware“ zu ranken. Bei den Keywords selbst unterscheidet man zwischen „Short-Tail-Keywords“, einzelnen Begriffen (z.B. eben „Rechnungssoftware“) und „Long-Tail-Keywords“, Kombinationen von Wörtern (z.B. „rechnung online schreiben“). Mehr dazu in unserem „Top SEO-Tools der Profis (Keyword Recherche)“ Artikel.

Ladezeit:
Wie schnell lädt eine Webseite, damit das Nutzererlebnis nicht gestört wird. Kleine Webseiten mit optimierten Grafiken und Bildern laden natürlich schneller als große Webseiten mit 4K-Bildern (welche meist ebenfalls nur in einem 400×400 Pixel Feld angezeigt werden => Tatsächliche Größe der Bilder nutzen!).

Sitemaps:
Sitemaps helfen dem Googlebot sich auf der eigenen Seite zu Recht zu finden. Über die Google Webmasters Tools kann man seinen eigene XML-Datei einreichen, jedoch sollte man eine eigene XML ebenfalls auf der Webseite parat halten. Für WordPress zum Beispiel gibt es diverse Tools, welche einem bei der Erstellung der Sitemap helfen: https://de.wordpress.org/plugins/google-sitemap-generator/

Navigation:
Zur Navigation gehören z.B. interne Verlinkungen, welche sorgsam auf Header, Footer und Sidebar verteilt werden sollen. Dabei darf man die Komplexität nicht außer Acht lassen. Der Googlebot durchstreift dabei maximal nur 6 Ebenen. Auch die Linksetzung macht einen Unterschied, ob der Link im Contentbereich ist, oder nur im Footer wird ebenfalls unterschiedlich bewertet.

Inhalt:
„Content ist King!“
Noch nie hat das so sehr gestimmt, wie heute und der inhaltliche Aufbau sollte ebenfalls berücksichtigt werden. Der mentale Inhalt ist wichtig, dessen Präsentation jedoch ebenfalls. Gute Formatierungen, klar strukturierte Überschriften und nicht zu lange Textblöcke werden als positiv bewertet.

Responsive:
Nicht ganz so neu, jedoch im Zeitalter der Mobilität immens wichtig ist die Darstellung der Seite auf mobilen Geräten. Ob Tablet oder Smartphone jeder Nutzer sollte das gleiche Erlebnis erhalten und somit ebenfalls die gleichen „Antworten“ auf seine Fragen. Wer noch eine Firmenseite hat, welche an so etwas angelehnt ist: http://wildwildwest.warnerbros.com/cmp/frameset.html bitte ändern, Ihr tut euch und eurer Firma keinen Gefallen damit. (Es sei denn Sie muss für die Nachwelt konserviert werden)

Ach und weil wir gerade in schöner Nostalgie schwelgen:
Eine der ersten Web Search Engines (also der Vater von Google eben):

ALIWEB ( http://www.aliweb.com/ ) hat nicht nur den Touch von 1993 beibehalten (im November 1993 wurde es angekündigt), sondern begeistert ebenfalls mit seinen „ansehnlichen“ Suchergebnissen.

Zudem kann man sich die eigene Seite mal aus den Augen des Googlebots ansehen. Der Bot „sieht“ natürlicherweise nur Text, kann somit Bilder nicht bewerten, was jedoch geht, ist die Alternative Bildbeschreibung, welche man zu jedem Bild hinzufügen sollte.

Wie Google die eigene Seite „sieht“ kann man sich auf http://www.browseo.net/ ansehen.

Featured Content: Du möchtest 100 Google-Ranking-Faktoren als handliches PDF erhalten? Einfach anmelden und gratis euren Bonus erhalten!

Was euch bei unserer SEO Tools Umfrage erwartet…

Wie beim letzten Artikel, hier noch einmal eine kurze Übersicht:

Die Artikelserie ist deshalb untergliedert in 4 Kernbereiche, welche für eine gute Bewertung seitens Google unerlässlich sind und die eigene Positionierung ebenfalls anschaulich darstellen.

Artikel 1: Keyword Research
Artikel 2: Technisches SEO (On-Page etc.)
Artikel 3: Link-Building
Artikel 4: Rank Tracking

Passend hierzu haben wir folgende Fragen gleichermaßen an unsere SEO-Experts gestellt:

Frage 1: „Zuerst war das Ergebnis oder doch das Keyword? Mit welchen Tools unterstützt du deinen Kunden bei der richtigen Keyword-Wahl?“
Frage 2: „Dein Kunde möchte hoch ranken. Welche Tools für das technische SEO wirst du einsetzen und warum?“
Frage 3: „Wenn du mit Link-Building dein Geld verdienen würdest, welche Tools würdest du nutzen und weshalb?“
Frage 4: „Welche Tools helfen dir dabei, die Seite deiner Kunden (oder die Eigene) im Auge zu behalten?“

Wir haben uns ein bisschen mit der OnPage-Optimierung befasst, dem Handwerk auf der eigenen Seite, jetzt sind wir alle gespannt, wie es die Profis machen.

seo tools 2016 umfrage orbnet

Top SEO Tools der Profis (OnPage Optimierung)

Tim Brettschneider

Online-Marketing Consultant
www.tim-brettschneider.com

https://www.screamingfrog.co.uk/ wäre das Tool meiner Wahl, hier bekomme ich schon einen guten Überblick über die wichtigsten Fehler die auftreten und wenn ich es mit Analytics verknüpfe helfen mir die Daten schon sehr dabei Schwachstellen zu filtern und Empfehlungen zu geben.
Vor allem für die Meta-Daten ist das Tool sehr hilfreich, da ich diese gleich exportieren kann und vom Texter anpassen lassen kann.

Für einen kurzen Check der Seite nehme ich immer http://seorch.de/ das zeigt auch für Laien schon die wichtigsten Stolpersteine und was man tun kann um diese zu beheben.

Weiterhin betrachte ich immer noch die Überschriftenstruktur einer Webseite, diese ist oft mangelhaft und wird von vielen falsch umgesetzt.
Dabei hilft mir das Tool https://chrome.google.com/webstore/detail/web-developer/bfbameneiokkgbdmiekhjnmfkcnldhhm mit der
Funktion: Information >> View Document outline“

tim-brettschneider-seo-opt-orbnet

Peer Wandiger

Gründer und Blogger
www.selbstaendig-im-netz.de

2. „Die Onpage-Suchmaschinenoptimierung ist immer wichtiger geworden in den letzten Jahren. Man kann mit einer guten Onpage-Optimierung sehr gute Rankings in Google erzielen.

Tools gibt es dafür wie Sand am Meer (http://www.selbstaendig-im-netz.de/2015/06/30/seo/15-kostenlose-seo-tools-teil-1-onpage-backlinks-keywords-rankings-und-mehr/). Ich nutze Onpage.org regelmäßig, um meine Blogs zu checken und Probleme zu entdecken.

Gut gemacht finde ich auch den Quicksprout Website Analyzer (http://www.quicksprout.com/)

Nicht zuletzt sollte jeder Website-Betreiber die Search Console (ehemals Google Webmaster Tools) nutzen, um auf Probleme auf der eigenen Website von Google hingewiesen zu werden.“

Sebastian Bernhardt

Online Marketing Berater
www.seo-kueche.de

Der Screaming Frog SEO Spider ist ein sehr hilfreiches Programm zum Aufspüren vielerlei Probleme einer Website. Das Programm ist sehr vielschichtig und bietet eine große Menge an Informationen. Hier bedarf es daher einer gewissen Einarbeitung um dieses Tool auch sinnvoll zu nutzen.

Daneben nutze ich sehr gern XOVI, dass mir mit seinem „Onpage“-Bereich einen guten Überblick über die Seite verschafft. Eine Onpage-Analyse ist hier oft einer der ersten Arbeitsschritte. Auch XOVI ist ein Tool mit dem man sich länger auseinandersetzen muss um das Programm im vollen Umfang kennenzulernen. Das Potenzial dieses Tools ist sehr groß.

Was nie fehlt sind natürlich auch die Testing-Tools die Google selbst zur Verfügung stellt. Auch wenn andere Tools die Ergebnisse zum Teil mit abdecken, sollte man diese immer mit den entsprechenden Google-Tools nach- bzw. gegenprüfen. Dazu zählen zum Beispiel der „mobil friendly“-Tester, das Test-Tool für strukturierte Daten und Googles „PageSpeed Insights“.

Das letzte Tool ist für die Google-Optimierung absolut unerlässlich: Mit der Search Console (ehemals Webmastertools) stellt Google ein großartiges Analyse-Tool zur Verfügung, mit dem man unter anderem das Crawling der Seite durch Google überwachen und beeinflussen kann. Ist Bing mit im Boot, sollte man auch hier die angebotenen Webmastertools nutzen.

Trotz aller Tools ist die Analyse des technischen Zustandes einer Website viel Handarbeit, verbunden mit Erfahrungswerten.

Nina Baumann

Linkbuilding-Spezialist
www.linkspiel.de

„Hier nutze ich vornehmlich die Search Console und Screaming-Frog (http://www.screamingfrog.de/).
Beide Tools spucken Rohdaten aus, ohne diese in diverse Metriken zu setzen oder in bunten Grafiken zusammenzufügen. Generell gilt: Jedes Tool ist nur so gut wie der jeweilige Nutzer. Daher: Hirn ist noch immer das Tool Nummer eins! “

Malte Landwehr

Product Marketing Manager
www.searchmetrics.com

Der umfangreichste technische Crawler ist Audisto. Auch OnPage.org und die Seoratio-Tools haben bei mir einen guten Eindruck hinterlassen. Audisto und Seoratio richten sich aber definitiv nur an Vollprofis. OnPage.org ist einsteiger-tauglicher.

Was mir aber bei allen oben genannten Crawlern (auch anderen verbreiteten Lösungen wie ScreamingFrog oder Deepcrawl) fehlt, ist eine konsequente Nutzung von Ranking-Daten um technische Fehler mit echten Traffic-Potentialen zu verbinden. Wir haben dafür die Link Optimization innerhalb der Searchmetrics Plattform. Damit lassen sich spannende Reports erstellen wie, „zeige mir alle URLs, die intern schlecht verlinkt sind aber ein großes Potential für Traffic-Zuwachs haben“. Das Potential ergibt sich dabei aus den bestehenden Rankings (Stichworte: Low Hanging Fruits, Position 11 bis 30, usw.).

Maria Lengemann

Gründerin und Inhaberin
www.diginauten.com

Um das Ranking eines Kunden oder für eigene Internetseiten positiv zu beeinflussen und den „Weg zu ebnen“, sollte vorrangig das eigene Fachwissen stimmen. Wer theoretisch kein Tool benötigt, um praktisch Top-Rankings zu erreichen, hat meiner Erfahrung nach den Stand erreicht, auch für Kunden optimieren zu können.

Um diese Optimierung angenehmer, komfortabler und auch schneller (damit auch effizienter) zu gestalten, kommen bei uns mehrere Tools zum Einsatz. Dazu zählen vorrangig OnPage.org und Sistrix.de. Nicht ohne Grund sind diese (und weitere) Tools als beste SEO- und teilweise auch Content-Tools bekannt – zurecht, wie ich finde. Für Einsteiger bietet gerade Sistrix eine gute Basis, um wertvolles Know-How zu erlangen, aber gleichzeitig auch die Möglichkeit, als Profi auch tiefergehende Analysen durchzuführen.

Für uns stellen die Tools vor allem eine zeitliche Entlastung dar, um zahlreiche Projekte und deren SEO-Stand zeitsparend im Blick zu behalten.

Christian Stephan

Head of SEO
www.eology.de

„Da gibt es eine ganze Reihe guter Tools:

Seoratio-Tools
Vor einer Strukturoptimierung einer Website sollte man sich immer ein Bild von der aktuellen Situation verschaffen. Das Seoratio-Tool bietet hierfür eine ideale Möglichkeit und ist dank der klar strukturierten Auswertung und Visualisierung ein gern genutztes Tool.

Screaming Frog
Zum Crawl verschiedener URLs oder ganzer Listen ein ideales Tool. Hiermit lassen sich Weiterleitungen prüfen, Duplicate Content identifizieren, HTML-Elemente erkennen und viele weitere interessante Sachen testen und überwachen.

OnPage.org
Mit Sicherheit eines der besten Tools im deutschen Sprachraum, zur Onpage-Analyse einer Website. Dank der klaren Struktur und der guten Übersichtlichkeit, erkennt man schnell wesentliche Optimierungspotenziale.

URL- Monitor
URL Monitor ist ein gutes Tool zur Überwachung bereits optimierter Elemente auf der Website sowie technischer Änderungen, welche zu Rankingveränderungen führen können.

Google Search Console
Ein Must-have für jeden Webmaster. Die Sammlung von Statistiken und Werkzeugen ist unerlässlich zur technischen Bewertung einer Domain. Ebenfalls erhält man hier wichtige Informationen, sollte es aus Sicht der Suchmaschine Probleme auf der Website geben. Technische Gesichtspunkte wie Seitenindexierung, Sprachauszeichnung, Duplicate Content usw. lassen sich hiermit erkennen.

Webanalyse-Software
Mit Hilfe einer Webanalyse-Software, lassen sich technische Probleme teilweise gut erkennen. Erhöhte Absprungraten, verändertes Nutzerverhalten, erhöhte Ladezeiten, usw. können ein Indikator für eine tiefgreifende Analyse sein.

Webpagetest.org
Neben der Ladezeitenstatistik wie sie z.B. in verschiedenen Webanalyse-Systemen aufgezeichnet wird, empfiehlt sich zur genauen Bewertung der Ladevorgänge z. B. der Einsatz von Webpageteste.org. Vorteil ist hier die visuelle Darstellung der Zeitaufwände verschiedener Ladevorgänge in einem Wasserfalldiagramm. Zur Erstbewertung ist auch das Google Tool „PageSpeed Insights“ sehr gut geeignet.“

Nicole Mank

Engangierte Vollblut-SEO
www.web-netz.de

„Wir arbeiten für die groben Erstanalysen und auch bei einigen Monitoring-Projekten ausgesprochen gerne mit OnPage.org.

Das Tool bietet zwar sehr umfassende Möglichkeiten, die aber den wachen SEO-Verstand nicht ersetzen. Unsere Aufgabe besteht am Ende darin, die Ursache zu finden und nicht den Fehler selbst. Für schnellere Analysen, zum Beispiel von Statuscodes, greifen wir auch gerne auf den Screaming-Frog zurück.

Mit der Vollversion kann man hier ebenfalls tolle Sachen machen – und zum Prüfen der internen Verlinkung ist es ebenfalls ein nützlicher Helfer!“

Daniel Stender

Leiter Marketing
www.pagerangers.com

„Als kostenloses Tool werfe ich den Screaming Frog ins Rennen. Unter SEOs längst mehr als nur ein Geheimtipp. Wer Webseiten bis 500 URLs beobachtet, hat hier bereits ein umfangreiches und kostenloses Analysetool zur Hand.

Ein Onpage Tool ist jedoch kein Allheilmittel oder Garant für gute Rankings. Mindestens genauso wichtig ist es, ein Verständnis für SEO aufzubauen und einfache Zusammenhänge erkennen zu können. Auch dabei können SEO Tools natürlich unterstützen.“

Andor Palau

Head of SEO
www.andorpalau.de

„Unterschiedliche Aspekte der technischen Optimierung bedürfen unterschiedlicher Tools. Geht es im vorliegenden Fall eher um das Thema Domainstruktur, interne Verlinkungen oder doch Sitespeed?

Wie schon in der vorherigen Frage angesprochen, arbeite ich generell lieber mit mehreren Tools und schaue mir mehrere Daten-Sets an, als mich nur auf eines zu verlassen. Außerdem arbeiten verschiedene Tools auch mit unterschiedlichen Ansätzen und ergänzen sich daher gut. Auf keinen Fall aber möchte ich auf Tools wie Screaming Frog & Deepcrawl (fürs Crawling), SEOratiotools (interne Verlinkung), URL-Profiler (div. Spezialfälle), einen Log-File-Analyser (zur Analyse des Google-Bots) der Wahl und webpagetest.org (Sitespeed) verzichten.

Auch die Search-Console darf nicht fehlen, da ich mir ja auch das Rendering etc. ansehen möchte. Manche Tools benötigt man nur für spezielle Teilanalysen, sie helfen bei der effizienten Suche nach ganz bestimmten Informationen. Andere Tools sind eher dafür geeignet, sich erst einmal einen Überblick über die Gesamtsituation zu verschaffen, und sich dann von da aus tiefer in die Seite einzuarbeiten. Wer gerade erst angefangen hat, sich mit SEO zu beschäftigen und nicht gerade eine Domain mit mehr als 10.000 Seiten hat, der macht sicher keinen Fehler, die Seite einmal mit dem Screaming Frog Tool zu crawlen, und die angezeigten Daten zu interpretieren.

Auch ein Blick in die Google Search Console kann nicht schaden. Hier bekommt man Fehler im Bereich strukturierte Daten oder Crawl-Fehler übersichtlich angezeigt.“

 

Björn Tantau

Autor, Keynote Speaker und Unternehmensberater
bjoerntantau.com

„Auch hier bin ich sicher nicht der typische Suchmaschinenoptimierer.

Wie gesagt, kümmere ich mich hauptsächlich um eigene Projekte und mache hier und da mal ein bisschen Beratung – das aber eher weniger, weil ich mit meinen eigenen Sachen sehr beschäftigt bin. Natürlich weiß ich, dass NUR hochwertiger Content nicht ausreicht. Obwohl… extrem erfolgreiche und starke Brands, die können auch viel Reichweite holen, wenn sie in Sachen SEO keine Hausaufgaben gemacht haben – doch das ist eher die Ausnahme. Auch ich will diese Umfrage ja bereichern, deswegen diese Relativierung.

Der Content ist das wichtigste Element, wenn aber die technische Grundlage in Sachen SEO nicht stimmt, dann wird es eng. Schnelle Ladezeiten, ein leistungsfähiger Server und optimale Strukturen auf technischer und inhaltlicher Basis müssen natürlich sein, wenn eine Website wirklich erfolgreich sein soll. Und da bieten sich natürlich Tools wie Onpage.org oder auch Xovi an. Beide Tools kenne ich und nutzen sie auch von Zeit zu Zeit – das vor allem immer dann, wenn ich Strukturen verbessern und/oder ändern will/muss.

Viel davon geht auch per ScreamingFrog, aber Tools mit optischen Oberflächen wie eben Onpage.org oder Xovi haben da schon große Vorteile und machen das Leben einfacher und komfortabler – außerdem sparen sie Zeit. Zeit, die ich dann zum Beispiel nutzen kann, um wertvolle Inhalte zu produzieren. Und weil das ja mein Hauptfokus ist, sind solche Tools selbstverständlich sinnvoll.“

Ira Simon

Leitung Organic Search
www.albertbauerdigital.com

„Sind passende Keywords ermittelt, müssen wir uns der Website widmen und folgende Fragen klären: Übermittelt die URL zum Thema „Quadrocopter“ das richtige Signal? Ist die Technik „sauber“; sprich: kann der Crawler ungehindert alle relevanten Inhalte auslesen?

Damit wir die neue Herausforderung erfolgreich meistern, sollten wir im ersten Schritt die „Google Search Console“ einrichten – diese wird uns ab da einen guten Dienst erweisen und über verschiedene Mängel informieren.

Wer sich an die umfangreichen Funktionen von Tools wie „ScreamingFrog“ und „OnPage.org“ im ersten Augenblick nicht heran wagt, kann auch kleiner starten und das Browser Add-on „Web Developer“ verwenden. Mit diesem simplen und doch effektiven Werkzeug können verschiedene Relevanz-Träger wie Metadaten, Überschriften, Bildattribute etc. auf ihre Tauglichkeit geprüft werden.

Tipp: Über den Reiter „Tastatur“ in den Einstellungen des Web Developer kannst Du wichtige Analysen, die man immer wieder braucht, mit Short-Cuts ausstatten. Die Dokumentkontur, also Headline-Struktur, liegt bei mir z.B. auf Strg+Umschalt+U nur einen Handgriff entfernt.“

Jens Fauldrath

Geschäftsführender Gesellschafter
get:traction

Die technische Optimierung hat ja nicht zum Ziel zu einer bestimmten Suchanfrage besser gefunden zu werden. Vielmehr geht es darum, die Plattform an sich zu optimieren und optimierte Plattformen ständig im Blick zu haben, damit sich keine Fehler einschleichen.

Auch hier starten wir wieder mit der Google Search Console. Fehler, die einem Google meldet, sollte man beheben. Solange man hier noch Hausaufgaben zu erledigen hat, benötigt man keine weiteren Tools.

Ist man allerdings größer, empfiehlt es sich zusätzlich eine mehrstufiges Monitoring aufzusetzen. Hierzu gibt es diverse Tools, die wir einsetzen:

URL-Monitor
Mit diesem Tool können definierte URLs täglich geprüft werden. Für die Prüfung können diverse Kriterien hinterlegt werden. Wir prüfen beispielsweise, ob implementierte Features vorhanden bleiben. Beispielsweise:

  • Semantische Auszeichnungen
  • Verlinkungsboxen
  • Paginierungen
  • Textboxen
  • Bilder
  • Definierte Formulierungen in Überschriften, Titel und Description
  • Meta-Robots Anweisungen
  • Canonical-Verweise

Nahezu alle überprüften Fälle sind bei dem einen oder anderen Kunden bei diversen Releases abhanden gekommen oder wurden ungeplant geändert. Hier sofort reagieren zu können, ist extrem wichtig.

Onpage.org
Mit onpage.org crawlen wir die Website wöchentlich. Dabei nutzen wir sowohl die Möglichkeit Codesnippets zu hinterlegen und auswerten zu können, als auch die umfangreichen Filterfunktionen. Somit sind wir in der Lage, sowohl den Crawl, als auch die Auswertung der Ergebnisse auf die jeweiligen Websites anzupassen.
Haben wir bei einem Kunden beispielsweise definiert, dass Produktkategorien mit weniger als 5 Produkten nicht indexiert werden sollen, können wir die Einhaltung dieser Regel mit onpage.org sehr einfach überprüfen. Wir sind also in der Lage, selbst komplexe Regeln einer Website zu prüfen.
Bei der Erstüberprüfung einer Website nutzen wir ebenfalls onpage.org, um die typischen Crawlingprobleme, wie interne Verlinkungen auf Weiterleitungen, fehlerhafte Weiterleitungen etc. zu finden. Hierzu sind die Fehlerberichte aus der Google Search Console nicht ausreichend.
Für halbwegs große Seiten geht für mich kein Weg an onpage.org vorbei.

Screamingfrog
Den Frog nutzen wir ebenfalls. Vor allem für ad-hoc Prüfungen, bei kleineren Seiten oder wenn es um die Bewertung eines Deployment eines Teilbereichs einer Website geht.

SEOratio Tools
Wenn es um die Auswertung der internen Verlinkung großer Websites geht, kommen die SEOratio Tools mit ins Spiel. Es ist das einzige Tool, dass bei der Berechnung der internen Verlinkung auch die externe Verlinkung berücksichtigt und vor allem für sehr große und strukturierte Websites die besten Auswertungen liefert.
Wir haben uns mit Tom von den SEOratio-Tools in unserem Podcast lange über das Thema „Optimierung der internen Verlinkung unterhalten, hört doch mal rein!

Felix Beilharz

Berater für Online- und Social Media Marketing
www.felixbeilharz.de

Onpage.org ist da tatsächlich eines der besten Tools, das du haben kannst. Ist für kleine Websiten gratis zu haben. Wer sich etwas mehr reinfuchsen will, ist auch mit Screaming Frog gut bedient. Zum Generieren der idealen Snippets sollte auch ein Snippet Simulator zum Einsatz kommen (ist z.B. in Onpage.org und XOVI integriert, ansonsten gibt es auch verschiedene kostenlose im Netz, z.B. serpsimulator.de)

Felix Meyer

COO
www.seokratie.de

Definitiv würden wir zu allererst einen Blick in die Google Search Console werfen. Hier stammen die Daten direkt von Google: Dadurch sehen wir aus erster Hand, was der Crawler macht, was die Nutzer in die Suche eingeben und ob Probleme auf der Seite bestehen. Außerdem ist ein Crawling-Tool wichtig, wie zum Beispiel OnPage.org, um Fehler auf der Seite und in der Seitenstruktur aufzudecken. Damit finden wir eigentlich immer Seiten, die gar nicht existieren dürften.

Volker Riedel

Kampagnen-Manager
www.krick-interactive.com

Für das technische SEO setzen wir gerne Screaming Frog SEO Spider ein. Screaming Frog SEO Spider ist ein Onpage Tool – empfehlenswert für alle, die Tabellen lieben. Vor allem für kleine Seiten liefert es auch schon in der kostenlosen Version – einfach und übersichtlich – sehr umfangreiche Daten.

Die Ladezeit einer Webseite bestimmt die Usability für den Nutzer und spielt somit eine große Rolle für das Ranking bei Google. Für eine Übersicht über die Ladezeiten nutzen wir Webpagetest.org. Als Ergebnis der Webseiten-Analyse erhält man ein anschauliches Wasserfall-Diagramm, mit dem man genau sehen kann, an welchen Stellen die Seite zu hohe, Benutzer-unfreundliche Ladezeiten hat.

Um eine schnelle, erste Übersicht über die wichtigsten OnPage Faktoren, wie die Meta Description, die Überschriftenhierarchie u.ä. zu erhalten, benutzen wir den Chrome Plugin „Meta SEO Inspector“. Besonders hilfreich ist auch die Anzeige von Nofollow-Links, die hier markiert werden können.

Featured Content: Du möchtest 100 Google-Ranking-Faktoren als handliches PDF erhalten? Einfach anmelden und gratis euren Bonus erhalten!

Fazit

  • Benutze ScreamingFrog 🙂 Dieses Tool ist offenbar super geeignet für die Onpage-Optimierung. Mir persönlich gefällt zwar der „Excel-artige“ Aufbau nicht so, aber wenn die Ergebnisse stimmen, sollte das egal sein.
  • Auch hier: Prüfe ebenfalls mit Google (Search Console) nach! Wenn wir „Google-optimieren“ dann ist logischerweise auch Google die erste Anlaufstelle, um auf Fehler zu prüfen.
  • OnPage-Optimierung ist kein Hexenwerk, eher Hausaufgabe! Eine gut optimierte Webpage als Basis macht den Google-Crawler glücklich = besseres Ranking

Puh geschafft! Ein langer Beitrag neigt sich dem Ende zu.

Hoffentlich habt Ihr nun einen kleinen Einblick in die Onpage Optimierung erhalten und seid gespannt auf unseren nächsten Artikel: „Link-Building

Schmeißt nun ScreamingFrog an  und wir sehen uns wieder zum nächsten Artikel!

Made with 💙 in Augsburg