Suchmaschinen stellen Regeln auf, wie die Inhalte einer Seite optimal im Web gefunden werden. Doch worauf kommt es eigentlich an – und wie findet man heraus, welche Baustellen die eigene Webseite hat? Matthias Hotz von SEORCH hat meine Fragen beantwortet.
Die Idee hatte ich bei meinem ehemaligen Arbeitgeber (1&1). Dort war ich als Frontend Architekt beschäftigt und ein Kollege von mir hatte eine Firefox-Extension (SenSEO) gebaut. Da ich eher Chrome-Nutzer bin und fand man sollte das nicht nur für einen bestimmten Browser anbieten habe ich SEORCH programmiert. Im Grunde brauchst du ein ganz gutes Verständnis von technischem SEO, dann solltest du Websites entwickeln und auch programmieren können. Also SEO, Frontend und Backend 😉
Ich persönlich verwende immer nur die mit dem Artikelnamen in der URL. Wenn ich ein Newsblog hätte, würde ich ggf. noch Jahr und Monat hinzufügen. Auf keinen Fall verwende ich URL-Parameter. Warum? Ein User sollte anhand der URL sofort und ohne Hürden auf den Inhalt des Artikels schließen können. Also gut lesbare und sprechende URLs sind wünschenswert.
Wenn die Seite technisch keine Fehler hat und crawlbar ist ganz klar Geschwindigkeit. Je schneller deine Seite ist, desto mehr crawlt Google und desto öfter kommt der Bot vorbei. Oder andersrum: Wieso sollte dir Google User senden, wenn dein Server kurz vorm Limit ist.
Wenn alle deine Seiten (also die physisch vorhandenen Seiten) im Google Index sind, und dir die Search-Console das bestätigt, dann brauchst du keine Sitemap. Google hat sie ja alle gefunden. Eine Sitemap brauchst du nur, wenn Google durch das Crawling (folgen von Links) nicht alle deine Seiten findet. Aber dann solltest du auch mal prüfen warum das so ist.
Ich habe bisher fast nur für Google optimiert, Bing funktioniert denke ich ähnlich. Zu anderen Suchmaschinen kann ich keine Aussage treffen.
Für das reine Ranking ist es nicht sehr relevant. Allerdings bekommen deine SERPs mehr Aufmerksamkeit bzw. auch mehr Platz bei Google eingeräumt wenn du strukturierte Daten verwendest. Stichwort Bewertungen, Preise, Öffnungszeiten, Breadcrumbs. Das steigert die CTR und du hast mehr Besucher.
Du siehst ja in der Search-Console wie oft der Bot vorbei kommt und wieviele Seiten er crawlt. Wenn das passt musst du nichts machen. Wenn du es ggf. beschleunigen willst würde ich eine komplett neue XML Sitemap einreichen und das Crawlen und Indexieren der Seiten so triggern.
Du meinst den Domainnamen? Grundsätzlich schön wenn das Hauptkeyword in der Domain vorkommt, aber auch kein Beinbruch wenn nicht. Der Faktor mag helfen ist aber nicht ausschlaggebend.
Optimieren kannst du auf sehr viele Keywords. Kommt aber auf den Themenbereich an und wie stark der Wettbewerb hier ist. Je stärker der Wettbewerb umso mehr Seiten mit gutem Inhalt brauchst du. Pauschal (und stark vereinfacht) kannst du mit einer Seite pro Hauptkeyword kalkulieren, da kann man dann sicher auch noch 5-10 Longtail Keywords mit draufnehmen. Also je umfangreicher deine Website ist desto mehr geht. Das hat nichts mit Blog, Shop etc. zu tun, sondern einfach mit der Anzahl deiner Seiten.
Ja würde ich so machen … Ein Zeitungsartikel beginnt ja auch nicht mit der vierten Unterüberschrift und nach 500 Wörtern kommt dann die Hauptüberschrift, oder? 😉
Ein Drittel Technik (Page Speed, crawlability, saubere Seitenstruktur usw.). Ein Drittel Content (und ich meine guten Content). Und wenn es in Wettbewerbsintensive Bereiche geht auch noch ein Drittel Backlinks von guten Seiten.
Nein also ich habe keine, wäre ich aber ein Google-Entwickler würde ich Wikipedia-Backlinks hoch im Algorithmus bewerten. Gründe sind in erster Linie das die Wikipedia kuratiert ist und stark gegen Spam vorgeht.
Ich würde sagen für das reine Ranking sind sie unwichtig bzw. werden nicht bewertet. Können aber auf der anderen Seite User bringen.
Wenn deine Website stark in Twitter geteilt wird: JA. Du kannst damit die Darstellung in Twitter beeinflussen und somit die CTR steigern.
Für mich ist das schlicht notwendig. Einerseits gibt es sehbehinderte Menschen die ggf. wissen wollen was auf dem Bild dargestellt ist außerdem kann man jedem Webcrawler eine Info geben was auf dem Bild zu sehen ist und am Ende gibts noch einen Bonus von Google wenn die ALT Tags sauber gepflegt sind.
Jede Seite sollte eine eigene MD haben, etwa 150 – 160 Zeichen. Sie sollte den Inhalt der Seite zusammenfassen und im Idealfall zum klicken animieren da Sie in den Google Snippets dargestellt wird. Je kreativer man da wird desto besser.
Nein 😉 Das ist quasi eine Formel, die Satzlänge und Silbenanzahl in Relation setzt – siehe auch hier: Lesbarkeitsindex
Also wenn du alles an SEO Maßnahmen gemacht hast und dir absolut nichts mehr einfällt kannst du anfangen die Title Attribute zu pflegen. Der Einfluss wird verschwindend gering sein 😉
Grundsätzlich ein spannendes Thema! Auch wenn ich nur die Hälfte verstanden habe. 🙂
Hey Mathias,
das ist absolut OK. Wie letztlich überall muss man sich für ein Thema erstmal interessieren und dann einlesen. Mit der Zeit lichtet sich dann der Nebel. 🙂