Wie wichtig ist das CMS für SEO? [Alles auf Start Episode 2]

9. Januar 2020 | Von in Podcast "Search Camp", SEO

Wenn Content King ist: Ist dann auch das CMS (Content Management System) wichtig? Ist es für den späteren SEO-Erfolg wichtig, welches CMS man am Anfang aussucht? In dieser Episode geht es daher um Themen wie „Frontend“ und „Backend“ – und darum, ob WordPress wirklich so gut ist…

 

 

Hinweis: Von unserem Podcast "Alles auf Start" werden leider keine neuen Episoden mehr veröffentlicht (letzte Episode: Dezember 2023). Mehr SEO auf die Ohren? Dann können wir Dir natürlich unseren Podcast Search Camp empfehlen!

 

Shownotes

 

Transcript

Moin, herzlich willkommen zur allerersten richtigen Folge, wenn man so möchte, zur Episode 2 von „Alles auf Start“ – dem SEO-Einsteiger-Podcast speziell für Startups und KMU. Ich habe mir gleich am Anfang ein Thema herausgesucht, was sehr oft gestellt wird gerade von Unternehmen, die jetzt gerade so ihre erste Webseite aufbauen. Und zwar:

Spielt das CMS eine Rolle in Bezug auf SEO?

CMS ist ein Content Management System, da gibt’s verschiedenste, WordPress, Typo3, Drupal, um nur einige ganz, ganz, ganz wenige zu nennen. Gibt’s einen ganzen Stapel von und ist natürlich eine wichtige Sache. Grundsätzlich immer die Unterteilung in Backend und Frontend, das wird heute wichtig in der Folge. Also Backend heißt, das ist quasi das in der Regel passwortgeschützte System, in dem ich meine Inhalte einpflege. Und das Frontend ist dann die Website, die für alle Menschen ersichtlich ist, die daraus generiert wird.

Grundsätzlich kann man ja sagen Content ist extrem wichtig. Google sagt ja immer Content is King. Vollkommen richtig! Und wenn das so ist, dann muss doch eigentlich auch das CMS wichtig sein, oder? Naja, und jetzt kann man eigentlich antworten mit: Ja und Nein. Warum das alles so ist, möchte ich euch heute mal erklären. Eine Kernfrage dabei ist ja eigentlich:

Wo an welcher Stelle könnte eigentlich was schiefgehen?

Also jetzt habe ich ein Frontend und ich habe ein Backend, wo kann eigentlich in Bezug auf SEO was Schlechtes passieren? Da muss man wirklich unterscheiden. Einmal das Backend: Habe ich eigentlich technisch gesehen alle Möglichkeiten, die für SEO relevanten Elemente einer Website zu verändern? Ich erkläre euch gleich, was die wichtigen Elemente sind. Und es kann natürlich wie gesagt sein, wenn mein CMS das vielleicht nicht unterstützt, dann habe ich halt einen Nachteil. Und im Frontend kann eben auch einiges schiefgehen. Da kann es eben sein, dass zum Beispiel ich total tolle Inhalte habe, aber sie werden einfach nicht optimal für Suchmaschinen ausgespielt. Das wäre auch schade.

Prinzipiell muss man natürlich sagen, sind Frontend und Backend getrennte Themen. In der Praxis haben sie natürlich eine hohe Überschneidung, das ist klar. Und trotzdem: Ich kann ein optimales Backend haben und im Frontend alles vermurksen. Deswegen muss man sich eben trotzdem immer mit beiden Sachen beschäftigen.

Teil 1: Ich fange mal mit dem Frontend an. Was kann da eigentlich schiefgehen?

Also nochmal, ich habe total tolle Inhalte erstellt, wo könnte Google jetzt damit ein Problem kriegen? Gibt es natürlich verschiedene Möglichkeiten, aber erstmal ist die ganz große Frage: Kann Google die Website eigentlich optimal indexieren? Also sind die Inhalte für Suchmaschinen verständlich abgebildet? Jetzt mache ich SEO und Web schon ein bisschen länger, SEO seit 2001, Web seit 1994.

Früher gab es so ein paar Möglichkeiten, die kennt ihr wahrscheinlich heute alle gar nicht mehr, Framesets zum Beispiel. Da hat man so eine Webseite in Bereiche wie ein Menü und ein Footer unterteilt und das über sogenannte Framesets geregelt. War in Bezug auf SEO eigentlich eine Totalkatastrophe, war auch eigentlich nie eine gute Idee das überhaupt zu machen losgelöst von SEO. Aber egal, hat man früher gemacht. Gibt’s heute nicht mehr. Also Browser können das noch, aber ich kenne faktisch keine Website, die es noch nutzt.

Ein anderes Thema war Flash. Manche haben Websites über Flash aufgebaut. Muss man auch sagen, das war dann auch ein bisschen Exodus. Und es gab noch ein paar andere Baustellen, so URL-Parameter Listen und all sowas, also das waren aber Sachen, die gibt es eigentlich heute faktisch nicht mehr.

Das heißt: Gerade wenn ich mir jetzt ein System von der Stange hole, muss man sagen, in der Regel ist da einfach schon sehr viel SEO-freundlich mit drin. Aber es gibt heutzutage trotzdem noch einen Problembereich, den man sehen muss, und zwar das ist jetzt der Wechsel hin zu JavaScript, also eine Programmiersprache. Da gibt es die sogenannten Single Page Applications, das heißt, so eine Website wird jetzt heute einfach anders programmiert. Dann ist die Frage: Wie kann Google eigentlich damit umgehen? Das ist durchaus nicht komplett problemlos, es gibt Wege drumherum, die sind technisch relativ aufwendig und vor allem für kleine Unternehmen ist das einfach jetzt nicht so ein wahnsinnig guter Weg. Und deswegen muss man, gerade, wenn man jetzt sagt, hey, ich will jetzt sowas machen, sowas Neumodisches, mit ganz viel JavaScript oder auch eine PWA, eine Progressive Web App, ja, kann man alles machen, aber da muss man eben sehr, sehr kritisch sein.

Und da ist es manchmal oder in der Regel wahrscheinlich ist es der bessere Weg, einfach ein bisschen vielleicht nicht den neuesten heißen Scheiß zu machen, sondern eher auf Standards zu zielen und eben nicht JavaScript-lastige Websites aufzubauen.

Vielleicht an der Stelle ein kurzer Hinweis. Wir reden jetzt immer sehr viel über HTML übrigens, also das ist ja so die Programmiersprache für Websites oder für Webseiten in diesem Fall. Google kann aber viel mehr indexieren. Google kann zum Beispiel auch PDF-Dateien indexieren. Und gerade so viele Verlage haben damit ein Problem, sie haben viele Inhalte ins Netz gestellt und PDF-Dateien werden eben auch indexiert ist. Ist ein ganz eigenes Problem, möchte ich heute auch nicht so drauf eingehen. Mache ich vielleicht mal eine eigene Folge dazu. Mobil vor allem ist PDF einfach ein absoluter Horror und deswegen würde ich das nicht machen.

Also Zusammenfassung: JavaScript kann euch einen Strich durch die Rechnung machen, kann dazu führen, dass eine Website schlecht von Google ausgelesen werden kann. Ich sage euch gleich, wie ihr das prüfen könntet, aber noch besser wäre es, es gleich zu vermeiden.

Das andere Thema: Wie kommt Google eigentlich an die Inhalte eurer Website heran?

Eine Website besteht ja in der Regel nicht aus einer Seite, sondern, weiß nicht, aus hunderten, aus tausenden. Ihr habt zum Beispiel Lösungs-Seiten Produkt-Seiten, ein Impressum, und all diese einzelnen Seiten werden von Google gecrawlt, das heißt, sie laden sie einmal herunter, und dann in den Index gepackt, wenn alles gut läuft. Dieses Crawlen, das funktioniert eigentlich über Links. Das heißt, Google geht zuerst auf eure Startseite, sieht vielleicht, oh, da ist ja ein Link auf eine Unterseite, die habe ich noch nie besucht, dann besuche ich die jetzt. Also dann laden sie die runter, finden da vielleicht wieder neue Links und so weiter, es geht alles in die Tiefe.

Das heißt: Grundvoraussetzung Nummer 1: Alle Inhalte müssen erstmal über normale Links erreichbar sein.

Und das andere ist, es gibt den Begriff der Klicktiefe. Klicktiefe heißt: Wie viele Klicks brauche ich eigentlich minimal, um von der Startseite aus auf eine ganz bestimmte Seite zu kommen? Und da sagt man, es gibt da keine harte Grenze, aber die sollte überschaubar sein, also ich sag mal: An zwei Händen abzählbar, idealerweise sogar noch, dass es nur eine Hand ist. Klingt erstmal nach keinem Problem, ist es aber häufig schon auf großen Websites. Gerade, wenn ihr jetzt einen großen Shop aufbaut oder ein großes Portal, dann ist das wirklich eine Frage: Also kommt Google über Links und einem geringen Klickpfad, einem kurzen Klickpfad an alle Inhalte ran?

Ein sehr schönes Beispiel hier ist zum Beispiel Infinite Scrolling, das nutzen viele Websites. Auch, wenn euch der Begriff vielleicht nichts sagt, ihr habt es schon gesehen. Ihr geht auf eine Kategorie-Seite zum Beispiel in einem Shop, euch werden 10 Produkte angezeigt, und wenn ihr am Ende angekommen seid, lädt er einfach 10 neue oder 10 weitere Produkte nach. Und wenn du dann wieder am Ende angekommen bist, werden wieder 10 weitere nachgeladen, so es denn so viele gibt. Jetzt muss man einmal sagen, Google scrollt leider nicht. Stimmt so nicht ganz, aber vereinfacht ausgedrückt, Google scrollt nicht nach unten, so dass 10 weitere nachgeladen werden, sondern Google wird einfach nur 10 Produkte sehen, obwohl auf der Seite vielleicht potenziell 30 drauf sind. Auch dafür gibt es Lösungen, Paginierung heißt das dann, Komponenten-Seiten. Das ist nochmal, wie gesagt, bei vielen Websites, so gerade, wenn sie groß sind, wenn es eine hohe Menge an Seiten gibt, an Inhalten, dann ist das in der Regel ein Problem.

brigens auch, wenn man sich so ein klassisches Blogsystem wie WordPress anguckt, von dem ja viele sagen, ist ja total SEO-freundlich, vielleicht ist es das sogar, aber da passiert eine Sache, wenn du auf die Startseite des Blogs gehst, werden jetzt zum Beispiel 10 Beiträge angezeigt, in der Regel die 10 neuesten. Soweit so gut. Und dann klickst du unten auf „nächste Beiträge“, kommst du auf eine Seite, da werden dir wieder 10 angezeigt, klickst wieder auf „nächste Beiträge“, dann kriegst du nochmal 10 weitere. Auch da ist es manchmal so, dass du einfach sehr oft auf „nächste Beiträge“ klicken musst, um an alle Beiträge dran zu kommen, und auch das kann wieder zu einer sehr hohen Klicktiefe führen.

So, jetzt für alle diese Probleme: Wie kann man das eigentlich alles prüfen? Die SEOs haben da ihre Crawler. Gibt’s verschiedene Tools für, der, ich weiß nicht, ob es der Marktführer ist, aber unter SEOs ein sehr beliebtes Tool ist das Screaming Frog SEO Spider, der leider kostenpflichtig ist. Es gibt ihn aber auch in einer kostenlosen Version, wo man zumindest 500 Seiten mit crawlen kann.

Es gibt auch ein kostenloses Tool, das ist der Site Analyzer, ich packe euch das gerne in die Shownotes mit rein, dann könnt ihr euch den einfach mal kostenlos herunterladen und damit rumspielen. Was macht das Tool? Das macht eigentlich genau das Gleiche wie Google, es crawlt eure Website. Es fängt auf der Startseite an, folgt dann allen Links in die Tiefe und ihr könnt euch halt die Klicktiefe angucken und könnt dann sagen: Okay, habe ich vielleicht Inhalte, die eine Klicktiefe von 10, 11, 20, 30 haben? Ja, eben eine Sache, die eigentlich so nicht sein sollte.

Die Frage, ob Google an alle Inhalte herankommt, ist deutlich schwieriger zu beantworten. Da muss man dann die Website mit sogenannten XML-Sitemaps abgleichen. Das kann dann wirklich eher ein Screaming Frog SEO Spider, also ein kostenpflichtiges Tool und nicht so sehr das kostenlose Tool. Das ist leider schade. Aber nochmal, das wäre eine Sache, mit der man relativ einfach prüfen kann, wenn man weiß wie so ein Tool funktioniert, ob Google auch wirklich an alle Inhalte meiner Website herankommt. Und übrigens kann man das auch über so eine JavaScript Website mal rennen lassen und kann halt gucken, was erkennst du denn da so an Seiten? Auch das ist eigentlich immer ein guter Check. Gerade wenn man jetzt die Website brandneu geliefert bekommen hat, einfach mal drüber laufen lassen.

Kommen wir zum 2. Teil: das Thema Backend.

Denn auch da kann man natürlich, habe ich eben schon gesagt, auch Fehler machen, wobei Fehler in der Regel eher heißt, dass ich ein bestimmtes Potential nicht ausnutze. Ist jetzt nicht klassisch gesehen ein Fehler, aber es kann eben trotzdem schädlich sein.

ine Frage ist eben: Kann ich alle Elemente einer Seite optimal pflegen? Was würde da so dazugehören?

Vor allem erstmal Seitentitel und Meta Description, denn diese beiden Elemente bestimmen, wie ihr in den Suchergebnissen erscheint. Kann man sagen, interessiert doch eigentlich nicht, die Leute sollen halt draufklicken. Ja, aber die Leute lesen leider und leider habt ihr eben in der Regel 9 andere Suchergebnisse um euch drum herum, das heißt, ihr müsst in den Suchergebnissen optimal ausspielen, wer ihr eigentlich seid und warum ich gerade auf euch draufklicken soll. Und das könnte ihr eben mit Seitentitel und Meta Description optimal beeinflussen.

Ihr solltet in der Lage sein auch eine sogenannte H1 zu setzen, also eine Hauptüberschrift. Von der sollte es auch genau eine geben. Idealerweise habt ihr, wenn ihr gerade längeren Content habt, auch noch Zwischenüberschriften H2, H3, H4, bis H6 gibt es.

Ihr habt vielleicht auch alle Möglichkeiten der Textformatierung zu nutzen. Das sind zum Beispiel Listen, nummerierte, unnummerierte Listen, Fettung, all sowas.

Und natürlich auch das Thema Bilder, das ist wirklich nicht unwichtig. Dass ihr zum Beispiel die Bild-URL beeinflussen könnt. Also heißt das Bild „dscn3149“, das ist eher schlecht, oder heißt es einfach „wandern-spanien.jpg“, was deutlich besser wäre? Könnt ihr ein sogenanntes Alt-Attribut setzen, also das Bild beschreiben, könnt ihr eine Bildunterschrift drunter setzen? All das kann eben wichtig sein, um Google mehr Informationen über das Bild zu liefern und so in der Bildersuche optimal ausgespielt zu werden.

Und natürlich das Thema, dass ihr den Content pflegen könnt, das unterstelle ich jetzt mal dem System sowieso.

Dann gibt’s halt noch so die Frage nach technischen Finessen, zum Beispiel: Könnt ihr die URL da oben beeinflussen? Also die URL so wie „/kategorien/tipps/100-tipps-für-alleinerziehende-mütter.html“. Das, was da oben in dem Pfad drinsteht, das kann man in vielen Systemen halt beeinflussen auf Seitenebene. Und es ist nicht verkehrt zum Beispiel Füllwörter herauszunehmen.

Ein anderes Thema kann Markup sein, das sind sogenannte strukturierte Daten. Das sind so Markierungen im HTML-Code, mit dem ihr eure Informationen für Google optimal bereitstellen könnt. Das heißt, Google weiß auf einmal, was auf der Seite drauf ist. Zum Beispiel, das ist eine Produktseite, das ist ein Event-Seite, das ist ein Blogbeitrag, all das kann ich im HTML-Code hinterlegen und das kann mir zum Beispiel wirklich optische Vorteile bringen. Manchmal kriegt man zum Beispiel, wenn auf einer Seite Bewertungen drauf sind, kriegt man Sternchen ausgeliefert in den Suchergebnissen, ein sogenanntes Rich Result. Und das bringt zum Beispiel einfach eine höhere Klickrate. Ich habe nicht ein besseres Ranking, aber ich kriege einfach mehr Klicks ab. Und das ist natürlich auch schon was wert.

Die Frage auch: Kann das System XML-Sitemaps generieren? Das sind Dateien, in denen alle URLs eurer Website genannt werden. Das kann man dann an Google übermitteln, an die Google Search Console, das erkläre ich euch in einer der nächsten Folgen übrigens. Aber es ist halt wichtig, dass das System das generieren kann.

Könnt ihr zum Beispiel für manche Seiten Robots Metatags ausspielen? Auch das kann man brauchen, zum Beispiel, um eine Seite auf noindex zu setzen, das heißt, wenn man möchte, dass ganz bestimmte Seiten, die vielleicht minderwertig sind, nicht im Index erscheinen, dann kann man sie einfach ausschalten. Das heißt, der Nutzer kommt auf die Seite drauf, alles gut, aber Google ignoriert diese Seite dann einfach, was in diesem Fall auch gut ist.

hreflang ist auch ein weiteres technisches Thema. hreflang braucht man, wenn man eine internationale Website hat, dann ist es sehr hilfreich. Damit kann man eben gegenüber Google abbilden, das ist hier eine deutsche Seite, das ist die englische. Das ist zwar eine deutsche Seite, aber die ist für Österreich und diese hier ist für Deutschland. Und das kann ich alles über hreflang abbilden. Das muss einfach das System hergeben. Das heißt, gerade wenn ihr eine internationale Website habt, braucht ihr hreflang.

Könnt ihr Umleitungen pflegen? Das heißt, wenn sich zum Beispiel URLs ändern bei euch auf der Website, ein Produkt gibt’s nicht mehr oder irgendeine Lösung gibt’s nicht mehr, dann wäre es trotzdem gut diese URL umzuleiten. Da ist es halt sinnvoll, dass das CMS das kann.

Es gibt noch viel mehr technische Themen, zum Beispiel so Linkattribute wie nofollow, um ganz bestimmte Links für Google zu entwerten.

Oder auch AMP, das sind so ganz schnelle optimierte Seiten. Das ist dann schon wirklich so die hohe Kunst der Sache.

Und vielleicht auch eine Frage, das hat jetzt nichts mehr mit SEO zu tun, aber es gibt auch so Social Media Tags, sowas wie Open Graph. Das heißt, wenn jemand eure Seite auf Facebook teilt, was zieht sich Google, was zieht sich Facebook dann eigentlich als Beschreibung? Und das könnt ihr auch alles im HTML-Code hinterlegen. Muss man sich halt einfach nur mal drum kümmern.

All das sind so technische Finessen, die bringen halt in der Regel einen Bonus, keinen Malus, aber wenn ich sie habe, kann ich halt zum Beispiel eine höhere Klickrate bekommen. Oder mit hreflang, mit diesen internationalen Tags, dass der Nutzer auf jeden Fall international gesehen auf der für ihn optimalen Seite landet. Und nicht, dass jemand, der in Österreich sucht, auf der Seite für Deutschland landet. Das kann ich damit alles abbilden.

So, das waren jetzt viele Infos für euch. Und jetzt? Was machen wir jetzt damit? Naja, insgesamt möchte ich vielleicht noch ein bisschen Druck aus dem Kessel rausnehmen. Also, wenn du jetzt losrennst, du gehst zu irgendeiner Webdesign-Bude deiner Wahl und sagst so, hey, ich will eine Website haben, die Chance, ein SEO-untaugliches System zu erhalten, ist heutzutage gering. Gering heißt aber nicht unmöglich. Absolut nicht. Das heißt, wenn du eine Website erstellen lässt, wäre es eigentlich besser, wenn du der Agentur ganz bestimmte Sachen in das Pflichtenheft reinschreibst. Und dann musst du sie natürlich später auch prüfen, aber das ist ein anderes Ding.

Also Minimalstandard Nummer 1: Kannst du alle relevanten Seitenelemente pflegen? Das sind Seitentitel, Meta Description, Hauptüberschrift (H1), Zwischenüberschriften (H2 bis H6). Bei Bildern vor allem das Alt-Attribut. Bei Text alle Arten der Formatierung. Und den URL-Pfad.

2. Anforderung: Sind alle internen Seiten über normale Links mit Klicktiefe kleiner 6, kleiner 7, erreichbar?

Und auch noch Minimalstandard: Werden XML-Sitemaps generiert? Wenn du das mitgibst an die Agentur, muss man ganz ehrlich sagen, hast du die absolut hohe Chance, dass du ein gutes System erstmal rauskriegst und damit nicht auf die Nase fällst. Das wollen wir natürlich vermeiden. Es kommt an dieser Stelle dann häufig in Seminaren oder auch, ich gebe auch viele Vorträge und dann kommt oft so eine Frage:

Hey, meine Website nutzt WordPress, wie gut ist eigentlich WordPress?

Ist WordPress besser als Typo3? Ist WordPress besser als Drupal? Muss man sagen: Nee, eigentlich nicht. Also das ist so wie bei Autos, also ich finde jetzt einen Golf nicht besser oder schlechter als einen Lamborghini, es ist halt die, was du damit machen möchtest. Grundsätzlich kann man sagen, nochmal, die meisten Systeme erzeugen eine absolut brauchbare Website.

Der Vorteil von WordPress ist aber trotzdem, oder eigentlich gibt’s zwei Vorteile, also ein Vorteil ist natürlich, dass sich sehr viele Leute damit auskennen, sowohl auf Agenturseite als auch auf Nutzerseite. Das heißt, viele Redakteure kommen da auch mit zurecht und das ist eigentlich ein Win-Win.

Der wirkliche Vorteil von WordPress ist aber, es gibt wahnsinnig viele Plugins. Das heißt, viele von diesen Anforderungen, die ich euch eben genannt habe, sowas wie, werden XML-Sitemaps generiert oder hreflang oder sowas, oder auch Markup-Themen, die muss ich jetzt gar nicht aufwendig und teuer programmieren lassen, sondern dafür kann ich mir einfach ein Plugin runterladen.

Das ist natürlich ein relativer Wildwuchs in diesem System, also über 50.000 Plugins gibt’s locker, aber ja, so rein theoretisch kannst du über Plugins erstmal alles abbilden. Und das senkt natürlich gerade, wenn du jetzt einen erfahrenen Entwickler hast, senkt es natürlich die Kosten für die Erstellung der Website enorm. Das heißt, wenn vieles von dem einfach erstmal in einem anderen System vielleicht nachprogrammiert werden muss, in WordPress hast du es einfach in der Regel. Wobei auch hier wieder Einschränkung: Auch für andere CMS gibt es eben auch ganz viele Plugins oder Module, wie auch immer das dann da heißt.

Das heißt, auch da muss man eigentlich immer erst sehr genau hingucken: Was will ich eigentlich, was brauche ich eigentlich unbedingt, um dann halt zu schauen: Kann das System das?

Wenn ihr WordPress nutzt: Es gibt ein Standard-Plugin, muss man wirklich sagen, das ist Yoast, Yoast SEO. Das kann erstmal wahnsinnig viel von diesen Standardanforderungen. Das heißt, wenn ihr euch ein WordPress installiert und ein Yoast und das einmal ordentlich durchkonfiguriert, habt ihr eigentlich ich sag mal schon wahnsinnig viel richtiggemacht, muss man ganz ehrlich sagen.

Eine Sache möchte ich noch sagen, das ist so ein bisschen so meine Nemesis oder etwas, was mir sehr am Herzen liegt. Viele da draußen setzen den Fokus auf Technik, sie sagen, nee, ich brauche hier dieses Markup und das hier will ich noch und das muss ich noch können und das, und dann brauche ich noch dieses Plugin, damit ich das und das machen kann. In der Regel muss man ganz ehrlich sagen:

Content schlägt Technik.

Das heißt, es ist viel wichtiger, dass ihr den perfekten Content generiert, also mit Seitentitel, Meta Description, Hauptüberschrift, geilen Content, hochwertige Bilder da drin, das ist viel wichtiger als stundenlang oder wochenlang über irgendeinen technischen Aspekt nachzudenken. Die Minimalstandards, die ich eben genannt habe, die gelten, die sind auch unverrückbar, aber trotzdem, vieles von dem, was da draußen gemacht wird, wo man jetzt über den letzten Grad der Optimierung noch nachdenkt, und ich hatte gerade letztens bei einer Veranstaltung auch wieder jemand, der fragte auch was extrem Technisches, was ihm vielleicht 0,1 Prozent Vorteil bringt, aber seine Website war noch Kraut und Rüben.

Die meisten Leute da draußen beschäftigen sich mit den total falschen Sachen, weil halt auch viele SEO Tools anfangen zu meckern und sagen: Hey, du hast das nicht gemacht und du hast das nicht gemacht und das nicht. Das meiste, was Technik ist, ist wirklich Bonus. Content ist wirklich Eingangsvoraussetzung dafür, dass ihr geile Rankings macht.

Mit Technik könnt ihr noch ein bisschen was obendrauf setzen, aber das eine nochmal ist die Voraussetzung für das andere. Das heißt, nur Technik wird nicht funktionieren. Also denkt über Content nach, guckt nach, kennt ihr eure relevanten Suchbegriffe. Und vor allem, habt ihr für alle diese Themen den besten Inhalt? Das ist SEO. Und das ist wirklich auch das, womit ihr euch sehr exzessiv beschäftigen müsst.

The following two tabs change content below.
Avatar-Foto

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

5 Kommentare zu “Wie wichtig ist das CMS für SEO? [Alles auf Start Episode 2]”

  1. Avatar-Foto Peter

    Ich finde den Podcast echt klasse. Sehr informativ und locker gesprochen. Ich habe viel Wissenswertes mitgenommen und werde künftige Podcast nicht verpassen.

  2. Avatar-Foto Markus Hövener

    Das freut mich. Danke fürs Feedback…

  3. Avatar-Foto Klaus

    Schade, der Podcast bricht bei Minute 8:30 ab

  4. Avatar-Foto Markus Hövener

    Nicht bei mir. Beim Abspielen oder beim Download? Ich habe mir die MP3-Datei nochmal angeschaut. Da ist alles prima…?

  5. Avatar-Foto Ulrich Lintl

    Exzellente Zusammenfassung, was bei der technischen Gestaltung einer Webseite wichtig ist, mit Augenmaß, aber auch über den reinen Tellerrand von SEO hinaus. Großes Lob.
    Auch meine Erfahrung ist, dass man Webseiten primär nicht für Maschinen, sondern für Menschen optimieren sollte und Content dafür die wichtigste Maßnahme ist. Einige Hausaufgabe zu machen ist aber schon sehr wichtig.

Kommentieren