Kosten für die Opti­mierung
einer Homepage

Kosten für die Opti­mierung
einer Homepage

Kosten für die
Opti­mierung einer
Homepage

SEO zu unschlag­baren Preisen

Was kostet eine pro­fes­sio­nelle
Such­ma­schi­nen­op­ti­mierung?

Was kostet
Such­ma­schi­nen­op­ti­mierung?

Was kostet
Such­ma­schinen-
opti­mierung?

Die Kosten für eine pro­fes­sio­nelle Such­ma­schi­nen­op­ti­mierung zu beziffern, ohne den Aufwand zu kennen, ist schwer möglich und wäre unseriös. Die Frage ist hier auch, ob eine neue Homepage zu erstellen ist oder ob es sich lediglich um die Opti­mierung einer bestehenden Homepage handelt.

Um hier über­haupt einen Preis kal­ku­lieren zu können, muss man natürlich wissen, wie viele Unter­seiten die Homepage hat, denn eine Such­ma­schi­nen­op­ti­mierung erfolgt nicht nur in der Start­seite, sondern in jeder ein­zelnen Unter­seite.


WEBJOKER bietet SEO zu Fest­preisen


Um böse Über­ra­schungen zu ver­meiden, macht es Sinn, mit der Inter­net­agentur, die mit der Such­ma­schi­nen­op­ti­mierung beauf­trtagt werden soll, einen Fest­preis zu ver­ein­baren. Hier sollten die Kosten schon vorher für Sie als Unter­nehmer fest­stehen, damit nicht im Nach­hinein weitere nicht uner­heb­liche Kosten auf Sie zukommen, die bei dem Angebot ver­gessen wurden. So sollte klar ver­einbart sein, wie viele Unter­seiten zu bear­beiten bzw. zu opti­mieren sind. Wenn Sie das selbst nicht genau wissen, was nicht unge­wöhnlich wäre, fragen Sie den Auf­trag­nehmer danach. Über Tools kann man schnell fest­stellen, wie viele Seiten eine Homepage in Google ange­meldet hat.

Kos­ten­über­sicht für die Erstellung
und Opti­mierung ein­zelner Orte

Kos­ten­über­sicht
für die Erstellung
und Opti­mierung
ein­zelner Orte

Regio I

50 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 50 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 199,- monatlich
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio III

500 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 500 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 399,- monatlich
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio II

200 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 200 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 299,- monatlich 
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio IV

Unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 99% aller Orte im Bun­desland vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 499,- monatlich 
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio I

50 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 50 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 199,- monatlich
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio II

200 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 200 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 299,- monatlich 
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio III

500 unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 500 Orten des Umkreises vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 399,- monatlich
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –

Regio IV

Unab­hängige regionale Unter­seiten auf einer Sub­domain oder Haupt­seite mit Kon­takt­seite in 99% aller Orte im Bun­desland vom Auf­trag­geber, opti­miert auf 5-8 Such­be­griffe aus 1 Gewerk


EUR 499,- monatlich 
zzgl. der gesetz­lichen MwSt.
 – keine wei­teren Kosten –


Werden neue Texte bei der
Opti­mierung benötigt oder
sind gute Inhalte vor­handen?



Werden neue Texte
bei der Opti­mierung
benötigt oder sind gute Inhalte vor­handen?



Werden neue Texte bei
der Opti­mierung benötigt
oder sind gute Inhalte
vor­handen?


Hier ist der Rat des Such­ma­schi­nen­op­ti­mierer gefragt, den Sie beauf­tragen wollen. Er muss kom­petent beur­teilen können, ob die bis jetzt ver­wen­deten Texte gut für die Such­ma­schine sind oder ob neue Inhalte in die Homepage müssen. Hier kann man sich Unter­nehmen bedienen, die pro­fes­sio­nelle Texte erstellen. Meist erfolgt die Abrechnung nach Worten. Diese Kosten sind bei der Preis­er­mittlung für eine gute Such­ma­schi­nen­op­ti­mierung unbe­dingt zu berück­sich­tigen, denn ohne gute Inhalte wird man auch nicht den gewünschten Erfolg erzielen.

– Ihr Vorteil – Die Kosten für neue Texte über­nimmt eben­falls WEBJOKER.


Meist wird Such­ma­schinen-
opti­mierung per Stun­densatz
abge­rechnet



Meist wird Such-
maschi­nen­op­ti­mierung
per Stun­densatz
abge­rechnet



Meist wird Such-
maschi­nen­op­ti­mierung
per Stun­densatz
abge­rechnet


Preis­listen für Such­ma­schi­nen­op­ti­mierung sucht man im Internet ver­geblich, denn keine Inter­net­agentur kann hier einfach mal schreiben – Das kostet Sie so und so viel. SEO-Pro­gram­mierer haben aber keine geringen Stun­den­sätze, da Such­ma­schi­nen­op­ti­mierung etwas mit Grips zu tun hat, den man erst einmal akti­vieren muss. Logische Zusam­men­hänge müssen erkannt werden, um die Inhalte einer Web­seite sinnvoll zu struk­tu­rieren und auch noch in eine lesbare Form für Such­ma­schinen wie Google zu bringen. Hier muss eine absolute Logik ange­wandt sein, um dem Kunden zufrie­den­stel­lende Ergeb­nisse liefern zu können.


Was ist bei der Such­ma­schi­nen­op­ti­mierung
der Archi­tektur einer Website wichtig?



Was ist bei der Such­ma­schinen-
opti­mierung der Archi­tektur einer
Website wichtig?



Was ist bei der Such-
maschi­nen­op­ti­mierung
der Archi­tektur einer 
Website wichtig?


Auch hier gibt es ein halbes Dutzend Fak­toren, denen eine große Bedeutung zuge­messen werden muss. Ganz vorn ran­giert dabei die Not­wen­digkeit, die Inhalte den Crawlern der Such­ma­schinen besonders kom­for­tabel zugänglich zu machen. Die Angabe „dis­allow“ sollte deshalb in der Datei „robots.txt“ mög­lichst nicht vor­kommen. Wird damit der Crawler aus­ge­sperrt, können die Inhalte für die Such­ergeb­nisse nicht inde­xiert werden, weil sie der Crawler gar nicht erst anschauen darf.

Das Kürzel AMP sollte eben­falls jeder kennen, der sich mit der Such­ma­schi­nen­op­ti­mierung beschäftigt. AMP steht für den eng­li­schen Begriff „Acce­le­rated Mobile Pages“. Damit können die Anfor­de­rungen bedient werden, welche bei den Google-Algo­rithmen für die Sor­tierung der Such­ergeb­nisse für mobile End­geräte mit dem soge­nannten „Mobilegeddon“-Update im Jahr 2015 ein­ge­führt wurden. Der AMP-Standard erlaubt nur restricted HTML. Das heißt, es können nicht alle mög­lichen Angaben zur Aus­zeichnung ein­ge­setzt werden. Das gilt analog auch für Java­Script und CSS.

Auch hier gibt es ein halbes Dutzend Fak­toren, denen eine große Bedeutung zuge­messen werden muss. Ganz vorn ran­giert dabei die Not­wen­digkeit, die Inhalte den Crawlern der Such­ma­schinen besonders kom­for­tabel zugänglich zu machen. Die Angabe „dis­allow“ sollte deshalb in der Datei „robots.txt“ mög­lichst nicht vor­kommen. Wird damit der Crawler aus­ge­sperrt, können die Inhalte für die Such­ergeb­nisse nicht inde­xiert werden, weil sie der Crawler gar nicht erst anschauen darf.

Das Kürzel AMP sollte eben­falls jeder kennen, der sich mit der Such­ma­schi­nen­op­ti­mierung beschäftigt. AMP steht für den eng­li­schen Begriff „Acce­le­rated Mobile Pages“. Damit können die Anfor­de­rungen bedient werden, welche bei den Google-Algo­rithmen für die Sor­tierung der Such­ergeb­nisse für mobile End­geräte mit dem soge­nannten „Mobilegeddon“-Update im Jahr 2015 ein­ge­führt wurden. Der AMP-Standard erlaubt nur restricted HTML. Das heißt, es können nicht alle mög­lichen Angaben zur Aus­zeichnung ein­ge­setzt werden. Das gilt analog auch für Java­Script und CSS.


Speed, URL und https gehören eben­falls
zur On-Page-SEO



Speed, URL und https gehören
eben­falls zur On-Page-SEO



Speed, URL und https gehören eben­falls zur On-Page-SEO


Wird eine Website unter einer Domai­nadresse mit dem Präfix https auf­ge­rufen, dann heißt das, dass alle Daten zwi­schen dem Nutzer und dem Web­server ver­schlüsselt aus­ge­tauscht werden. Das geschieht mit der SSL-Tech­no­logie. Den Präfix https erhalten nur Web­sites, die ein gül­tiges SSL-Zer­ti­fikat vor­weisen können. Ein beach­tens­werter SEO-Faktor ist außerdem die Kon­fi­gu­ration der URL. Unnötige Wei­ter­lei­tungen und soge­nannte Hallway Pages mit reinen Link­samm­lungen mag Google gar nicht. Kon­tra­pro­duktiv für die SEO ist außerdem die Ein­bindung von Werbung mit Pop-ups.

Die Lade­ge­schwin­digkeit ist schon seit einiger Zeit ein „Dau­er­brenner“ bei der Such­ma­schi­nen­op­ti­mierung. Sie wird schwer­punkt­mäßig von der Sei­ten­ar­chi­tektur bestimmt, wozu sich aller­dings noch weitere Ein­fluss­fak­toren gesellen. Dazu gehören die kom­pri­mierte Über­mittlung der Daten sowie die Beschränkung auf die für eine optimale Anzeige erfor­der­liche Auf­lösung von Gra­fiken. Momentan (Stand 2018) bewertet Google die Ladezeit dann als optimal, wenn es bis zu maximal vier Sekunden vom Aufruf einer Domai­nadresse bis zur voll­stän­digen Anzeige der Inhalte einer Website dauert. Doch es ist davon aus­zu­gehen, dass Google hier künftig immer strengere Maß­stäbe ansetzt, weil sich die Technik und auch die nutz­baren Über­tra­gungs­raten weiter ver­bessern.

Wird eine Website unter einer Domai­nadresse mit dem Präfix https auf­ge­rufen, dann heißt das, dass alle Daten zwi­schen dem Nutzer und dem Web­server ver­schlüsselt aus­ge­tauscht werden. Das geschieht mit der SSL-Tech­no­logie. Den Präfix https erhalten nur Web­sites, die ein gül­tiges SSL-Zer­ti­fikat vor­weisen können. Ein beach­tens­werter SEO-Faktor ist außerdem die Kon­fi­gu­ration der URL. Unnötige Wei­ter­lei­tungen und soge­nannte Hallway Pages mit reinen Link­samm­lungen mag Google gar nicht. Kon­tra­pro­duktiv für die SEO ist außerdem die Ein­bindung von Werbung mit Pop-ups.

Die Lade­ge­schwin­digkeit ist schon seit einiger Zeit ein „Dau­er­brenner“ bei der Such­ma­schi­nen­op­ti­mierung. Sie wird schwer­punkt­mäßig von der Sei­ten­ar­chi­tektur bestimmt, wozu sich aller­dings noch weitere Ein­fluss­fak­toren gesellen. Dazu gehören die kom­pri­mierte Über­mittlung der Daten sowie die Beschränkung auf die für eine optimale Anzeige erfor­der­liche Auf­lösung von Gra­fiken. Momentan (Stand 2018) bewertet Google die Ladezeit dann als optimal, wenn es bis zu maximal vier Sekunden vom Aufruf einer Domai­nadresse bis zur voll­stän­digen Anzeige der Inhalte einer Website dauert. Doch es ist davon aus­zu­gehen, dass Google hier künftig immer strengere Maß­stäbe ansetzt, weil sich die Technik und auch die nutz­baren Über­tra­gungs­raten weiter ver­bessern.


Vor­sicht bei der Nutzung kos­ten­loser Tools
für das SEO-Moni­toring!



Vor­sicht bei der Nutzung kos­ten­loser
Tools für das SEO-Moni­toring!



Vor­sicht bei der Nutzung kos­ten­loser Tools für das SEO-Moni­toring!


Es gibt zwar viele kos­tenlose SEO-Tools von anderen Anbietern, aber hier müssen die Nutzer mit zahl­reichen Ein­schrän­kungen leben. Teil­weise sind die ver­wen­deten Daten nicht aktuell. An anderer Stelle werden Facebook-Likes oder Twitter-Likes nur berück­sichtigt, wenn sie auf die Start­seite gesetzt werden. Vor­sicht ist bei­spiels­weise auch bei der Bewertung des Alexa-Ran­kings ange­bracht. Hier ver­zeich­neten unzählige Web­sites im Herbst 2017 einen mas­siven Ein­bruch. Er war der Tat­sache geschuldet, dass beim dor­tigen Ranking nur die Zugriffe der Nutzer gezählt werden, von denen ein spe­zi­elles Plugin im Browser instal­liert wurde. Seit der damals ver­öf­fent­lichten Quantum-Version von Mozilla Firefox ist die Akti­vierung des Plugins nicht mehr möglich. Das heißt, die von Alexa gelie­ferten Ran­king­werte sind seither erheblich ver­fälscht.

Es gibt zwar viele kos­tenlose SEO-Tools von anderen Anbietern, aber hier müssen die Nutzer mit zahl­reichen Ein­schrän­kungen leben. Teil­weise sind die ver­wen­deten Daten nicht aktuell. An anderer Stelle werden Facebook-Likes oder Twitter-Likes nur berück­sichtigt, wenn sie auf die Start­seite gesetzt werden. Vor­sicht ist bei­spiels­weise auch bei der Bewertung des Alexa-Ran­kings ange­bracht. Hier ver­zeich­neten unzählige Web­sites im Herbst 2017 einen mas­siven Ein­bruch. Er war der Tat­sache geschuldet, dass beim dor­tigen Ranking nur die Zugriffe der Nutzer gezählt werden, von denen ein spe­zi­elles Plugin im Browser instal­liert wurde. Seit der damals ver­öf­fent­lichten Quantum-Version von Mozilla Firefox ist die Akti­vierung des Plugins nicht mehr möglich. Das heißt, die von Alexa gelie­ferten Ran­king­werte sind seither erheblich ver­fälscht.


Wie lassen sich die Ergeb­nisse der
Such­ma­schi­nen­op­ti­mierung über­prüfen?



Wie lassen sich die
Ergeb­nisse der Such-
maschi­nen­op­ti­mierung
über­prüfen?


Das Haupt­kri­terium beim per­ma­nenten Moni­toring ist die Plat­zierung in den Such­ergeb­nissen. Das kann per Eingabe der wich­tigsten Such­be­griffe bei den ein­zelnen Such­ma­schinen geschehen. Aller­dings wäre das sehr zeit­auf­wendig. Deutlich ein­facher wird die Prüfung mit der Google Search Console oder den Web­master Tools, die von Microsoft für die Such­ma­schine Bing zur Ver­fügung gestellt werden.

Die Google Search Console bietet die Chance, sowohl das all­ge­meine Ranking als auch das Ranking sepa­riert für Desktop-Com­puter, Tablets und andere mobile End­geräte sowie für bestimmte Zeit­räume und Länder anzeigen zu lassen. Ob die Inhalte für Google über­haupt inter­essant sind, kann aus der Ent­wicklung der Inde­xierung und des Crawl­budgets abge­lesen werden. Die par­allele Nutzung der Google Ana­lytics ist eben­falls inter­essant, wobei aus recht­lichen Gründen jedoch ein spe­zi­eller Cookie-Hinweis not­wendig ist. Die Google Ana­lytics geben Aus­kunft zum Ver­halten der Nutzer auf der Website. Daraus kann bei­spiels­weise ermittelt werden, welche Unterseiten/Artikel nach der Ankunft über die Such­ergeb­nisse auf­ge­rufen werden. Aus diesen Daten erhalten die Experten für Such­ma­schi­nen­op­ti­mierung Hin­weise darauf, bei welchen Artikeln oder Unter­seiten die meisten Aus­stiege ver­zeichnet werden.

Das Haupt­kri­terium beim per­ma­nenten Moni­toring ist die Plat­zierung in den Such­ergeb­nissen. Das kann per Eingabe der wich­tigsten Such­be­griffe bei den ein­zelnen Such­ma­schinen geschehen. Aller­dings wäre das sehr zeit­auf­wendig. Deutlich ein­facher wird die Prüfung mit der Google Search Console oder den Web­master Tools, die von Microsoft für die Such­ma­schine Bing zur Ver­fügung gestellt werden.

Die Google Search Console bietet die Chance, sowohl das all­ge­meine Ranking als auch das Ranking sepa­riert für Desktop-Com­puter, Tablets und andere mobile End­geräte sowie für bestimmte Zeit­räume und Länder anzeigen zu lassen. Ob die Inhalte für Google über­haupt inter­essant sind, kann aus der Ent­wicklung der Inde­xierung und des Crawl­budgets abge­lesen werden. Die par­allele Nutzung der Google Ana­lytics ist eben­falls inter­essant, wobei aus recht­lichen Gründen jedoch ein spe­zi­eller Cookie-Hinweis not­wendig ist. Die Google Ana­lytics geben Aus­kunft zum Ver­halten der Nutzer auf der Website. Daraus kann bei­spiels­weise ermittelt werden, welche Unterseiten/Artikel nach der Ankunft über die Such­ergeb­nisse auf­ge­rufen werden. Aus diesen Daten erhalten die Experten für Such­ma­schi­nen­op­ti­mierung Hin­weise darauf, bei welchen Artikeln oder Unter­seiten die meisten Aus­stiege ver­zeichnet werden.

Scroll to Top