Bei Google besser gefunden werden

- kom­petent - seriös - SEO mit fairer Kostengestaltung -

Pro­fes­sio­nelle Such­ma­schi­nen­op­ti­mierung – In Google besser gefunden werden ✔

Die Such­ma­schi­nen­op­ti­mierung gehört in die Hände von Experten, weil immer mehr Ein­zel­fak­toren beachtet werden müssen. Es ist nahezu unmöglich, sich auf alle Updates der Ranking-Algo­rithmen vor­zu­be­reiten, es sei denn, es wird neben der Bereit­stellung der Daten für die Crawler kon­se­quent auf einen hohen Nut­zer­komfort und die Erfüllung der Erwar­tungen der Besucher einer Website abge­stellt. Wer Letz­teres tut, muss bei den großen Updates der Algo­rithmen zumindest keine nen­nens­werten Abstürze bei der Plat­zierung in den Such­ergeb­nissen befürchten.


Wie hoch fallen die Kosten aus?


Durch unser ein­zig­ar­tiges System, das über eine umfang­reiche und kom­pli­zierte Software gesteuert wird, die in unserem Hause ent­wi­ckelt wurde, können die Kosten für eine pro­fes­sio­nelle Such­ma­schi­nen­op­ti­mierung in einem kleinen Rahmen gehalten werden. Bereits ab 89,- mtl., je nach Ein­zugs­gebiet können wir unsere Leistung anbieten. Ab 299,- mtl. werden Sie bereits in einem Umkreis von 50 Ort­schaften gut unter Ihren ange­ge­benen und gewünschten Leis­tungen in Google besser gefunden.


Welche wei­teren Fak­toren sind bei der Off-Page-Opti­mierung wichtig?


Ob eine Website eine positive Außen­wirkung und ein gutes Ranking erzielen kann, hängt auch vom Alter einer Domain ab. Älteren Domains wird in der Regel mehr ver­traut als neuen Domains. Deshalb kann es bei der Ein­richtung neuer Web­sites im Hin­blick auf die Such­ma­schi­nen­op­ti­mierung auch durchaus sinn­voller sein, eine ältere Bestands­domain zu kaufen, anstatt eine neue Domain regis­trieren zu lassen. Aller­dings ist hier ein Blick auf die Repu­tation der vor­he­rigen Inhalte und Nutzer wichtig. Die ehe­ma­ligen Inhalte können am ein­fachsten im Archiv der Wayback Machine betrachtet werden. Zusätzlich emp­fiehlt sich vor einem Domainkauf eine Prüfung in den gän­gigen Spammer-Ver­zeich­nissen. Taucht die Domain dort auf, ist sie für die Ein­richtung einer neuen Website ungeeignet.

Einen wich­tigen Hinweis auf die Effi­zienz der Off-Page-Opti­mierung gibt ergänzend die Repu­tation einer Seite in den Social Net­works. Dabei betrachten die SEO-Experten nicht nur die Anzahl der Likes, welche eine Website oder ein­zelne Teile des Inhalts in den Social Net­works erhalten haben. Hinzu kommt eine Betrachtung der Anzahl der Nutzer, die auf den „Share“-Button („Teilen“-Button) geklickt haben. Doch auch das reicht nicht aus, um ver­läss­liche Infor­ma­tionen über die Repu­tation einer Website zu bekommen. Zusätzlich sollten die Kom­mentare geprüft werden, in denen die Nutzer ihre ganz per­sön­liche Meinung kundtun können.



Helfen Resultate von Prüf­tools bei der Suchmaschinenoptimierung?


Viele Prüf­tools bieten die Inte­gration der jewei­ligen Prüf­ergeb­nisse mit einem vor­be­rei­teten Code-Snippet an. Die Crawler der Such­ma­schinen inter­es­sieren sich für diese Prüf­ergeb­nisse über­haupt nicht, weil die Web­sites mit eigenen Algo­rithmen geprüft und aus­ge­wertet werden. Aber sie sind eine gute Mög­lichkeit, das Nut­zer­ver­trauen zu stärken. Aller­dings sollten dafür nur Resultate ver­wendet werden, unter denen sich die Besucher auch etwas vor­stellen können. Ein Bei­spiel dafür ist die Anzeige von Quali­dator, welcher die Bewertung ver­schie­dener Bereiche nach einem ähn­lichen Prinzip vor­nimmt, wie es bei den nam­haften Rating-Agen­turen rund um den Globus ein­ge­setzt wird. Bei der Angabe „AAA“ wird kein Besucher Zweifel daran haben, dass es sich um eine hoch­wertige Website handelt. Das heißt, darüber kann eine solide Basis aus wie­der­keh­renden Besu­chern gene­riert werden.


Welche Ele­mente beein­flussen SEO und die Auf­find­barkeit in Such­ma­schinen negativ?


Ein Fakt steht fest: Spä­testens seit den Panda-, Penguin- und Hum­mingbird-Updates der Google-Algo­rithmen ent­wi­ckelt sich die Such­ma­schi­nen­op­ti­mierung (kurz SEO genannt) zu einer Wis­sen­schaft. Bei den großen Updates der Ranking-Algo­rithmen kommen ständig neue Kri­terien zur Bewertung der Web­sites hinzu. Die größte Her­aus­for­derung für die Betreiber von Web­sites ist es, das Zusam­men­spiel der ein­zelnen Kri­terien zu durch­schauen und für die eigene Website auszunutzen.

Mitt­ler­weile werden rund drei Dutzend Fak­toren als besonders wichtig für die Such­ma­schi­nen­op­ti­mierung ein­ge­schätzt. Eine der füh­renden ame­ri­ka­ni­schen SEO-Agen­turen hat sich die Mühe gemacht, sie über­sichtlich als „Periodic Table of SEO Success Factors“ zusam­men­zu­fassen. Diese Zusam­men­fassung sieht auf den ersten Blick tat­sächlich ein wenig aus wie das Peri­oden­system der che­mi­schen Ele­mente. Damit hat die „SEO-Table“ noch eine andere Gemein­samkeit. Genau wie die for­schenden Che­miker finden auch die Google-Pro­gram­mierer immer wieder neue Ele­mente, von deren Kenntnis die zur Sor­tierung der Such­ergeb­nisse ver­wendete KI profitiert.

Die 2018er Version des Peri­oden­systems der Such­ma­schi­nen­op­ti­mierung benennt acht Punkte, die von den Betreibern der Web­sites mög­lichst kon­se­quent ver­mieden werden müssen:

  • Keyword Stuffing

  • Ads

  • Spam

  • Hidden Content

  • Thin Content

  • Cloaking

  • Piracy

  • Pay Walls

Keyword Stuffing bedeutet, dass die wich­tigsten Such­be­griffe mit einer zu großen Häu­figkeit ver­wendet werden. Das schätzt Google dann ein, wenn sie (prak­ti­schen Erfah­rungen zufolge) mehr als drei Prozent der gesamten Wortzahl eines Textes aus­machen. Das Kri­terium Ads wird dann negativ wirksam, wenn zu viel Werbung auf einer Website plat­ziert wird, weil das den Nut­zer­komfort erheblich ein­schränkt. Hidden Content bedeutet, dass Begriffe auf einer Website hin­terlegt werden, welche nur für die Such­ma­schinen und nicht für die Besucher sichtbar sind. Als Thin Content werden Texte bezeichnet, die nur einen geringen Infor­ma­ti­ons­gehalt haben.

Beim Cloaking werden unter­schied­liche Ver­sionen der Web­sites für die echten Besucher und die Crawler der Such­ma­schinen hin­terlegt. Dabei erfolgt die Lenkung der Crawler über spe­zielle Angaben in der Datei „robots.txt“. Natürlich haben auch wider­rechtlich genutzte Inhalte auf einer Website nichts zu suchen. Negativ wirkt sich bei der SEO außerdem aus, dass die Betreiber vieler Web­sites nur Teile ihrer Inhalte offen anzeigen und der Rest hinter einer Pay Wall (kos­ten­pflich­tiges Abo) ver­steckt wird.

Bei der On-Page-Opti­mierung müssen weitere Punkte beachtet werden

Dabei kommt es auf die Nutzung der Poten­ziale an, die von der Aus­zeich­nungs­sprache HTML ange­boten werden. Das beginnt bereits bei einer über­sicht­lichen Glie­derung der Inhalte mit Head­lines und Sub­head­lines mit den Angaben h2 bis h6. Die Ver­wendung von h1 sollte aus­schließlich dem Haupt­titel der gesamten Website vor­be­halten bleiben. Außerdem benö­tigen die Start­seite, alle Unter­seiten sowie sämt­liche Arti­kel­seiten eine aus­sa­ge­kräftige Description, die in den Snippets der Such­ergeb­nisse von den Such­ma­schinen ange­zeigt werden können. Wei­teres Augenmerk muss der Ver­wendung von struk­tu­rierten Daten gelten. Dabei handelt es sich um spe­zielle HMTL-Tags, an denen die Crawler von Google, Bing und Co. erkennen können, um welche Art von Daten es sich handelt.

Was gehört zu den Top 10 der Off-Page-Suchmaschinenoptimierung?

Die Off-Page-Opti­mierung gliedert sich in die vier Teil­be­reiche Trust, Kacklinks, Per­so­ni­fi­zierung und Wirkung in den Sozialen Netz­werken. Dort kommt drei Fak­toren die größte Bedeutung zu:

  • Page Aut­hority

  • Link­qua­lität

  • Her­kunft

Eine gute Page Aut­hority steigert das Ver­trauen der Nutzer in die dort publi­zierten Inhalte. Je mehr Backlinks von füh­renden Web­sites (große New­s­portale, Lexika etc.) auf eine Website ver­weisen, desto höher schätzt Google die Page Aut­hority ein. Auch alle anderen Backlinks sollten nur von ange­se­henen Web­sites mit guten SEO-Werten und einer posi­tiven Repu­tation stammen. Die Angabe der Her­kunft dient dem Nut­zer­komfort. Google Chrome bietet bei­spiels­weise bei fremd­spra­chigen Web­sites auto­ma­tisch die Über­setzung der Website in die Sprache des Nutzers an. Außerdem ver­schafft die Angabe der ver­wen­deten Sprache Vor­teile beim Ranking in den lokalen Such­ergeb­nissen, weil der Browser die Ein­stel­lungen der bevor­zugten Sprache des Nutzers bei jeder Such­an­frage über­mittelt. Zusätzlich werden die Infor­ma­tionen aus­ge­lesen, die mit dem HTML-Tag „location“ in den struk­tu­rierten Daten hin­terlegt wurden.

Bei der Such­ma­schi­nen­op­ti­mierung dürfen die Experten der Inter­net­agen­turen und die Betreiber der Web­sites auch nicht auf die Aus­wertung der Bounce Rate (auf Deutsch Absprungrate) ver­zichten. Eine hohe Absprungrate weist darauf hin, dass die Inhalte für den Nutzer unin­ter­essant sind oder nicht die Infor­ma­tionen ent­halten, die er beim Auf­rufen erwartet hatte. Außerdem kann eine hohe Absprungrate darauf hin­deuten, dass etwas am Nut­zer­komfort der Website (Ladezeit, Menü­führung, Web­design) nicht stimmt.

  • Besprechen der zu bewer­benden Leistungen
  • Über das Google Keyword-Tool den höchsten Traffic ermitteln
  • Vor­handene Homepage oder neue Web­seite darauf analysieren
  • Anpassen der bestehenden Web­seite auf die besten Keywords
  • Oder pro­fes­sio­nelle Erstellung der neuen Präsenz mit neuen Suchworten

Bei Google besser gefunden werden ...

Dort wo früher in einem Google Maps Eintrag nicht einmal eine Homepage hin­terlegt sein musste, um besser gefunden zu werden, spielt es heut­zutage gar keine Rolle mehr, was man im Google Business Eintrag an Infor­ma­tionen und ver­schie­denen Branchen angibt, da Google nun ein­deutig die Inhalte der hinter dem Google Eintrag lie­genden Web­seite ana­ly­siert. Wird die Homepage in der orga­ni­schen Suche nicht unter einem Such­be­griff ange­zeigt (Hier reicht auch Seite 2-5), wird der Unter­neh­mens­eintrag auch nicht in Google Plus unter dem Such­be­griff ver­öf­fent­licht bzw. gefunden.

Das liegt daran, dass Google logi­scher­weise kein Unter­nehmen mit Platz 1 in Google Business belohnen will, wenn die Haupt­seite unter den besagten Such­be­griffen nicht in der orga­ni­schen Suche auf­zu­finden ist. Bei Google Plus spielt das aber lediglich eine Rolle, wenn man den gewünschten Ort mit in das Suchfeld eingibt, egal in welchem Ort Deutsch­lands man sich befindet.

Wie erreicht man ein gutes Ranking bei Google?

Sehen wir uns als Web­joker Inter­net­seiten von neuen Kunden an, selbst wenn sie von Web­de­signer erstellt wurde, die auch behauptet haben, sich im Bereich Such­ma­schi­nen­op­ti­mierung aus­zu­kennen, werden wir in der Regel nicht über­rascht von gut aus­ge­führter Opti­mierung auf die gewünschten Such­be­griffe. H1 Über­schriften fehlen oft gänzlich, abge­sehen von Über­schriften H2 bis H4 (H5 und H6 sind nicht unbe­dingt nötig), die des Öfteren nicht gesetzt sind. Da dies aber neben dem wei­teren Content mit die wich­tigsten Posi­tionen in einer Homepage sind, kann man dann wohl über­haupt nicht von pro­fes­sio­neller Such­ma­schi­nen­op­ti­mierung sprechen sondern eher von Dilet­tan­tentum der angeb­lichen Web­de­signer und SEO-s.

Onpage Opti­mierung vom SEO-Profi

Das Wort Onpage-Opti­mierung bedeutet nichts anderes als dass direkt in bzw. auf Ihrer eigenen Homepage opti­miert wird. Beginnend mit der Auswahl des rich­tigen Namens für jede ein­zelne Unter­seite über den Title für Such­ma­schinen (wird als 1. ange­zeigt), eine aus­sa­ge­kräftige Description bis hin zu gezielt gewählten Such­worten sind das die wei­teren Schritte des Pro­gram­mierers für eine optimale Such­ma­schi­nen­op­ti­mierung. Damit wäre der Kern der Unter­seite opti­miert, wobei dies noch lange nicht aus­reicht, um gute Such­ergeb­nisse zu erreichen. Die Seite selbst sollte nun im Detail das erklären, was Ihr Angebot ist. Hier macht es auch durchaus Sinn, eine Key­wor­d­analyse für Ihr Angebot durch­zu­führen, denn es wird Ihnen kaum neue Kunden bringen, wenn Sie unter Worten gefunden werden, die kein User benutzt. Gezielte Auswahl der Key­words und Opti­mierung sind hier gefragt, was meist nicht ohne die Mit­hilfe des Auf­trag­gebers funk­tio­niert, denn der Fachmann sind ja Sie selbst. Ein bisschen müssen Sie auch als Auf­trag­geber mitarbeiten.

Offpage

Mani­pu­la­tionen sind out und werden sogar nicht uner­heblich abge­straft durch Such­ma­schi­nen­be­treiber wie auch Google. Warum Such­ma­schi­nen­op­ti­mierer solche Wege gehen, liegt daran, dass ihnen die Fähig­keiten fehlen, eine saubere Such­ma­schi­nen­op­ti­mierung vorzunehmen.

Offpage bedeutet im Grundsatz, dass nicht in Ihre eigene Homepage ein­ge­griffen werden muss. Eine Opti­mierung kann hier durch Backlinks erfolgen, die von the­men­ver­wandten Seiten auf Ihre Homepage ver­weisen und Sie als Partner für das jeweilige Produkt emp­fehlen. Durch diese und hoch­wertige Backlinks wird Ihre Seite Offpage opti­miert, als durch andere Web­sites nach vorne geschoben, zumindest auf den gelinkten Such­be­griff. Auch ein inter­es­santes Instrument sind Landing-Pages, die aus­führ­licher über Ihre Leis­tungen berichten und von dort aus durch einen Link Ihre eigene Homepage erreichbar ist. Auf Dauer bedeutet dies Platz­ge­winne für Ihre Website in Google und Co.

Auch Google Business ist wichtig, um eine bessere Auf­find­barkeit zu erzielen

Was Web­de­signer und soge­nannte Such­ma­schi­nen­op­ti­mierer oft igno­rieren, ist Google Business. Was zu frü­heren Zeiten ein Neben­produkt war, ist heute ein extrem wich­tiges Instrument, um bei Google gut gefunden zu werden. Hat man einen Fir­mensitz, sollte man auch einen Google Eintrag haben, der richtig opti­miert ist. Erst dann exis­tieren Sie für die Such­ma­schine Google wirklich. So ver­hindert Google, dass Pseudo-Unter­nehmen in Google gefunden werden. Des Wei­teren kann man über Google Business seine regionale Auf­find­barkeit bedeutend erhöhen.

Wie lange es dauert, bis SEO den erwünschten Erfolg bringt?

Das Internet und somit auch Google ist der Markt­platz der Zukunft. Sie selbst suchen ja schießlich eben­falls alles in Google und Co. Hat man keine bestehende Homepage und will sie unter einem ganz neuen Domain­namen auf­bauen, benötigt man zuerst sehr gute Texte. Hier kann man selbst seine Pro­dukte beschreiben oder nutzt pro­fes­sio­nelle Texter, die sich auf die jewei­ligen Fach­ge­biete spe­zia­li­siert haben und den Content schnell liefern können. Klar, umsonst bzw. kos­tenlos ist das natürlich nicht. Diese Vor­ge­hens­weise beschleunigt jedoch das Vor­an­kommen, denn man bietet sofort gute Inhalte auf seiner Homepage. Die SEO-Agentur muss nun noch Über­schriften und andere Meta Daten korrekt setzen.

Je mehr Inhalt und Text­kom­bi­na­tionen geschrieben werden, desto schneller bekommt man auch Traffic auf seiner Seite. Nicht jeder gibt nur kurze Such­worte ein. Das hängt von der Denk­weise und dem Such­ver­halten des jewei­ligen Men­schen ab. Manche Suchende geben kna­ckige kurze Such­worte ins Suchfeld ein und andere schreiben ganze Sätze ins Suchfeld. In der Regel werden die­je­nigen zuerst auf Ihre Seite kommen, die ganze Sätze ein­geben, wenn Sie auf Ihrer Inter­net­seite diese oder ähn­liche Such­wort­kom­bi­na­tionen geschrieben haben. Hört sich einfach an aber ist es nicht.

Einen genauen Zeitraum kann man hier gar nicht fest­setzen und vor allem einem Auf­trag­geber nicht ver­sprechen. Ver­spre­chungen sind nicht seriös, zumindest wenn man sie nicht ein­halten kann. Und genau das ist heut­zutage und schon immer das größte Problem bei der Such­ma­schi­nen­op­ti­mierung, denn hier gibt der Such­ma­schi­nen­be­treiber die Regeln vor. Das Schlechte an der Sache ist nur, man kan die Regeln fast nir­gends nach­lesen, zumindest nicht im Detail.

WEBJOKER arbeitet sehr pro­fes­sionell im Umgang mit seinen Kunden, ob Alt­kunde oder Neu­kunde. Wir machen keine Ver­spre­chungen, sondern ver­suchen mit guten Refe­renzen zu über­zeugen, mit stän­diger per­sön­licher Erreich­barkeit und mit kom­pe­tenten Aus­künften. Sie haben Fragen? dm@webjoker.eu


Bei der Such­ma­schi­nen­op­ti­mierung steht die Sicherheit zunehmend im Fokus


Immer wieder gelingt es Hackern, Nut­zer­daten von ver­schie­denen Platt­formen abzu­greifen. Deshalb hat auch die Sicherheit dieser Daten Eingang in die von Google für das Ranking ver­wen­deten Algo­rithmen gefunden. Diese Tat­sache ist nicht neu, denn ein Blick auf die Such­ergeb­nisse zeigt, dass dort die Web­sites weit vorn landen, bei denen ein gül­tiges SSL-Zer­ti­fikat vor­handen ist. Außerdem wird die all­ge­meine Sicherheit beachtet. Das heißt, Web­sites müssen gut vor einem Hack­er­zu­griff geschützt werden, um das Ein­schleusen von Schadcode zu ver­hindern. Dabei müssen aller­dings die strengen Daten­schutz­richt­linien der Euro­päi­schen Union bei­spiels­weise bei der dau­er­haften Spei­cherung von IP-Adressen sowie der Spei­cherung und Ver­ar­beitung per­so­nen­be­zo­gener Daten ein­ge­halten werden.


Was bedeutet der Begriff SEO und wie funk­tio­niert sie?


Zu Beginn wurde das Kürzel SEO vom eng­li­schen Begriff „Search Engine Opti­miz­ation“ abge­leitet, welcher mit Such­ma­schi­nen­op­ti­mierung ins Deutsche über­setzt wird. Inzwi­schen wird aber immer öfter das Synonym „Search Expe­rience Opti­miz­ation“ ver­wendet. Das bedeutet auf Deutsch die Opti­mierung der Such­er­fahrung. Dieser Begriffs­wandel spiegelt die Ent­wicklung der von Google ver­wen­deten Algo­rithmen, denn auch hier liegt der Fokus zunehmend auf die Ver­bes­serung der Nut­zer­er­fahrung. Die Denk­weise von Google ist logisch, denn es macht keinen Sinn, bestehende oder neue Home­pages auf die Ansprüche einer Maschine (in dem Fall die Google-KI) zu opti­mieren. Letztlich sind es die Aktionen der Nutzer, die über den Erfolg oder Miss­erfolg einer Website entscheiden.

In der Folge stellt sich die Frage, wie die SEO im besten Fall aus­sieht. Hier ist zuerst einmal das Wissen wichtig, dass die KI von Google mitt­ler­weile eine ganze Reihe von Mani­pu­la­ti­ons­ver­suchen durch­schaut. Mas­sen­ver­lin­kungen aus Arti­kel­ver­zeich­nissen und Foren sind schon längere Zeit out. Statt­dessen belohnt Google (genau wie Bing und Co.) „natürlich gewachsene“ Ver­lin­kungen. Diese lassen sich aus­schließlich über hoch­wertige Inhalte erreichen, die frei­willig von den Betreibern anderer Website ver­linkt werden. Das kann von einer Inter­net­agentur nach wie vor gezielt for­ciert werden. Die meisten Betreiber von Blogs sind auf der Suche nach solchen hoch­wer­tigen Inhalten und spen­dieren für einen guten Beitrag auch gern einmal einen Link. Aller­dings muss bei dieser Art der Such­ma­schi­nen­op­ti­mierung darauf geachtet werden, dass die ver­lin­kenden Seiten selbst hoch­wertig sind.

Die Erkennt­nisse der neu­esten SEO-Studien weisen darauf hin, dass sich die Benennung eines Key­words oder einer URL im Ankertext für eine Ver­linkung nicht mehr auf die von Google vor­ge­nommene Gewichtung der Links aus­wirkt. Wis­senswert ist außerdem eine neue Praxis bei der Microsoft-Such­ma­schine Bing. Hier werden mitt­ler­weile auch „unechte Links“ beim Ranking berück­sichtigt. Bei einem „unechten Link“ handelt es sich um die Nennung einer Domain, ohne dass dorthin ver­linkt wird. Test deuten auf eine ähn­liche Wertung bei der Nennung von Per­so­nen­namen, Mar­ken­namen, Unter­neh­mens­namen sowie Pro­dukt­namen hin.


Hoch­qua­li­ta­tiver Content ist bei der SEO unerlässlich


Viele Betreiber von Web­sites meinen, dass die „Mobilegeddon“-Updates von Google eine dras­tische Beschränkung des Umfangs der Inhalte nach sich ziehen würden. Doch diese Annahme ist falsch, wie ein Blick auf die Insider-Infor­ma­tionen belegt, die regel­mäßig bei der größten SEO-Fach­tagung SMX gegeben werden. Dort zeigt sich seit Herbst 2017 sogar ein direkter Zusam­menhang zwi­schen der Länge des Con­tents und der Plat­zierung, der genau in die umge­kehrte Richtung geht. In Pra­xis­studien wurde bewiesen, dass Texte mit einem Min­dest­umfang von 750 Wörtern bevorzugt auf den vor­deren Plätzen der Google-SERPs landen. Noch größer werden die Chancen, auf die 1. Seite bei Google zu kommen, wenn die Texte 1.300 Wörter und mehr umfassen.

Der Trend, den Content für die SEO mit einer Flut von iden­ti­schen Key­words spicken zu müssen, ist eben­falls vorbei. Zwi­schen­zeitlich wird diese Vor­ge­hens­weise sogar als Keyword Stuffing abgestraft.

Für den erwei­terten Spielraum sorgen die seman­ti­schen Fähig­keiten, mit denen die Pro­gram­mierer von Google die KI inzwi­schen ver­sorgt haben. Dadurch können die Algo­rithmen über die üblichen Syn­onyme hinaus inhalt­liche Zusam­men­hänge erkennen.

Dazu trägt ergänzend die gezielte Anrei­cherung der von den Ranking-Algo­rithmen ver­wen­deten Daten­banken bei. Sie stellen mitt­ler­weile auch Zusam­men­hänge zwi­schen Film­titeln und den Namen der dort aktiven Schau­spieler her, um nur ein Bei­spiel zu nennen.

Das heißt, die pro­fes­sio­nellen Web­au­toren der Inter­net­agen­turen genießen einen grö­ßeren Gestal­tungs­spielraum und können sich auf eine gute Les­barkeit der Texte konzentrieren.

Infor­ma­tionen für den Google Crawler sind ein Muss für die erfolg­reiche SEO

Wer es bis in die Top-Such­ergeb­nisse schaffen möchte, muss bei seiner Website dafür sorgen, dass wichtige Infor­ma­tionen für die Crawler der Such­ma­schinen zur Ver­fügung gestellt werden. Dafür reicht die Angabe der Tags längst nicht mehr aus. Zur Ver­bes­serung der Such­er­fahrung der Nutzer erwei­terte Google zu Jah­res­beginn die Zei­chenzahl bei der in den Such­ergeb­nissen ange­zeigten Description. Dadurch kann die Beschreibung aus­führ­licher und infor­ma­tiver gestaltet werden. Die Ein­bindung von Smileys in die Sei­ten­titel und URL-Anzeigen ist zwar möglich, bringt aber keine unmit­tel­baren Vor­teile beim Ranking. Sie könnte lediglich dazu führen, dass ein solches Such­ergebnis durch die emo­tional wirksame Bot­schaft der Smileys häu­figer ange­klickt wird. Das heißt, hier ergeben sich die Vor­teile bei der SEO durch eine Stei­gerung der Klick­zahlen mit­telbar. Neben einem guten Web­design müssen bei der Neu­erstellung von Web­sites auch einige tech­nische Aspekte berück­sichtigt werden, weil sie eine direkte Aus­wirkung auf die Such­ma­schi­nen­op­ti­mierung haben. Der erste Punkt wurde mit der Ladezeit bereits benannt. Die Ladezeit ist aber nur einer von vielen Fak­toren, welche von den Google-Algo­rithmen berück­sichtigt werden. Eine ebenso wichtige Rolle spielen die Ant­wort­zeiten der Server, auf denen die Web­sites ver­öf­fent­licht werden. Das heißt, zu einer erfolg­reichen Website gehört ein opti­maler Pro­vider, dessen Rechen­zentren eine hoch­wertige Hardware und eine flinke Backbone-Anbindung besitzen. Eine durch­gängige Erreich­barkeit ist zur Ver­meidung einer Dein­de­xierung aus den Such­ergeb­nissen eben­falls wichtig. Deshalb kommen nur Pro­vider infrage, bei denen die Inhalte auf mehrere Server gespiegelt werden. So ist das Risiko gering, dass der Google Crawler bei seiner Prüfung des Internets beim Ausfall eines Servers „ins Leere“ greift.


Warum wird die Sprach­suche bei der Such­ma­schi­nen­op­ti­mierung immer wichtiger?


Der Anteil der Zugriffe auf das Internet mit mobilen End­ge­räten steigt ständig weiter an. Beim Tablet und beim Smart­phone sorgt die Sprach­steuerung für besondere Anfor­de­rungen. Auch immer mehr Note­books lassen sich per Sprache steuern. Windows 10 bringt seri­en­mäßig Cortana von Microsoft mit und bei Apple-Com­putern nimmt die Sprach­as­sis­tentin Siri gespro­chene Befehle ent­gegen. Hinzu kommen Alexa bei Amazon Echo, Bixby bei Smart­phones von Samsung und der Assi­stant bei Googles Betriebs­system Android (um nur einige Bei­spiele zu nennen).

Auf diesen Wandel müssen sich Web­site­be­treiber ein­stellen, wenn sie es dau­erhaft auf die 1. Seite bei Google schaffen wollen. Dazu gehören mehrere Maß­nahmen. So muss beachtet werden, dass sich dadurch die Art der Such­an­fragen ver­ändert. Statt ein­zelner Schlüs­sel­be­griffe ver­wenden die Nutzer bei der Suche nach Infor­ma­tionen im Internet kom­plette Fragen. Es ist also sinnvoll, Fragen in Sub­head­lines zu ver­packen. Diese werden in der Regel spe­ziell mar­kiert (Fett­schrift, andere Farben oder Schrift­größen). Diese Bereiche haben für die Google-Algo­rithmen einen höheren Stel­lenwert als der „normale Text“.

Hinzu kommt, dass Google spe­zielle Algo­rithmen für die Sor­tierung der Such­ergeb­nisse für die Nutzer der Sprach­suche ver­wendet. Deshalb ver­wenden erfolg­reiche Inter­net­agen­turen zusätz­liche HTML-Tags zur Kenn­zeichnung diverser Daten. Mit der Angabe „topic“ können die Schwer­punkt­themen gekenn­zeichnet werden. Einen Plus­punkt bei der lokalen Suche bringt das Tag „location“. Außerdem lassen sich Unter­nehmens-, Marken- und Per­so­nen­namen mit diesen Tags her­vor­heben. Sie werden von den Fach­leuten für die SEO zutreffend Markups genannt, denn sie dienen vor­rangig zur Mar­kierung bestimmter Daten. Sie erhöhen den Nut­zer­komfort für die Crawler der Such­ma­schinen und werden deshalb nicht nur von Google mit einem ver­bes­serten Ranking belohnt.


Welches Fazit ist daraus für das Web­design und die SEO zu ziehen?

Die Palette der ein­ge­setzten Ran­king­fak­toren wächst kon­ti­nu­ierlich weiter an. Die von Google für die Sor­tierung der SERPs ver­wendete KI erhält per­manent neue Fähig­keiten. Der Schwer­punkt der Zugriffe auf das Internet ver­lagert sich vom Arbeits­platz­rechner auf mobile End­geräte. Wer es dau­erhaft auf die 1. Seite der Google-Such­ergeb­nisse schaffen möchte, benötigt Insi­der­wissen, welches nur eine erfahrene Inter­net­agentur liefern kann. Außerdem ist die Such­ma­schi­nen­op­ti­mierung keine ein­malige Maß­nahme, sondern erfordert kon­ti­nu­ier­liche Anpassungen.

Beim Web­design stehen kurze Lade­zeiten, eine gezielte Nut­zer­führung sowie die Aus­nutzung der psy­cho­lo­gi­schen Wirkung ver­schie­dener Ele­mente im Fokus. Illus­tra­tionen, Fotos und Videos bringen nur bei bestimmten Themen Vor­teile. Bei den Inhalten geht der Trend zu län­geren Texten, in denen keine „gram­ma­ti­ka­li­schen Ver­ren­kungen“ für die Ein­bindung von Key­words mehr not­wendig sind. Daten müssen ver­trau­ens­würdig sein, um den Ran­king­faktor Trust­wort­hiness zu bedienen. Die inhalt­liche und tech­nische SEO muss sich für eine lang­fristige Wirk­samkeit an den Nut­zer­be­dürf­nissen und nicht an den „Hin­ter­türchen“ ori­en­tieren, die bei den Ranking-Algo­rithmen derzeit noch aus­ge­nutzt werden können.


Scroll to Top