Suchmaschinen erfolgreich(er) bedienen ...

Untertitel:

Internetseiten für Suchmaschinen optimieren - Tipps und Tricks

  Suchmaschinen erfolgreich(er) bedienen ...
      Die meta-Tags dieser Seite ...,
      Gefunden werden, Empfehlungen - keine Ratschläge,
      Suchmaschinenergebnisse nutzen,
      Schummeln auf den Weg nach oben?
      Linkpopularität, Schlüsselwortdichte,
      Anmeldung bei Suchmaschinen.
  Suchmaschinenfreundliches Webdesign
     kleine Einstiegsseite,
     aussagekräftige Datei-Namen,
     title-Tag,
     meta-Tags: keywords & description,
     weitere Tipps (Wettbewerber,alleinstellend,SiteMap).
  Ungünstig für Suchmaschinen
     Navigationselemente: Bilder, Java o.ä.,
     meta-Tags: keywords & description,
     Frames verwenden,
     Scripts verwenden,
     title-Tag,
     Wortwiederholungen,
     versteckter Text.
  Nicht zu empfehlende »Tricks«
     versteckter Text,
     meta-Tag: keywords.
  Strategien mit unklarem »Wert«
     Dateigröße,
     Umleitseiten,
     DC.-metas - Dublin Core Metatags.
  Weitere Informationen zu Suchmaschineneinträgen
      Häufiges Anmelden, Zeitdauer nach Anmeldung,
      robots.txt, verärgerte Surfer.


Die meta-Tags dieser Seite

Die für die Indizierung (Indexierung) der Suchmaschinen wichtigsten meta-Tags dieser Seite lauten:

<meta name="title" content="1. Suchmaschinen erfolgreich bedienen - Suchmaschinen Tipps- und Tricks - WebSeiten optimieren" />
<meta name="robots" content="index,follow" />
<meta name="revisit after" content="14 days" />
<meta name="keywords" content="suchmaschinen, optimieren, tipps, tricks, positionen, positionierungen, ranking, suchen, platzierung, search, finden, inhalte, contents, indizierung, indexierung, meta, tags, meta-tags, metatags, meta tags, dublin core, gestaltung, webseiten, website, internetsite, internetseiten, alleinstellend, individuell, eintragen, suchmaschineneintrag, kriterien, webkataloge, internetkataloge, eintragungen, suchroboter, crawler, spider, robot, robots txt, empfehlungen, umleiten, umleitseiten, grundsatz, indexierungsmechanismen, description, keywords, spam, spaming, kommentare, suchabfragen, suchergebnisse, vergleichen, navigation, strukturen, strukturierungen, verlinkungen, links, sitemaps, webseitengestaltung, unerlaubt, anstoss, anmelden, eintragen, gefunden werden, metatag-generator, seitenuebersicht, anstoessig, schluesselwoerter, schluesselwort, grundsaetze, grunds&#228;tze, schl&#252;sselw&#246;rter, schl&#252;sselwort, seiten&#252;bersicht, anst&#246;&#223;ig, doorway, cloaking, homepage." />
<meta name="description" content="Suchmaschinenfreundliches Webdesign ist Voraussetzung um auch via Suchmaschinen oder Webkataloge gefunden zu werden. " />
<meta name="abstract" content="Gefunden zu werden ist das Ziel der WebSite-Betreiber. Doch ohne Anpassung der Seiten an die Erfordernisse zur Aufnahme in Suchmaschinen oder WebKataloge geht es nicht. Hier finden sich Tipps und Tricks zum suchmaschinen-freundlichen WebDesign." />

Zu bedenken ist, dass die meta-Tags nur noch von wenigen Suchmaschinen genutzt werden, da zu viel Missbrauch im Sinne von Spam mit dieser Technologie getrieben wurde.



Gefunden werden ist das Ziel

Eines der wichtigsten Mittel, um im Internet »gefunden« zu werden, sind Suchmaschinen bzw. Webkataloge (Internetkataloge). Die Betreuung dieses Internetservice erfolgt durch Menschen (i.d.R. mit visueller Beurteilung) bzw. durch sog. Suchroboter (Crawler, Spider, Robot genannt), die z.T. das Netz nach Sites durchsuchen oder nach einer automatisierten Anmeldung die WebSite indexieren (anderes Wort: indizieren). Nach welchen Kriterien Suchmaschinen die Internetseiten durchsuchen und indexieren ist nicht immer bzw. nicht vollständig offengelegt, damit niemand seine Seiten speziell nach diesen Indexierungsmechanismen optimieren kann. Somit sind alle Empfehlungen, die Suchmaschinen betreffen, nur als Hinweise zu verstehen, ihre Anwendung führt nicht automatisch zum erfolgreichen Ausgeben nach einer Suchabfrage an »oberster« Stelle.
Und: Immer mehr Suchmaschinen bieten an, eine hohe Position im Suchergebnis zu kaufen oder über Webebannerschaltung (beides meist Keyword-bezogen) zu erwirken. Die Platzierung in der Suchergebnisausgabe ist also nicht mehr allein von der Arbeit des WebDesigners abhängig.
Um die Internetseiten für Suchmaschinen so gut wie möglich vorzubereiten, empfiehlt es sich, einige Grundsätze zu beachten. Der wichtigste Grundsatz ist allerdings die Planung der Inhalte (Contents) der Internetseiten auf die Gegebenheiten der Suchmaschinen von vornherein einzubeziehen, anstatt im Nachhinein mit viel Aufwand dies zu implementieren.

Mit diesen Suchbegriffen/Sucheingaben wurde diese Seite bislang »gefunden«. Zur Auswertung wurden die Server-log-Files herangezogen.


Anzeige der Suchmaschinenergebnisse ausnutzen

Praktisch alle Suchmaschinen zeigen den Seitentitel (Title-Tag) an. Um Interesse zu wecken sollte der Seitentitel aussagekräftig den Seiteninhalt wiedergeben.
Einige Suchmaschinen geben bis zu ca. 150 Zeichen Text der indexierten Seite mit dem Suchergebnis aus. Deshalb sollte der Seitenanfang so gestaltet sein, dass hier die wichtigsten Aussagen zur WebSite stehen sowie die Informationsdichte möglichst hoch sein, da der angezeigte Text ausschlaggebend sein kann, ob dieser Link der Richtige ist.
Die meisten Suchmaschinen nutzen die meta-Tags im head-Bereich der HTML-Dateien. Daneben werden auch die Seiten selbst durchsucht bzw. angesehen, bevor sie in die Suchmaschine aufgenommen werden. Deshalb ist eine Kombination verschiedener Suchmaschinenstrategien für die Erstellung der eigenen Homepage sinnvoll.


Schummeln, um nach Vorne zu kommen

»Besser mit Schummeln an die Spitze, als gar keine Beachtung erhalten.« - So könnte das Motte im Internet inzwischen lauten. Leider muss man inzwischen schon fast zwangsläufig mogeln, wenn man mit internetbezogenen Themen aufwartet, da das Angebot an solchen Seiten groß ist. Hier zeigt sich das Problem der Informationsredundanzen des Internets besonders gravierend, da hierdurch das tatsächlich Gesuchte zum Teil nur schwer zu finden ist - unter Umständen erst nach vielen hundert Links.
Vor allem die Technologie der Server Side Includes erweist sich hier als besonders »ergiebig«, da Suchmaschinen regelrecht »gefüttert« werden können, ohne dass für den Besucher mit Browser entsprechendes zu sehen ist. Dieses an sich unlautere Vorgehen ist nur durch Besuch mittels Browser nachweisbar - doch welcher Suchmaschinenenbetreiber macht sich schon die Arbeit ...

Link-Popularität

In den letzten Jahren hat eine neue Sichtweise in die Seitenbewertung von Suchmaschinen Einzug gehalten:
Die sogenannte Link-Popularität.
Gemeint ist damit die Tatsache wie häufig indexierte Seiten der Suchmaschine Links auf die jeweilige Homepage aufweisen. Dieser Gedanke ist einfach - leider jedoch irreführend, da hier nicht die Qualität der Seiten beurteilt wird, sondern lediglich die Verlinkungsquantität von »außen«. Der Rückschluß, vielverlinkte Seiten sind »gut« ist genauso einfältig wie fragwürdig, da die Verlinkung verschiedenste Ursachen haben kann. Da diese Methode beim Ranking der Suchmaschinen jedoch immer häufiger zum Einsatz kommt - muss man sich hier überlegen, wie man die Zahl der auf die eigenen Seiten weisenden Links erhöhen kann. Hier bieten sich an:
• Freunde mit Homepage;
• »Visitenkarten-Homepages« zum »Sammeln« von in die Linkzeile direkt eingegebenen Domainnamen (Varianten mit/ohne Bindestrich oder »Tippfehlern«);
• themenbezogene Forumseinträge bzw. Gästebucheinträge mit Link auf die Homepage;
• WebRinge mit Link- und Bannertausch, sofern diese statisch (als HTML-Quelltext) erfolgen - also nicht per Script.
Diese Beispiele zeigen gleich, wie wenig sinnvoll die Auswertung der externen Linkquantität ist. Setzt jemand Links auf Seiten, um diese als »Beispiel für schlechtes Internetdesign« zu benennen, wird die Absurdität gänzlich offenbar.

Schlüsselwortdichte

Ebenfalls kritisch, da gegen den Gedanken einer hohen Qualität von Informationen verstoßend, ist die Optimierung der Seiten nach der Methode der sog. Schlüsselwortdichte.
Die Dichte der Schlüsselwörter kann manipuliert werden und dieses Verfahren ist an sich bei Suchmaschinen verpönt, funktioniert aber trotzdem wie die beiden folgenden - inzwischen berüchtigten - »Methoden« zeigen:
• Cloaking-Scripts;
• Doorway-Page;
Obige Seiten sollen lediglich Interessenten anlocken, sie enthalten aber nicht viel mehr als einen Link auf die tatsächliche Homepage. Gedacht waren diese Seiten ausschließlich für Homepages mit dynamischen Inhalten die von Suchmaschinen sonst ignoriert würden.
Des weiteren ist die Schlüsselwortdichte nicht (!) geeignet, die Qualität einer Seite zu beurteilen, da redundant aufbereiteten Informationsinhalten der Vorzug gegeben wird, anstatt »Datensparsamkeit« und kompakte Inhalte zu belohnen.


Anmelden bei Suchmaschinen

Melden Sie Ihre Homepage erst bei Suchmaschinen an, wenn sie »fertiggestellt« ist. Niemand ist an einer »Baustellenschild-Page« mit (leeren) Versprechungen und Vertröstungen auf »demnächst« interessiert.
Anmerkung: Natürlich ist eine Homepage im Normalfall niemals wirklich fertig, sondern wird normalerweise immer wieder geändert oder erweitert.
Überprüfen Sie vor dem Suchmaschineneintrag unbedingt die Erreichbarkeit Ihrer Homepage einschließlich aller Unterseiten.
Und füllen Sie die Anmeldeformulare korrekt aus - geben Sie keine fremde oder falsche eMail-Adresse an.

Zur Erstellung der head-Informationen (Metatags) können Sie auch den Meta-Tag-Generator verwenden.


Suchmaschinenfreundliches Webdesign


Ungünstig für Suchmaschinen 


Nicht zu empfehlende »Tricks«


Strategien mit unklarem »Wert«


Weitere Informationen zu Suchmaschineneinträgen

Suchmaschinen listen mitunter bevorzugt Seiten auf, die erst kürzlich angemeldet worden sind. Allerdings ist ein wiederholtes Anmelden alle paar Monate (maximal monatlich) bei Suchmaschinen nur bedingt zu empfehlen, besser ist es, die meta-Tags aussagekräftig und individuell (»alleinstellend«) zu formulieren.

Die Frage nach der Zeitdauer, ab wann eine Suchmaschine die angemeldeten Seiten frühestens als Ergebnis einer Suche listet, kann nur schwer beantwortet werden.

robots.txt

Die Bedeutung der robots.t(e)xt sollte nicht zu hoch angesetzt werden.

Viele Suchmaschinen erwarten im Wurzelverzeichnis (Root/Internetadresse z.B.: http://www.free-solutions.de/robots.txt) die Datei robots.txt (Buchstaben klein schreiben!). Fehlt die Datei, gibt der Host-Server eine 404-Fehlermeldung an den Suchmaschinen-Robot zurück.
Die robots.txt enthält Informationen für Suchmaschinen, z.B. welche Suchmaschinen besondere Anweisungen erhalten sollen oder welche Verzeichnisse durchsucht bzw. nicht durchsucht und/oder welche Dateien indexiert bzw. nicht indexiert werden sollen.
Aber: Nicht alle Suchmaschinen halten sich an die Anweisungen der robots.txt, trotzdem sollte sie nicht fehlen.
Wichtig: Achten Sie auf die richtige Schreibweise, falsch ist robot.txt (also ohne »s«) - kommt immer wieder vor (selbst in Büchern - ist aber trotzdem falsch).

Das Internet sollte vorwiegend ein Informationsmedium bleiben.
Beispiel: Seiten von rein privatem Interesse, wie z.B. bei "Hochzeitsbilder von ...", empfiehlt es sich, meta-Tags einzufügen, die eine Indexierung zu vermeiden: <meta name="index" content="noindex,nofollow"> ist hier wahrscheinlich der bessere meta-Tag für eine entsprechende Seite, auf der solche Inhalte stehen. Dies setzt allerdings eine ordentliche Strukturierung der Homepage in einerseits »allgemein-informativen« und andererseits eher »persönlich-privaten« Bereich voraus.

User-agent: *
Disallow: /hochzeit/
Allow: /hochzeit/Quanten.html

# (1. Zeile) alle robots erlaubt; sonst namentlich einschränken
# (2. Zeile) ausgeschlossene Verzeichnisse vom Spidern; wenn leer - keine Einschränkung
# (3. Zeile) die Datei Quanten.html darf trotzdem von Robots ausgelesen werden.

Im obigen Beispiel sind alle Suchmaschinen erlaubt * und das Verzeichnis hochzeit/ ist - bis auf Quanten.html - von der Indexierung ausgeschlossen. Kommentaren wird ein Gatterzeichen: # vorangestellt.
In den Pfad-/Datei-Angaben sind Wildcards wie * oder *.* nicht erlaubt.
Verzeichnisse müssen mit einem Schrägstrich abgeschlossen werden - sonst sucht die Suchmaschine nach einer entsprechend benannten Datei.
Angedacht: Wenn Sie neue Seiten in Ihre Homepage eingefügt haben, können Sie diese mit Allow: in der robots.txt den Suchmaschinen bekannt gemacht werden.

Sonderfälle

User-agent: *
Disallow: /

Obiger Text sperrt alle Suchmaschinen-Robots aus.

User-agent: *
Disallow:

Obiger Text erlaubt eine vollständige Indexierung.

Angaben in der robots.txt werden von WebBrowsern ignoriert. Weiter kann man sich diese Datei jederzeit anzeigen lassen. Zugangszuschützende Bereiche müssen also ggf. nicht nur von der Indexierung ausgeschlossen werden, sondern z.B. mittels der .htaccess-Datei entsprechend gesichert werden.

Verärgerte Surfer

Entscheidend ist, darauf zu achten, dass die Suchmaschinenindexierung nach den zutreffenden Begriffen erfolgt. Berechtigt verärgerte Surfer könnten sonst auf die Idee kommen, Ihre Seite(n) bei einzelnen Suchmaschinen als anstößig zu melden (bei Google z.B. unter: http://www.google.com/contact/spamreport.html Bitte beachten: Keine Haftung für Inhalte fremder Internetseiten). Sollte die URL Ihrer Homepage erst einmal von einem Suchmaschinenbetreiber gesperrt sein, wird diese Sperre nicht mehr so schnell aufgehoben.

© 2000