<meta name="description" content="Suchmaschinenfreundliches Webdesign ist Voraussetzung um auch via Suchmaschinen oder Webkataloge gefunden zu werden. " />
<meta name="abstract" content="Gefunden zu werden ist das Ziel der WebSite-Betreiber. Doch ohne Anpassung der Seiten an die Erfordernisse zur Aufnahme in Suchmaschinen oder WebKataloge geht es nicht. Hier finden sich Tipps und Tricks zum suchmaschinen-freundlichen WebDesign." />
Zu bedenken ist, dass die meta-Tags nur noch von wenigen Suchmaschinen genutzt werden, da zu viel Missbrauch im Sinne von Spam mit dieser Technologie getrieben wurde.
Gefunden werden ist das Ziel
Eines der wichtigsten Mittel, um im Internet »gefunden« zu werden, sind Suchmaschinen bzw. Webkataloge (Internetkataloge). Die Betreuung dieses Internetservice erfolgt durch Menschen (i.d.R. mit visueller Beurteilung) bzw. durch sog. Suchroboter (Crawler, Spider, Robot genannt), die z.T. das Netz nach Sites durchsuchen oder nach einer automatisierten Anmeldung die WebSite indexieren (anderes Wort: indizieren). Nach welchen Kriterien Suchmaschinen die Internetseiten durchsuchen und indexieren ist nicht immer bzw. nicht vollständig offengelegt, damit niemand seine Seiten speziell nach diesen Indexierungsmechanismen optimieren kann.Somit sind alle Empfehlungen, die Suchmaschinen betreffen, nur als Hinweise zu verstehen, ihre Anwendung führt nicht automatisch zum erfolgreichen Ausgeben nach einer Suchabfrage an »oberster« Stelle.
Und: Immer mehr Suchmaschinen bieten an, eine hohe Position im Suchergebnis zu kaufen oder über Webebannerschaltung (beides meist Keyword-bezogen) zu erwirken. Die Platzierung in der Suchergebnisausgabe ist also nicht mehr allein von der Arbeit des WebDesigners abhängig.
Um die Internetseiten für Suchmaschinen so gut wie möglich vorzubereiten, empfiehlt es sich, einige Grundsätze zu beachten. Der wichtigste Grundsatz ist allerdings die Planung der Inhalte (Contents) der Internetseiten auf die Gegebenheiten der Suchmaschinen von vornherein einzubeziehen, anstatt im Nachhinein mit viel Aufwand dies zu implementieren.
Mit diesen Suchbegriffen/Sucheingaben wurde diese Seite bislang »gefunden«. Zur Auswertung wurden die Server-log-Files herangezogen.
Anzeige der Suchmaschinenergebnisse ausnutzen
Praktisch alle Suchmaschinen zeigen den Seitentitel (Title-Tag) an. Um Interesse zu wecken sollte der Seitentitel aussagekräftig den Seiteninhalt wiedergeben.
Einige Suchmaschinen geben bis zu ca. 150 Zeichen Text der indexierten Seite mit dem Suchergebnis aus. Deshalb sollte der Seitenanfang so gestaltet sein, dass hier die wichtigsten Aussagen zur WebSite stehen sowie die Informationsdichte möglichst hoch sein, da der angezeigte Text ausschlaggebend sein kann, ob dieser Link der Richtige ist.
Die meisten Suchmaschinen nutzen die meta-Tags im head-Bereich der HTML-Dateien. Daneben werden auch die Seiten selbst durchsucht bzw. angesehen, bevor sie in die Suchmaschine aufgenommen werden. Deshalb ist eine Kombination verschiedener Suchmaschinenstrategien für die Erstellung der eigenen Homepage sinnvoll.
Schummeln, um nach Vorne zu kommen
»Besser mit Schummeln an die Spitze, als gar keine Beachtung erhalten.« - So könnte das Motte im Internet inzwischen lauten. Leider muss man inzwischen schon fast zwangsläufig mogeln, wenn man mit internetbezogenen Themen aufwartet, da das Angebot an solchen Seiten groß ist. Hier zeigt sich das Problem der Informationsredundanzen des Internets besonders gravierend, da hierdurch das tatsächlich Gesuchte zum Teil nur schwer zu finden ist - unter Umständen erst nach vielen hundert Links.
Vor allem die Technologie der Server Side Includes erweist sich hier als besonders »ergiebig«, da Suchmaschinen regelrecht »gefüttert« werden können, ohne dass für den Besucher mit Browser entsprechendes zu sehen ist. Dieses an sich unlautere Vorgehen ist nur durch Besuch mittels Browser nachweisbar - doch welcher Suchmaschinenenbetreiber macht sich schon die Arbeit ...
Link-Popularität
In den letzten Jahren hat eine neue Sichtweise in die Seitenbewertung von Suchmaschinen Einzug gehalten:
Die sogenannte Link-Popularität.
Gemeint ist damit die Tatsache wie häufig indexierte Seiten der Suchmaschine Links auf die jeweilige Homepage aufweisen. Dieser Gedanke ist einfach - leider jedoch irreführend, da hier nicht die Qualität der Seiten beurteilt wird, sondern lediglich die Verlinkungsquantität von »außen«. Der Rückschluß, vielverlinkte Seiten sind »gut« ist genauso einfältig wie fragwürdig, da die Verlinkung verschiedenste Ursachen haben kann. Da diese Methode beim Ranking der Suchmaschinen jedoch immer häufiger zum Einsatz kommt - muss man sich hier überlegen, wie man die Zahl der auf die eigenen Seiten weisenden Links erhöhen kann. Hier bieten sich an:
Freunde mit Homepage;
»Visitenkarten-Homepages« zum »Sammeln« von in die Linkzeile direkt eingegebenen Domainnamen (Varianten mit/ohne Bindestrich oder »Tippfehlern«);
themenbezogene Forumseinträge bzw. Gästebucheinträge mit Link auf die Homepage;
WebRinge mit Link- und Bannertausch, sofern diese statisch (als HTML-Quelltext) erfolgen - also nicht per Script.
Diese Beispiele zeigen gleich, wie wenig sinnvoll die Auswertung der externen Linkquantität ist. Setzt jemand Links auf Seiten, um diese als »Beispiel für schlechtes Internetdesign« zu benennen, wird die Absurdität gänzlich offenbar.
Schlüsselwortdichte
Ebenfalls kritisch, da gegen den Gedanken einer hohen Qualität von Informationen verstoßend, ist die Optimierung der Seiten nach der Methode der sog. Schlüsselwortdichte.
Die Dichte der Schlüsselwörter kann manipuliert werden und dieses Verfahren ist an sich bei Suchmaschinen verpönt, funktioniert aber trotzdem wie die beiden folgenden - inzwischen berüchtigten - »Methoden« zeigen:
Cloaking-Scripts;
Doorway-Page;
Obige Seiten sollen lediglich Interessenten anlocken, sie enthalten aber nicht viel mehr als einen Link auf die tatsächliche Homepage. Gedacht waren diese Seiten ausschließlich für Homepages mit dynamischen Inhalten die von Suchmaschinen sonst ignoriert würden.
Des weiteren ist die Schlüsselwortdichte nicht (!) geeignet, die Qualität einer Seite zu beurteilen, da redundant aufbereiteten Informationsinhalten der Vorzug gegeben wird, anstatt »Datensparsamkeit« und kompakte Inhalte zu belohnen.
Anmelden bei Suchmaschinen
Melden Sie Ihre Homepage erst bei Suchmaschinen an, wenn sie »fertiggestellt« ist. Niemand ist an einer »Baustellenschild-Page« mit (leeren) Versprechungen und Vertröstungen auf »demnächst« interessiert.
Anmerkung: Natürlich ist eine Homepage im Normalfall niemals wirklich fertig, sondern wird normalerweise immer wieder geändert oder erweitert. Überprüfen Sie vor dem Suchmaschineneintrag unbedingt die Erreichbarkeit Ihrer Homepage einschließlich aller Unterseiten.
Und füllen Sie die Anmeldeformulare korrekt aus - geben Sie keine fremde oder falsche eMail-Adresse an.
Zur Erstellung der head-Informationen (Metatags) können Sie auch den Meta-Tag-Generator verwenden.
Suchmaschinenfreundliches Webdesign
Kleine Einstiegsseite (unter 65 kByte, einschließlich aller Grafiken), die alle wichtigen Informationen zur WebSite in Textform enthält und sich im Idealfall mit der Eingabe der Internetadresse (hier: http://www.free-solutions.de/) direkt ansprechen lässt.
Außerdem sollte die Homepage mindestens ca. 80 thematisch passende Begriffe enthalten, da sie so für Suchmaschinen »gehaltvoller« wirkt.
Die sichbare Größe der Homepage sollte eine Bildschirmseite nur dann überschreiten, wenn dies der Übersichtlichkeit dient. Sie sollte alle wichtigen Worte enthalten ohne eine allzu häufige Wortwiederholung. Die Elemente <h1> bis <h3> werden von vielen Suchmaschinen besonders beachtet, ebenso wie Wörter die mit dem <b>-Element bzw. <strong>-Element hervorgehoben werden.
Als Datei-Name der Einstiegsseite empfiehlt sich index, home bzw. default, je nach Servergrundeinstellung (default-Einstellung), sowie die dazugehörige Datei-Extension (meist htm bzw. html). Die Unterseiten sollten mit einem seiteninhaltstypischen Stichwort benannt und ggf. in einem namentlich dazu passenden Unterverzeichnis gestellt werden.
Im title-Tag jeder Seite einen kurzen aussagekräftigen Seitennamen vergeben (max. 64 Zeichen und bis zu 10 Wörter lang).
Anmerkung: einige Suchmaschinen listen die Ergebnisse einer Suchabfrage alphabetisch geordnet auf.
In der meta-Angabe description empfiehlt sich eine kurze, max. 20 Worte umfassende Beschreibung des WebSite-Inhalts mit 256 (bis maximal 1024) Zeichen, einschl. Leerzeichen. Auf die Verwendung des Kommas als Trennzeichen sollte verzichtet werden. Lieber kurze Sätze mit Punkt als Trennzeichen.
In der meta-Angabe keywords empfiehlt es sich, Schlüsselwörter, die die Seiten beschreiben, zu hinterlegen:
Die Beschränkung auf 256 (bis maximal 1024 Zeichen), einschl. Kommata und Leerzeichen ist zu beachten. Die Zahl hängt von der jeweiligen Suchmaschine ab. Allerdings scheinen einige Suchmaschinen mit längeren Wortlisten keine Probleme zu haben. Stellen Sie die wichtigsten Wörter an den Anfang der keyword-Liste.
Die Schlüsselwörter sind möglichst immer klein zu schreiben, da die meisten Suchmaschinen die Suchanfragen ohnehin nicht case-sensitiv verarbeiten und viele Suchmaschinennutzer außerdem alles (aus Bequemlichkeit) klein schreiben. [Ausnahme ist, wenn eine Suchmaschine case-sensitives Suchen per Option zulässt.] Auf die (Mutter-)Sprache der Schlüsselwörter achten, englische Wörter nur verwenden, wenn der Seiteninhalt bzw. das Angebot auch in Englisch zur Verfügung steht ...
Exzessive Wortwiederholungen sind zu vermeiden, kann sonst als »Spam« interpretiert werden.
Wörter, die einen hohen Allgemeincharakter haben, wie »Internet« oder »WebSite« stellen kein Alleinstellungsmerkmal dar und sind deshalb verzichtbar.
Schlüsselwörter immer im Plural verwenden, wenn das Singular darin enthalten ist. In Suchmaschinen ist Suchmaschine, in Tipps ist Tipp enthalten.
Die Empfehlung, Umlaute (ä / ö / ü) nicht mehr zu ersetzen (ae / oe / ue), sondern als Umlaute schreiben, findet sich immer wieder. Fakt ist, Suchmaschinen mögen vereinzelt Umlaute beherrschen, die internationalen Suchmaschinen haben nach wie vor Probleme damit - also lieber mehrere keywords verwenden, wie z.B.: Schluesselwoerter, Schluesselwort, Schlüsselwörter, Schlüsselwort. X(HT)ML-Dokumente dürfen überhaupt keine Umlaute und andere Sonderzeichen enthalten, die nicht als HTML-Entities codiert sind.
Ob meta-Tags nur in den ersten Seiten, also in der Hauptseite bzw. in den Seiten stehen sollten, die beim Aufruf als erstes im Frameset (einschl. der Frameset-Datei) angezeigt werden, oder in allen Seiten, darüber herrscht Uneinigkeit. Ein seitenkonformes Erstellen und Pflegen der meta-Tags empfiehlt sich in jedem Fall. Aber:
Einige Suchmaschinen verzichten inzwischen völlig auf diese meta-Tags, da in der Vergangenheit zu viel Missbrauch getrieben wurde.
Framesets bieten für die Navigation einer WebSite viele Vorteile. Für Suchmaschinen sind Frameset-Dateien meist »leer«. Legen Sie deshalb einen <noframes>-Bereich an, der das Body-Element umschließt. Hierin sollte ein Hyperlink auf die Homepage, wenn vorhanden, auf die SiteMap und andere wichtige Seiten des Internetauftrittes stehen.
meta-tipps
Eine Analyse fremder Seiten, die bei einem Suchergebnis ganz oben stehen, hilft, die eigenen Seiten für die Suchmaschinen anzupassen.
Um herauszufinden, welche der geplanten keywords noch einigermaßen »frei« sind, einfach in den Suchmaschinen nach diesen Begriffen suchen und die Suchergebnisanzahl beachten; je weniger Treffer, desto weniger »besetzt« sind die Begriffe (aber möglicherweise wird auch nur selten danach gesucht!).
Wenn Sie eine SiteMap haben, statten Sie diese mit den relevanten meta-Tags aus und melden diese bei den Suchmaschinen an. Die Suchmaschinen folgen den Links und indexieren dann alle verlinkten Seiten. Dies ist effizienter als eine Anmeldung der Homepage mit nur wenigen Links.
Ungünstig für Suchmaschinen
Bilder auf der Homepage anstatt Text. Folge: Die Bilder werden nicht ausgelesen (das alt-Attribut des img-Tag wird immerhin inzwischen häufiger berücksichtigt), die Homepage ist für die Suchmaschine praktisch »leer« und wird ignoriert.
Java-Applets oder Imagemaps als alleinige Navigationsmittel sind nicht zu empfehlen, alternativ ist die Verlinkung mit Text (ggf. kleingeschrieben) dringend anzuraten. .
In den Attributen der meta-Tags description oder keywords Angaben zu machen, die nichts mit dem Seiteninhalt zu tun haben führt zu falschen Ergebnissen des Suchenden und »vergraulen« diesen (vielleicht für immer).
Viele Suchmaschinen können mit Frames nichts anfangen und die entsprecheden Tags nicht auswerten. Auf keinen Fall sollten Sie deshalb den noframes-Bereich weglassen oder "Ihr Browser kann keine Frames darstellen ..." schreiben, sonderen statt dessen den framefreien Bereich pflegen: Hier hinein gehören Links zu den wichtigsten Bereichen der WebSite sowie ein Link auf die SiteMap.
Ebenfalls nicht zu empfehlen ist die Möglichkeit, blinde Links innerhalb des body-Tags unterzubringen: <a href="sitemap.html"></a> ist ein Link auf die SiteMap; da der a-Tag leer bleibt, ist er unsichtbar (blind). Dieser »Trick« funktioniert zwar noch, aber hat »Spam-Charakter«.
Scripts z.B. zur Navigation einsetzen, den noscript-Bereich weglassen oder "Ihr Browser unterstützt keine xyz-Scripts oder xyz-Script ist deaktiviert" reinschreiben, ohne den noscript-Bereich zu pflegen: Hier hinein gehören Links zu den wichtigsten Bereichen der WebSite sowie einen Link auf die SiteMap.
Scripts (Programmcode) am Anfang des Dokuments sind eher ungünstig. Dies kann Suchmaschinen zum Abbruch des Indexierens bringen. Deshalb Scripts erst direkt vor dem </head>-Tag einfügen.
Im title-Tag und auf der Einstiegsseite als Erstes "Willkommen auf meiner xyz-Page" schreiben, ist nicht informativ.
Zu viele Wiederholungen der Schlüsselwörter in den verschiedenen Tags (meta, title, <h1> usw.) wird eher negativ eingestuft. Ein sorgfältiger Umgang mit den Schlüsselwörtern ist hier angebracht.
Die Verfahrensweise, in einem auskommentierten Bereich die keywords des meta-Tags mit nachfolgender Tag-Schreibweise zu wiederholen:
<!-- keywords hier ohne Kommata wiederholen -->
kann inzwischen als obsolet betrachtet werden, da die meisten Suchmaschinen diese Bereiche inzwischen ignorieren bzw. negativ (spam) bewerten.
Nicht zu empfehlende »Tricks«
Schriftfarbe und Hintergrundfarbe (HTML-Code) dürfen nicht den gleichen Wert aufweisen - sog. »versteckter Text«. Folge: Normalerweise werden solche Seiten nicht aufgenommen.
Leider verbreitet sich immer häufiger die Un!-Sitte, statt dessen mit einem zur Textfarbe (mit CSS codiert) passenden Hintergrundbild (ggf. ebenfalls mit CSS eingefügt) bei sonst »andersfarbiger« HTML-Hintergrund- und Text-Farbeinstellung zu tricksen (sog. Doorway-Pages - hier ein »dynamisch« erzeugtes Beispiel, welches daher in keiner Suchmaschine zu finden ist).
Extensiver Gebrauch (mehr als drei Mal) eines gleichen Schlüsselwortes im meta-Tag keywords.
Strategien mit unklarem »Wert«
Die Größe einer Internetseite gilt als unklarer Faktor. Einerseits findet sich der Tipp, die Inhalte möglichst auf viele Einzelseiten aufzuteilen, zum Anderen auch genau der gegenteilige Tipp, alles zum Thema gehörende möglichst in eine Datei zu packen.
Hier ist sicherlich Pragmatismus der klügste Weg:
Sollte die Lesbarkeit durch zu viele Fragmente (Seiten) beeinträchtigt sein - die Möglichkeit des Druckes ist hier auch abzuwägen -, ist eine einzelne Datei sinnvoller. Lässt sich ein umfassendes Thema jedoch gut und übersichtlich in »Kapitel« aufteilen, so ist eine Teilung durchaus zweckmäßig - dies erleichtert auch die Pflege des Inhaltes. Das Auslagern von Details in eine extra Datei ist hier u.U. passender als ein »zerstückeln« der Informationen mit sehr unterschiedlicher Detailtiefe.
Umleitseiten: In jedem Unterverzeichnis, das prinzipiell keine »default«-Seite enthält, ist eine HTML-Seite einzufügen und mit dem meta-Tag zu versehen, welches automatisch auf die Homepage umleitet, wie z.B.:
<meta http-equiv="refresh" content="1; url=../index.html">
(1 steht für eine Sekunde; ../ steht für eine Verzeichnisstufe tiefer)
Diese Seite sollte auf jeden Fall einen kurzen Text und mindestens einen Link auf die Homepage, ggf. auch auf andere wichtige Seiten enthalten.
Allerdings:
Einige Suchmaschinen sollen diesen meta-Tag fehlinterpretieren und sperren solche Seiten (meist dann, wenn das Ziel eine andere Domain ist). So kann alternativ auch ein JavaScript die Umleitung übernehmen:
<script type="text/javascript"><!--
setTimeout('window.location.href="http://www.free-solutions.de/index.html"',1000);
// --></script>
Zu Beachten ist, dass mit window.location.replace("http://www.free-solutions.de/index.html"); die aktuelle Seite (der History) überschrieben wird und damit bei "zurück"-Aktionen die Umleitseite nicht aufgerufen wird.
Bisher ist nicht bekannt, dass Suchmaschinen JavaScript ausführen, während bei WebKatalogen die eingetragenen Seiten zum Teil tatsächlich »von Hand« begutachtet werden.
Aber:
Dem Umleitgedanken geht die Überlegung voraus, die Anzeige der »berüchtigten« 404-Fehlermeldung zu verhindern und den Besucher gleich zu einer passenden Seite zu leiten. Innerhalb einer Domain ist dies sicherlich von Nutzen.
Bei einigen Browsern lässt sich das Verhalten bei meta-Weiterleitungen oder bezüglich JavaScript so ändern, dass diese Techniken abgeschaltet werden können und die »Umleitseite« bleibt angezeigt.
Umleitseiten mit JavaScript, die als Browserweiche oder als Auflösungsweiche fungieren können ebenfalls für Suchmaschinen zum Problem werden. Ggf. sollten solche Scripts als .js-Dateien ausgelagert werden.
Ausnahmen:
Soll das Verzeichnis durchsuchbar sein, darf keine default-Seite existieren.
Die Startseite selbst sollte nicht automatisch auf eine andere Seite umgeleitet werden - solche »Sammelseiten« werden von Suchmaschinen meist ignoriert.
Dublin Core Metatags sind faktisch ein von Suchmaschinen kaum genutzter Standard - daher ist die Verwendung dieser meta-Tags fragwürdig. Lediglich fireball soll diese meta-Tags auslesen.
[Diese Seite enthält testweise zusätzlich die meta-Tags nach dem Dublin-Core-Standard.]
Weitere Informationen zu Suchmaschineneinträgen
Suchmaschinen listen mitunter bevorzugt Seiten auf, die erst kürzlich angemeldet worden sind. Allerdings ist ein wiederholtes Anmelden alle paar Monate (maximal monatlich) bei Suchmaschinen nur bedingt zu empfehlen, besser ist es, die meta-Tags aussagekräftig und individuell (»alleinstellend«) zu formulieren.
Die Frage nach der Zeitdauer, ab wann eine Suchmaschine die angemeldeten Seiten frühestens als Ergebnis einer Suche listet, kann nur schwer beantwortet werden.
robots.txt
Die Bedeutung der robots.t(e)xt sollte nicht zu hoch angesetzt werden.
Viele Suchmaschinen erwarten im Wurzelverzeichnis (Root/Internetadresse z.B.: http://www.free-solutions.de/robots.txt) die Datei robots.txt (Buchstaben klein schreiben!). Fehlt die Datei, gibt der Host-Server eine 404-Fehlermeldung an den Suchmaschinen-Robot zurück.
Die robots.txt enthält Informationen für Suchmaschinen, z.B. welche Suchmaschinen besondere Anweisungen erhalten sollen oder welche Verzeichnisse durchsucht bzw. nicht durchsucht und/oder welche Dateien indexiert bzw. nicht indexiert werden sollen.
Aber: Nicht alle Suchmaschinen halten sich an die Anweisungen der robots.txt, trotzdem sollte sie nicht fehlen.
Wichtig: Achten Sie auf die richtige Schreibweise, falsch ist robot.txt (also ohne »s«) - kommt immer wieder vor (selbst in Büchern - ist aber trotzdem falsch).
Das Internet sollte vorwiegend ein Informationsmedium bleiben.
Beispiel: Seiten von rein privatem Interesse, wie z.B. bei "Hochzeitsbilder von ...", empfiehlt es sich, meta-Tags einzufügen, die eine Indexierung zu vermeiden: <meta name="index" content="noindex,nofollow"> ist hier wahrscheinlich der bessere meta-Tag für eine entsprechende Seite, auf der solche Inhalte stehen. Dies setzt allerdings eine ordentliche Strukturierung der Homepage in einerseits »allgemein-informativen« und andererseits eher »persönlich-privaten« Bereich voraus.
# (1. Zeile) alle robots erlaubt; sonst namentlich einschränken
# (2. Zeile) ausgeschlossene Verzeichnisse vom Spidern; wenn leer - keine Einschränkung
# (3. Zeile) die Datei Quanten.html darf trotzdem von Robots ausgelesen werden.
Im obigen Beispiel sind alle Suchmaschinen erlaubt * und das Verzeichnis hochzeit/ ist - bis auf Quanten.html - von der Indexierung ausgeschlossen. Kommentaren wird ein Gatterzeichen: # vorangestellt.
In den Pfad-/Datei-Angaben sind Wildcards wie * oder *.* nicht erlaubt.
Verzeichnisse müssen mit einem Schrägstrich abgeschlossen werden - sonst sucht die Suchmaschine nach einer entsprechend benannten Datei.
Angedacht: Wenn Sie neue Seiten in Ihre Homepage eingefügt haben, können Sie diese mit Allow: in der robots.txt den Suchmaschinen bekannt gemacht werden.
Sonderfälle
User-agent: *
Disallow: /
Obiger Text sperrt alle Suchmaschinen-Robots aus.
User-agent: *
Disallow:
Obiger Text erlaubt eine vollständige Indexierung.
Angaben in der robots.txt werden von WebBrowsern ignoriert. Weiter kann man sich diese Datei jederzeit anzeigen lassen. Zugangszuschützende Bereiche müssen also ggf. nicht nur von der Indexierung ausgeschlossen werden, sondern z.B. mittels der .htaccess-Datei entsprechend gesichert werden.
Verärgerte Surfer
Entscheidend ist, darauf zu achten, dass die Suchmaschinenindexierung nach den zutreffenden Begriffen erfolgt. Berechtigt verärgerte Surfer könnten sonst auf die Idee kommen, Ihre Seite(n) bei einzelnen Suchmaschinen als anstößig zu melden (bei Google z.B. unter: http://www.google.com/contact/spamreport.html ). Sollte die URL Ihrer Homepage erst einmal von einem Suchmaschinenbetreiber gesperrt sein, wird diese Sperre nicht mehr so schnell aufgehoben.