4.1 Metatags

Auszug aus der Treffer-Liste eines Suchdienstes (http://metager.de) nach der Stichwort-Eingabe "metatags html":

7 ) ** Homepages und Seiten mit Metatags für Suchmaschinen optimieren

http://www.suchmaschinen-magazin.de/
Wie man Homepages und Web Seiten mit Metatags und anderen Tricks perfekt für Suchmaschinen optimieren

Titel
Adresse
Beschreibung

Um den Such-Diensten die nötigen Angaben zur Abfrage und zur Auflistung von betreffenden Seiten zu ermöglichen, sollten im Minimum drei Festlegungen im Dokument getroffen werden: der Seitentitel (Title-Tag), eine Liste von Suchbegriffen (Keywords) und eine Beschreibung des Seiteninhalts (Description).

Suchbegriffe und Beschreibung können dazu (neben anderen Informationen) im Kopf eines HTML-Dokuments durch sogenannte "Meta-Tags" vorgegeben werden. Mit der Registrierung einer Site werden dann diese Vorgaben von vielen Such-Diensten in ihre Datenbanken aufgenommen.

Syntax:  <META name="..."" content="...">

<HEAD>
 

<meta name="description" content="Beschreibungstext">
<meta name="keywords" content="Oldtimer, Ankauf, Verkauf, Reparatur, ...">
<meta name="copyright" content="Paul Förterer">
<meta name="robots" content="index, follow">

</HEAD>

name content
description bestimmt den Text, der zur Kurz-Beschreibung der Seite angezeigt wird. (prägnant, interessant, ca. 2 Zeilen)
keywords leitet eine Wortliste ein, in der für den Seiteninhalt relevante Begriffe durch Kommata getrennt aufgeführt werden. (256, teils 1024 Zeichen)
copyright gibt die Person oder Firma an, die das Kopierrecht für die Seite besitzt.
robots {index|noindex} - erlaubt bzw. verbietet einer Suchmaschine die Registrierung des betreffenden Dokuments. {follow|nofollow} - erlaubt bzw. verbietet die Registrierung von nachfolgenden (verlinkten) Dokumenten.

Weitere Meta-Tags (für Suchmaschinen):

<HEAD>
 

<meta name="content-language" content="de">
<meta name="author" content="Ihr Name">
<meta name="revisit-after" content="14 days">
<meta name="page-topic" content="Tiere">
<meta name="page-type" content="Homepage">
<meta name="audience" content="alle">
<meta name="date" content="2000-03-30T08:49:37+00:00">
<meta name="generator" content="Dreamweaver">

</HEAD>

name content
content-language gibt die Sprache des Dokumententext an ("de")
author gibt den Namen des Autors (d.h.: des inhaltlich Verantwortlichen) für die HTML-Datei an.
revisit-after schlägt mit z. B. "14 days" eine Zeitspanne vor, nach der ein Such-Robot die Seite erneut lesen und registrieren soll.
page-topic führt ein/zwei Schlagwörter zur Kategoriesierung auf
page-type gibt die Art der Seite an (Homepage, gewerblich,...)
audience führt auf, an wen sich die Seite richtet.
date gibt das Datum der Publikation bzw. der letzten Aktualisierung an. Format: "Jahr-Monat-Tag" evt. ergänzt durch "TStunde:Minute:Sekunde +Abweichung von der Greenwich-Zeit" in Stunden und Minuten.
generator gibt den Namen des Programms an, mit dem die Seite erstellt wurde. Primär nur für die Hersteller solcher Programme inetressant.

weitere Meta-Tags (zum Handling der Seite):

Syntax:  <META http-equiv="..."" content="..."> ("equivalent")

<HEAD>
  <meta http-equiv="content-type" content="text/html; charset=iso-8859-1">
<meta http-equiv="content-language" content="de">
<meta http-equiv="expires" content="0">
<meta http-equiv="pragma" content="no-cache">
</HEAD>

http-equiv content
content-type beschreibt den Typ des Dokuments und gibt den verwendeten Zeichensatz an. Dadurch wird z. B. eine Maskierung der deutschen Umlaute unnötig.
content-language "de" gibt die Sprache des Dateiinhalts an
expires gibt eine Zeitspanne in Sekunden oder ein Datum an, nach dem die Seite auf jeden Fall wieder als Original vom Webserver und nicht aus einem Cache geholt werden soll. "0" bestimmt z.B., dass ein Browser, die Seite nur vom Webserver und nicht aus einem Proxy holen soll.
pragma "no-cache" - gibt an, dass die Datei nicht auf einen Proxy-Server gespeichert werden soll.

Die Datei "robots.txt"

Als Gegenteil der Bekanntmachung taucht auch manchmal das Problem auf, wie ggf. Dokumente vor Suchmaschinen und Spider verborgen werden können. Dazu kann eine Datei "robots.txt" im root des webs angelegt werden, die für alle Suchmaschinen oder für bestimmte den Zugriff auf einzelne Verzeichnisse untersagt:

User-Agent: *

# für alle Agenten gilt

Disallow: /statistik/
Disallow: /temp/


Top  Previous  Next