Seo Kurs Teil 1 Ergänzungen zu den Kursfolien
Suchmaschinen Optimierung
Sascha Frank
17.08.2008
Inhalt Kurs Teil 1
1 Ablauf und Ziele des Kurses
2 Einführung
2.1 Begriffe
3 Basis Optimierung
3.1 Domain
3.2 On Page
3.3 Off Page
4 Fazit und Ausblick
4.1 die ersten Antworten
4.2 OCP
1 Ablauf und Ziele des Kurses
Die vier Kurstage sind wie folgt aufgeteilt:
- Grundlagen
- Analyse
- Fortgeschrittene Methoden
- Off Topic, im vierten Teil wurde unter anderem auf die Wunschthemen der Kursteilnehmer eingegangen.
Unser Ziel
Eines der ersten Ziele des Kurses, ist die optimierte Präsentation des Inhalts (= OCP Otimize Content Presentation) einer Website. Sowohl für Menschen als auch für Suchmaschinen.
Warum setzen wir Mittel der Suchmaschienenoptimierung ein? Da wir im allgemeinen eine Website nicht zum reinen Selbstzwecke erstellen, ist man als Betreiber daran interesiert Nutzer für die Inhalte der Site zu bekommen. Eines der Ziele des Kurses ist es aus Surfern Nutzer zu machen. Das bedeutet nicht, daß wir viele Besucher haben wollen, sondern das wir Besucher die unsere Inhalte suchen erreichen wollen.
In welchen Situationen können wir OCP anwenden?
Launch
(Vor dem) Start eines Projektes
Re-Launch
Bei der Neuausrichtung eines Projektes
Kontrolle
Zur Verbesserung eines Projektes
Job
Im Berufsleben
- Deep vs. Surface Web
Als Surface Web wird der offene und damit auch für Suchmaschinen erreichbare Teil des Internets bezeichnet. Der Teil des Internets der, aus welchen Gründen auch immer, für Suchmaschienen nicht erreichbar ist wird als Deep web bezeichnet. Das Deep Web ist deutlich größer als das Surface Web. Seinen genau Größe ist aber unbekannt. Einschränkend muss dabei erwähnt werden das es viele Daten in roher Form enthält, die für die Mehrzahl der Nutzer nicht von Interesse ist.
- bekannt vs. indiziert
Von den bekannten Websites wird nur ein kleiner Prozent (ca. 1 %) in den Index einer Suchmaschinen aufgenommen.
- Echtzeit?
Suchmaschinen führen in der Regel keine Echtzeitsuche des WWW bzw. Internets durch, vielmehr durchsuchen sie ihren Index.
- Ergebnisse ?
Die Ergebnisse einer Suchmaschine, kurz SERPs für Search Engine ..., sind im Allgemeinen begrenzt. Zwar werden u.U. mehrere Million Treffer angezeigt aber nur etwa 800-1200 Adressen zum Suchausdruck angezeigt.
Daher ergeben sich folgende Fragen:
- Wie kommen wir ins Surface Web? Einfach eine Website erstellen reicht nicht aus!
- Wie werden wir indiziert?
- Wie schaffen wir es in die Serps?
- Und wie kommen wir dort an die Spitze?
2 Einführung
2.1 Begriffe
- später ... zuerst
Zuerst klären wir einige Begriffe die Laufe des Kurses oft verwendet werden.
- Homepage
Die Homepage ist die Seite auf die der Nutzer gelangt, wenn er nur die URL der Domain eingibt zum Beispiel www.example.org, in der Regel die index.html
- Webseite
eine Seite bzw. Unterseite mit einer (eigenen) URL
- Website
alle Webseiten,die Homepage und alles was sonst noch in dieser Internetpräsenz ist bilden zusammen die Website
Da der Begriff Suchmaschinen Optimierung oft mit Suchmaschien-Marketing und Spamming verwechselt bzw. vermischt wird, beginnen wir mit einer kurzen Definition dieser Begriffe.
SEO, die präsentierte Daten sollen durch Nutzer leichter gefunden werden.
Das Ziel von SEO ist es, durch die Optimierung der Seite für eine Suchmaschiene, für die Nutzer dieser Suchmaschiene das auffinden von Daten bzw. Informationen, die sich auf dieser Seite befinden zu erleichtern. Auch wenn oft angenommen wird, dass das Ziel von SEO einer der vorderen Platzierungen bei den Suchmaschienen zu erreichen ist. Dieses Ziel wird aber relativ schnell nachrangig wenn es nicht für die Suchbegriffe die die Nutzer benutzen durchgeführt wird. So sollte das Ergebnis einer SEO sein, dass die Nutzer von Suchmaschienen, die relevanten Informationen finden. Da man in der Regel als Webseitenbetreiber seine Nutzer nicht kennt bzw. die potentiellen nicht kennen kann, bleibt meist nur der Weg über die Suchmaschienen Optimierung um eine Optimierung aus Sicht der Nutzer zu erstellen.
Die Fixierung auf die Platzierung führt leicht in die Irre, da nicht bekannt ist mit welchen Suchanfragen Nutzer die Information zu suchen, wenn sie die Seite nicht finden. Daher bieten die Suchanfragen die sich in den Log-Files bieten im besten Fall nur ein unvollständiges Bild und im schlechsten ein absolut falsches. Die dortigen Suchanfragen zeigen nur die Anfragen die erfolgreich zur Webseite geführt haben und nicht jene die nicht zur Seite geführt haben. Bei den erfolgreichen Anfragen ist es sehr wahrscheinlich, dass sich die Seite für diese Begriffe unter den ersten 30 Ergebnissen ist.
Es kann daher sinnvoll sein, seltene Suchbegriffe auf ihre Platzierung hin zu untersuchen und ggf. zu optimieren.
Eine weitere Farge ist: Welche Suchbegriffe lohnen sich eigentlich? D.h. welche Suchbegriffe erzeugen Nutzer und nicht nur Besucher. Als Beispiel sei hier meine Seite zum Textsatzsystem LaTeX genannt, der Begriff Latex würde zwar viele Besucher aber kaum Nutzer generieren und auf der anderen Seite würden die Surfer nicht die von ihnen gewünschten Informationen erhalten.
SMO (virtuelle Gemeinschaften)
Social Media Optimizing ist ein mehr oder weniger schwammiger Begriff zu dem es zum jetzigen Zeitpunkt noch keine griffige Definition gibt; kurz gesagt geht es darum mit Hilfe der social communities (social Bookmarks, etc. pp.) eine bessere Platzierung zu erreichen.
SEM (Suchmaschienen Marketing) Gekaufte Anzeigen im Umfeld der Ergebnislisten.
Im Gegensatz zum SEO, bei dem der Suchende die Seite quasi von alleine findet, werden beim SEM, Anzeigen in den Ergebnislisten der Suchanfragen gekauft. Beispiele dafür sind das Einfügen von sogenannten sponsered links vor bzw. neben der Ergebnisliste.
Ein bekanntes Beispiel hierfür sind die Google AdWords.
SES (Suchmaschinen Spamming) Durch Manipulation wird die Platzierung erhöht.
Es gibt vielfältige Möglichkeiten Suchmaschienen zu manipulieren, da dies aber auch den Suchmaschienenbetreiber bekannt sind bzw. bekannt werden, ist der Erfolg meist nur von kurzer Dauer.
3 Basis Optimierung
3.1 Domain
TLD : Top Level Domain
URL : Adresse bzw. Name
Struktur : Aufbau der Domain
Server
Informationen
TLD Oft werden folgende fünf Top Level Domains verwendet:
.de für Deutschland
.com / .info / .net / .org diese waren früher für
US-Unternehmen,Informationsanbieter,Netzverwaltungseinrichtungen und Non-Profit-Organisation bestimmt, sind aber inzwischen frei verfügbar.
Keine TLD sind Konstruktionen wie etwa *.de.vu
Name (Domain)
Eines vorneweg: Für Suchmaschinen hat der Name KEINE Bedeutung! Auch wenn das viele glauben. Auf die Gründe für diesen Trugschluss gehen wir später ein.
Wahl des Namens
- Inhaltsorientiert
Eine Ansicht die oft vertretten wird, ist das der Domain in einem Zusammenhang zum Inhalt der Website stehen soll. Dabei wird unter anderen übersehen, das zu einem die Anzahl von aussagekräftigen Domainnamen (URLs) begrenzt ist und es auf der anderen Seite markenrechtliche Bedenken geben kann.
- Markenrecht
Bei der Wahl der Domain sollte auf jeden Fall zuerst geprüft werden ob dieser oder ein ähnlicher Name als Marke geschützt ist. Es gilt nicht immer das Prinzip wer zuerst kommt mahlt zuerst.
- Kurz
Domainnamen sollten kurz sein. Das hat den Vorteil, die Nutzer können sich den Namen leichter merken und deshalb auch (verbal) andere Nutzer über die Website informiern. Zudem gibt es zum Beispiel Webkataloge und andere Verzeichnisse bei denen eine maximale URL Länge existiert, so daß es bei einer überlangen URL bei Eintragungen zu etwaigen Problemen kommen könnte.
- Fantasie
Der Vorteil bei Fantasienamen, die man sich selber ausgedacht hat, ist, dass es in der Regel keine Markenprobleme gibt. Aber dafür der Bezug zum inhaltlichen Angebot der Website nicht existiert. Diesen Nachteil machen Fantasienamen aber meist durch ihren positiven Einfluß auf die Linkstruktur wieder wett.
Aufbau der Domain
- Verzeichnis Strukur
Die Tiefe der Website prägt das Indizierungsverhalten der Suchmaschinen, flache Strukturen sind besser als tiefe.
- Verzeichnis Namen
Durch eine geschickte Namesgebung erreicht man, dass das Keyword der Name eines Verzeichnises ist.
- Datei Namen
Die Automatisierung bei der Erstellung von Dateien hat den großen Nachteil, dass die dabei entstehenden Dateinamen nichts mehr über den Inhalt der Datei aussagen. Und da Menschen inhaltsaddresiert ihre Erinnerung "abspeichern" kommt es ihnen sehr entgegen wenn aus dem Dateinamen auf den Inhalt der Datei geschlossen werden kann. Zum Beispiel hat ein Dateiname wie er bei Bilder häufig vorkommt 000002345.jpg wenig Informationen, um genau zu sein nur eine - es ist (sehr wahrscheinlich) eine Datei im JPEG Format, der Inhalt wird nicht ersichtlich. Anders im Fall von Torri_Miyajima_bei_Ebbe.jpg, hier ist anzunehmen, dass das Bild das Torri auf der Insel Miyajima bei Ebbe zeigt. Die Html Dateien sollte auch Inhaltsbasierte Dateiname erhalten und nicht etwa durchnummeriert werden ala Seite1.html, Seite2.html usw..
- Sitemap
Eine Sitemap entspricht einer Landkarte nur eben für Websites, ohne allzu vermenschlichen erleichtern solche Sitemaps den Crawlern der Suchmaschinen ihre Arbeit. Besonders zu empfehlen bei relativ großen Seiten. Programme die zum Generieren von Sitemaps gebraucht bzw. benützt werden können, werden unter anderem von den Suchmaschinen selbst zur Verfügung gestellt.
Server
- Robot.txt
Die Robot.txt ist eine Textdatei in der Anweisungen für die Spider, Crawler und Bots der Suchmaschinen stehen. Dies dafür genutzt werden Bots bestimmter Suchmaschinen abzuweisen um so eine Indexierung zu unterbinden, auch kann für alle Bots das Untersuchen der Website bzw. von Teilen der Website, d.h. von Verzeichnissen verhindert. Eine weiter Komponente ist die Angabe einer Zeitspanne (delay) die mindestens zwischen den einzelnen Aufrufen liegen muß. Aber die Robot.txt bringt nur etwas wenn sich der Bot daran hält, sie ist daher keine Möglichkeit bestimmte Verzeichnisse vor unbefugtem ansehen usw. zu schützen. Siehe auch www.searchcode.de/robotstxt.php
- Logs
In den Logfiles werden die Zugriffe auf den Server, d.h. hier die Besuche der Website, protokoliert. Anhand dieser kann bestimmt werden, woher der Besucher kommt, wie lange er auf der Website war und was er sich angeschaut hat. Kam der Besucher von einer Suchmaschine auf diese Website erfährt man in der Regel auch das Suchwort mit dem er die Website gefunden hat. Aber wir können nur die Besucher erfassen die unsere Seite angeklickt haben. Und erfahren nichts über die anderen. Interesant sind sie auch um heraus zu bekommen was die Besucher interesiert, sind es echte Nutzer der Seite oder nur fehlgeleitete 5 Sekundenbesucher?
- Subdomains
- Weiterleitungen
3.2 On Page
Der Ausdruck On Page deutet schon darauf dass es sich bei diesen Faktoren um Elemente der Website bzw. der Webseiten handelt. Diese Elemente lassen sich im Gegensatz zu denen des Domainbereiches, auch noch im Nachhinein relativ leicht abändern und optimieren. Analog zum Aufbau einer Html Datei, die aus dem Head- und dem Bodybereich besteht, können die On Page Elemente in diese zwei Bereiche aufgeteilt werden.
META TAGs: Ergänzende Informationen über die Seite.
HTML TAGs :Darstellungssprache.
Links: Verweis auf andere Informationsquellen.
Meta Tags
- title
Titel der Datei, im wesentlichen wie das Title Tag in Html.
- description
Wird zum Teil von Suchmaschinen bei der Präsentation der Suchergebnisse angezeigt und dient daher auch der Gewinnung von Besuchern und sollte deshalb ehrlich, aussagekräftig und informativ sein. Auch hier gilt, weniger ist mehr.
- keywords
In etwa 5 Stück. Spielen seit dem Meta Tag Spamming Ende der 1990er keine bzw. kaum eine Rolle mehr.
- robots
Hier kann ähnlich zur Robot.txt den Bots mitgeteilt werden, ob diese Seite indiziert index bzw. nicht indiziert noindex werden soll und ob die ausgehenden Links weiter verfolgt werden sollen follow oder eben nicht nofollow. Nur wird es hier für nur eine Webseite eingestellt.
- revisit-after
Stellt den Bots gegenüber eine Empfehlung dar, in welchem zeitlichen Abstand die Seite auf neue Inhalt Content hin besucht werden sollte. Neben den fünf genannten Meta Tags gibt es noch eine Vielzahl anderer, die aber m.E. weniger wichtig sind.Siehe auch www.drweb.de/seo/metatag_generator.shtml
Html Tags
- Titel
Das wichtiges Html Element überhaupt ist der Titel. Er beschreibt in kurzer Form die Inhalte der Seite, d.h. keine reine Ansammlung von Keywords.
- Überschriften
Dienen der Gliederung eines Textes bzw. eines Dokumentes, in Html gibt es sechs Klassen von Überschriften <h1> bis <h6> und es gilt kleine Zahl große Wirkung.
- Textauszeichnung
Elemente der aktiven Textauszeichung wie kursiv, fett und unterstrichen.
- Grafiken
Bei Grafiken und Bilder ist es sinnvoll das alt wie auch das title Tag zu setzen. Es gibt mehrere Gründe so zu verfahren, zum einen berücksichtig es auch Nutzer, die aus welchen Gründen auch immer die Bilder nicht sehen können, zum anderen die Suchmaschinen die keine Bilder sehen können.
- Tabellen
Bei Tabellen kann der Inhalt in Form einer Überschrift mittels des caption Tags gezeigt werden.
Links
- Mensch
Links sind in erster Linie für Menschen als Hilfe bei der Orientierung gedacht. Und zum Teil gint es die Empfelung, Links die ausschliesslich für Menschen gedacht sind, wie etwa der Link zum Kontaktformular oder zum Impressum mit einem nofollow Tag zu versehen um die anderen Links in ihrer Wirkung auf die Suchmaschinen nicht abzuschwächen.
- Maschine
- Website
Strukturlinks
- Seiten
interne Querverweise
3.3 Off Page
Hierunter fallen alle Faktoren die von außen die Platzierung einer Website beeinflussen können. Hier im besonderen Link auf unsere Website und woher sie stammen können.
Inhalt
Der Inhalt der Seite ist massgeblich für die Verlinkung. Da dieser
darüber entscheidet ob ein anderer Webmaster diese Website verlinkt oder nicht. Es gibt deutlich erkennbare Unterschiede zwischen den verschiedenen Inhalten und der Anzahl an Links die gesetzt werden. So ist es für die Website eines Models wesentlich einfach Links zu erhalten, als für die einer Tanzschule oder eines Tanzvereins.
Bekannte: befreundete Webmaster
Ein klassicher Tip: Familie, Freunde, Bekannte, Liferanten und Kunden die über eine Webpräzens verfügen auf die Website aufmerksam machen und gegeben falls um einen Link bitten. Hat aber unter Umständen den Nachteil dass diese im Gegenzug auch einen Link zurück erwarten.
Verzeichnisse wie
www.dmoz.org
Linktausch bzw. wechselseitige Verlinkung
- Webkataloge
- Linklisten
- Blogs
- Artikelverzeichnisse
- virtual social networks
Webkataloge
- Vorteile
Zum Großteil kostenlose Einträge möglich auch ohne Backlink zu setzen. Aber bei den großen Katalogen ist die Dauer bis ein Eintrag vorgenommen wird relativ lange und kann ggf. nur durch einen Backlink bzw. durch Bezahlung erreicht werden.
- Nachteile
Insbesondere unter den kostenlosen und backlinkfreien Katalogen ist der Anteil derer die nicht von den Suchmaschinen berücksichtigt wird groß, so daß es fraglich ist ob sich ein Eintrag rechnet.
- Zukunft?
Es scheint absehbar zu sein, daß die readaktionslosen Kataloge langfristig keine Bedeutung mehr haben werden, und die Einträge darin nicht mehr von Suchmaschinen - im Sinne eines positiven Backlinks - beachtet werden.
Linklisten
- Vorteile
Sehr schnell Aufnahme neuer Links möglich, zum Teil in Echtzeit.
- Nachteile
Es trennt sie nicht viel von den Linkfarmen, zwei Unterschiede es steht eine mehr oder weniger kurze Beschreibung mit dabei und es gibt zum Teil eine thematische Einordung der Seiten.
- Zukunft?
Linkliste stehen vor dem Aus. Die Rolle als Liferant für thematisch geordnete Links wird zunehmend von den social bookmarks übernommen. Aber gut gepflegte Linkliste die auch als Linkhubs bezeichnet werden, werden auch in Zukunft eine Rolle spielen.
Blogs
- Vorteile
Die Information wird innerhalb sehr kurzer Zeit an die Suchmaschienen weiter gegeben.
- Nachteile
Werden zum Teil bereits massiv als Spamschleudern missbraucht - Gästebuch2.0 läßt grüßen.
- Zukunft?
Es bleibt wünschenwert wenn die Anzahl der Ergebnisse die auf Blogs verweisen rückläufig ist.
- Alternativen?
Einen eigenen Blog starten.
Artikelverzeichnisse
- Vorteile
Durch relativ kleine Artikel lassen sich Backlinks generieren.
- Nachteile
Die Struktur und der Aufbau der meisten Verzeichnisse stehen dem Erfolg entgegen.
- Zukunft?
Es ist mit weiteren Herabsetzungen zu rechnen, da es bekannt ist bzw. beworben dass diese sich als Backlink Quellen zur Verfügung stellen.
- Alternativen?
Anstelle gekaufte Artikel in einem Verzeichniss zu bunkern lieber eine eigene Verzeichnisseite erstellen und damit die Kontrolle über die Backlinks zu besitzen. Oder ganz einfach den Inhalt nutzen um die Attraktivität der eigenen Website zu erhöhen.
virtual social networks
- Übersicht
Bei Social Bookmarks werden Webseiten von Nutzer empfohlen. Es basiert auf der Idee, dass die eigenen Bookmarks anderen Nutzer zur Verfügung gestellt werden, nach dem Motto "was einem gefallen hat, könnte auch einem anderen gefallen ". Meist gilt der Grundsatz je mehr Nutzer ein und dieselbe Webseite für einen bzw. mehrere Begriffe empfohlen haben desto besser. Kurz gesagt es handelt sich um einen bearbeiteten Webkatolg in Kombination mit Linkpopularität. Um eine Webseite vorschlagen zu können muß man in der Regel Mitglied sein. Ein Großteil des Angebotes ist in Englisch, aber es gibt auch deutschsprachige Dienst dieser Art bzw. deutschsprachige Ableger.
- Vorteile
Die mögliche Bandbreite der Themen (und damit der möglichen Zielurl) groß.
- Nachteile
Noch sind relativ einfach Manipulationen möglich. Die Kosten sind gering. Die Manipulationen müssen in Zukunft stärker verfolgt werden.
4 Fazit und Ausblick
4.1 die ersten Antworten
Mit Hilfe der externen Verlinkung werden die ersten zwei Fragen beantwortet, falls man dennoch seine Seite direkt bei den Suchmaschinen anmelden will gibt es hier die Adressen:
Google
http://www.google.de/addurl/
Yahoo
http://de.search.yahoo.com/info/submit
MSN
http://search.msn.com/docs/submit.aspx
BAIDU
http://www.baidu.com
Spätesten jetzt sollten wir wissen was Suchmaschinen Optimierung nicht ist.
Keine Anmeldung in 600 Suchmaschinen.
Der Name spielt für Suchmaschienen keine Rolle.
Bei Links entscheidet die Qualität nicht Quantität.
Gästebuch2.0 Blogspam und ähnliches sind nicht Teil der Suchmaschinen Optimierung
File translated from
TEX
by
TTH,
version 3.81.
On 17 Aug 2008, 13:08.