Übersicht
- Application Programming Interface (API)
- Adsense
- Algorithmus
- Arbitrage
- Backlink
- Bad Neighborhood
- Bindestrich
- Blacklist
- Bridge Page (Brückenseite)
- Browser
- Cascading Style Sheets (CSS)
- Click Popularität
- Cloaking
- Comment
- Conversion Rate
- Cookie
- Cost per Click (CPC)
- Crawler
- Cross Linking
- Deep Links
- Deep Web
- Description Tag
- Domain
- Domain Popularity
- Frames
- Feeds
- HTML Tags
- Headline Tags
- Hidden Text
- Interne Link Popularity
- IP-Adresse
- Page Impression (Seitenabruf - PI)
- Page View (Seitenaufruf)
- RSS
- Surface Links
- Surface Web
- Uniform Resource Locator (URL)
- Unique Visit (gezählte Besuch einer Webseite)
- Usenet
- Web 2.0
Glossar
Hier finden Sie kurze Erläuterungen zu wichtigen Fachtermini
Application Programming Interface (API)
API ist die Abkürzung von Application Programming Interface. Hierbei handelt es sich um eine Schnittstelle für die Anwendungsprogrammierungen. In den letzten Jahren konnte sich die API Schnittstelle als eine der wichtigsten Schnittstellen unter den Programmierern durchsetzen. API ist die Schnittstelle zwischen dem zu programmierenden Gerät und dem einzelnen Programm. API bietet die Möglichkeit sehr komplexe Funktionen durch wenige, einfache Befehle auszulösen. Das Application Programming Interface verkürzt den Zeit- und Arbeitsaufwand für die Programmierer sehr. Einzelne Arbeitsschritte werden stark optimiert. Einem breiten Publikum wurde der Begriff API in Verbindung mit der Suchmaschine Google bekannt. Google stellt seinen registrierten Benutzern eine kostenlose API Schnittstelle zur Verfügung. Die Benutzer bekommen somit die Möglichkeit, auf Teile des Google Datenbestandes zurückzugreifen. Die Google API ist einfach aufgebaut. Somit kann sie leicht für die Suchmaschinenoptimierung genutzt werden.
Adsense
Adsense ist der Name eines Angebotes der Suchmaschine Google für Internetseitenbetreiber. Die Inhaber einer Webseite können mithilfe dieses Programmes Geld verdienen. Das Angebot gilt sowohl für die klassische Form der Website als auch für den Webblog. Mit Adsense werden Werbeanzeigen auf einer Website oder einem Webblog platziert. Für die Bereitstellung des Anzeigenplatzes werden die jeweiligen Internetseitenbetreiber mit einem Entgelt entlohnt. Im Prinzip handelt es sich bei Adsense um das Gegenstück zu AdWords. Ziel von Google ist es, beide Angebotsbausteine gekonnt zu kombinieren. Die Inhalte der Werbeanzeigen sollen gut zu der jeweiligen Internetpräsenz passen, auf der sie ausgeliefert werden, sodass eine Übereinstimmung mit dem vorhandenen Inhalt (Content) erreicht werden kann. Google nimmt die Auswahl der passenden Werbeanzeigen automatisch vor, sodass die Webmaster nach Konkretisierung der gewünschten Anzeigenform, den Adsense Code nur noch in den Quelltext der betreffenden Internetseite einbauen müssen. Bereits nach kurzer Zeit werden auf dieser Seite automatisch entsprechende Anzeigen platziert. Die Internetseitenbetreiber haben jedoch bei der Auswahl der Anzeigen die Möglichkeit, Werbung von Wettbewerbern auszuschließen. Im Bereich der Webblogs hat sich Google Adsene zu einer sehr beliebten Methoden entwickeln, um kommerziellen Nutzen aus dem Weblog ziehen zu können. Die Freischaltung eines Adsense Kontos erfolgt erst nach erfolgreicher Bewerbung bei Google.
Algorithmus
Der Begriff Algorithmus kommt ursprünglich aus dem Bereich der Mathematik. Vor einigen Jahren hielt der Ausdruck auch in die Welt der Suchmaschinenoptimierung Einzug. Im Zusammenhang mit Suchmaschinenoptimierung beschreibt der Begriff Algorithmus eine Methode zur Umwandlung. Bei dieser Umwandlung werden bereits gegebene Größen in Neue umgeformt, um eine Verbesserung einer Internetpräsenz zu erreichen. Die konkrete Durchführung des Algorithmus erfolgt durch Festlegung und Verwendung exakter Formeln, die in verschiedensten Formen zur Verfügung stehen. Ziel der Umwandlung ist in der Regel eine möglichst hohe Platzierung bei nationalen und internationalen Suchmaschinen. Je nach Suchmaschine werden jedoch verschiedene Formeln angewandt. Alle so genannten Formel beinhalten die Konkretisierung der Ranking – Vorraussetzung des jeweiligen Suchmaschinen-Betreibers. Hierbei kommt es von Betreiber zu Betreiber zu entscheidenden Unterschieden, da die einzelnen Suchmaschinen über unterschiedlichste Voraussetzungen für das Ranking verfügen. Alle Suchmaschinen wollen ihren Usern ausschließlich lesenswerte (relavante) Seiten präsentieren. In erster Linie richtet sich der Inhalt der Algorithmen an die Lebensdauer in einem Suchmaschinen – Index. Die Dauer des Vorhandenseins in einem Index ist für den Erfolg einer Website entscheidend. Je länger eine Internetpräsenz in dem Index einer Suchmaschine zu finden ist, desto beliebter ist sie. Zudem kann man von steigenden Besucherzahlen der einzelnen Seite in Verbindung mit der Lebensdauer im Suchemaschinen – Index ausgehen. Desweiteren kann man diese Tatsache als einen möglichen Grund ansehen, für das zunächst immer schlechte Ranking einer neuen Website.
Arbitrage
Der komplizierte Begriff Arbitrage beschreibt ein ganz einfaches Geschäftsmodell, welches dennoch sehr erfolgreich ist. Beim Arbitrage-Modell wird zunächst ein Produkt oder eine Dienstleistung eingekauft und später an einem anderen Marktplatz zu besseren Konditionen wieder weiterverkauft, wodurch man einen Gewinn erwirtschaftet. Das Produkt oder die Dienstleistung werden dabei nicht verändert. Im Internet wird das klassische Arbitrage Modell meist in verkürzter Form angewendet. Das Produkt / Dienstleistung wird nämlich nicht mehr gekauft, sondern nur noch weitervermittelt. Unter anderem bei den so genannten Affiliate Programmen ist diese Vorgehensweise sehr beliebt. Es passiert Folgendes: ein Webmaster meldet sich bei einem Partnerprogramm an und bindet die Codes in seine eigene SEA Kampagne ein. Zudem werden lange Keyword Listen für die Kampagne gebildet und die dazugehörigen Anzeigen geschaltet.
Nun kommt auf folgende Punkte an:
1. Bekanntheitsgrad des Produktes oder der Dienstleistung
2. Mitbewerberdichte für die gebuchten Suchbegriffe
3. Kundenakzeptanz (Stichwort: Conversion Rate)
4. Das aufgewendete Budget
Bei günstigen Bedingungen können mit dieser Methode sehr hohe Umsätze und somit auch Gewinne erzielt werden. Die Umsätze belaufen sich bei den großen Playern gerne auf mehrere Millionen, was den Gewinn auch im einstelligen Prozentbereich noch hoch ausfallen lässt. In der Praxis sind Arbitrage Geschäftsmodelle vor allem mit Google AdWords beliebt und weit verbreitet. Hier können, wenn man es geschickt angeht, große Gewinne eingefahren werden. Wer sich dafür entscheidet, in diesem Bereich Fuß zu fassen, der sollte zunächst mit kleinen Beträgen spielen, bis man ein Gefühl dafür bekommt. Eine erfolgreiche AdWords Kampagne aufzubauen, braucht nämlich seine Zeit und erst dann können Gewinne erzielt werden.
Backlink
Der Ausdruck Backlink gehört zu den wichtigsten Fachbegriffen im Bereich der Suchmaschinenoptimierung. Als Backlinks werden all jene Links bezeichnet, die auf eine einzelne, bestimmte Internetseite führen. In der Regel besteht ein Backlink aus einer externen URL, die schließlich auf die entsprechende Page verweist. Das wichtigste Kriterium für Backlinks ist deren Anzahl. Die Zahl der Backlinks ist nämlich für die Link-Popularität einer Seite im Internet verantwortlich und bestimmt somit wesentlich das Ranking in den nationalen und internationalen Suchmaschinen. Nicht selten werden Backlinks mit Hilfe von Linktausch generiert. Auch wenn es von großer Bedeutung ist, möglichst viele Links zu gleich thematisierten Unterseiten zu besitzen, sollte kein klassischer Linktausch betrieben werden. Die einzelnen Backlinks werden durch einen Algorithmus von den Suchmaschinen bewertet. Der so genannte PageRank von Google ist wohl der bekannteste dieser Algorithmen. Der PageRank ist wesentlich komplexer als das reine Zählen von Links. So bezieht er nicht nur die Anzahl der Inbound Links ein, sondern bewertet deren Gewicht bzw. Qualität. Diese Vorgehensweise soll ein möglichst optimales Ranking bei der Suchmaschine schaffen. Internetseitenbetreiber sollen beim Einbau von Backlinks in den unterschiedlichsten Formen ein Wachstum mit natürlichem Charakter anstreben. Durch diese Vorgehensweise verhindert man, auf Grund zu vieler unwichtiger Backlinks, in der Sandbox von Google zu landen.
Bad Neighborhood
Den Begriff Bad Neighborhood kann man ins Deutsche als schlechte Nachbarschaft übersetzen. Der Ausdruck bezeichnet all jene Internetseiten, die nicht mehr in dem Index der Suchmaschinen zu finden sind. Zurückführen lässt sich die negative Bewertung dieser Seiten auf die verschiedensten Gründe. Zu den häufigsten Ursachen, weshalb Internetseiten aus dem Suchindex gelöscht werden, kann massives Spamming gezählt werden. Aber auch andere Steine des Anstoßes sind denkbar. Je nach Suchmaschinen werden die betroffenen Seiten mit unterschiedlichen, aber immer negativen Begriffen und Bewertungen versehen. Bei Google werden diese Internetseiten mit PRO gekennzeichnet. PRO bedeutet einen PageRank von Null bei dem Ranking von Google. Wird ein Outbound Link (bei fehlender Prüfung) auf eine als Bad Neighbor eingestufte Internetseite gesetzt, kann eine ursprünglich recht gute Ranking Position in den Suchmaschinen eingebüßt werden. In der Regel werden auch neue Webseiten, welche erstmals im Internet auftauchen, zuerst einmal als Bad Neighbor eingestuft und mit einem PageRank von Null versehen. Zu beobachten ist ein PageRank von Null jedoch auch bei Seiten, die bereits seit längerer Zeit in den Suchmaschinen indexiert sind. Eine erste Orientierungshilfe bei der Sammlung von Backlinks sollte das Vorhandensein einer Seite in den Suchmaschinen sein. Lassen sich einzelne Seiten nicht bei Google & Co. finden, ist die Wahrscheinlichkeit sehr hoch, dass es sich hierbei um den zu meidenden Bad Neighborhood handelt. Außerdem liefert auch der PageRank erste Anhaltspunkte zur Qualität der betreffenden Internetseite.
Bindestrich
Wenn man auf dem Gebiet der Suchmaschinenoptimierung vom Bindestrich spricht, dann meint man in der Regel den Bindestrich, der innerhalb der URL zum Trennen von Wörtern verwendet wird. Es wirkt sich auf das Ranking einer Seite positiv aus, wenn die für die Seite relevanten Keywords auch in der URL untergebracht werden. Neben der TDL (Top-Level-Domain) können auch auf den verschiedenen Unterseiten wichtige Suchbegriffe untergebracht werden. Häufig stellt sich in diesem Zusammenhang die Frage, ob es besser ist, die verwendeten Suchbegriffe mit einem Underscore (_) oder einem Bindestrich (-) abzutrennen. Die Antwort ist ganz eindeutig: es ist besser, einen Bindestrich zu verwenden. Webmaster, die bereits mit Unterstrichen arbeiten, müssen aber keine all zu großen Anstrengungen unternehmen, diese durch Bindestriche zu ersetzen. Bei der Verwendung von Underscores ist keine Abstrafung durch die Suchmaschinen zu befürchten. Steht man aber gerade vor der Entscheidung, ob man dem Unterstrich oder dem Bindestrich den Vorzug geben sollte - weil man gerade dabei ist eine neue Seite zu erstellen oder einen Relaunch plant - sollte man klar dem Bindestrich den Vorrang geben. Der Grund dafür ist: für die meisten Suchmaschinen bedeutet ein Bindestrich die Teilung der einzelnen Wörter, was beim Underscore weniger der Fall ist. Faustregel: Bindestriche für den Aufbau der URL und die Unterbringung von Keywords verwenden. Benutzt man bereits Unterstriche und die Umstellung bedeutet viel Arbeit, sollte man auf die Änderung verzichten, da einerseits weder eine Abstrafung noch eine Verbannung aus dem Index erfolgt und andererseits Keywords in der URL keine zentrale Stellung innerhalb der Ranking Faktoren einnehmen.
Blacklist
Der Ausdruck Blacklist kann ins Deutsche als Schwarze Liste übersetzt werden. Bei dieser in Suchmaschinenoptimierer-Kreisen berühmten Negativliste handelt es sich um eine Aufzählung von Webseiten, die von nationalen und internationalen Suchmaschinen erstellt wird. Auf der Blacklist landen alle Domains, die durch Verstöße der Richtlinien der jeweiligen Suchmaschinen nicht mehr in deren Index angezeigt werden. Es gibt unterschiedliche Gründe, die zu einer Platzierung auf der Blacklist und damit zu einer Löschung aus dem Index führen können. Neben massiven Spamming kann auch ein Rechtsverstoß in Bezug auf die jeweiligen Richtlinien zu Aufnahme in die schwarzen Liste führen. Befinden sich Internetseiten oder auch IP – Adressen auf der Blacklist einer Suchmaschine, werden diese Seiten bei Suchanfragen nicht mehr angezeigt. Bei der Eintragung von Internetseiten auf der Blacklist muss zwischen zwei verschiedenen Formen unterschieden werden, die im Härtegrad differieren. Während einige Internetpräsenzen nur für einen begrenzten Zeitraum nicht mehr auf den Ergebnisseiten angezeigt werden, werden andere vollkommen und somit irreversibel aus dem Index der jeweiligen Suchmaschine gelöscht. Kommt es zu einer Löschung aus dem Index, ist auch die Wiederaufnahme in den Index, durch effektive Suchmaschinenoptimierung nicht mehr möglich.
Bridge Page
In die deutschen Sprache wird Bridge Page mit dem Begriff Brückenseite übersetzt. Häufig findet man auch die Ausdrücke Gateway Page, Einstiegsseite, Rankingseite, Funnel Page oder auch Doorway Page, die aber alle dasselbe Phänomen beschreiben. Bridge Pages lassen sich am Besten über ihren Zweck definieren: Es sind Webseiten, die einzig und alleine für die Suchmaschinen angelegt werden. Bei einer Bridge Page handelt es sich um normale HTML – Dokumente, die in Bezug auf eine bestimmte Internetpräsenz eingesetzt werden. Bridge Pages sind eine der gängigsten Lösungen bei der Suchmaschinenoptimierung von Webseiten. Durch den Einbau von Bridge Pages in den entsprechenden Internetauftritt soll eine Verbesserung der einzelnen Positionierungen in den Suchmaschinen erreicht werden, was wiederum zu einer Steigerung des PageRanks führt. Durch gute Suchmaschinen-Positionen sollen mehr Besucher für eine Website gewonnen werden. Brückenseiten werden ausschließlich auf ein Keyword bzw. Suchphrase hin optimiert. Häufig verfügen Bridge Pages nur über einen einzigen Inbound Link, und beinhalten nur einen oder wenige Outbound Links oder eine Weiterleitung. Da es sich bei den Bridge Pages um eine recht bekannte Form der Suchmaschinenoptimierung handelt, werden diese mittlerweile von einigen Suchmaschinen als solche erkannt. Ist dies der Fall, dann werden die Bridge Pages aus dem Index der entsprechenden Suchmaschine entfernt. Nicht selten kommt es jedoch auch zu einer Löschung der kompletten Domain, die mit einer solchen Bridge Page verlinkt ist.
Browser
Der Fachbegriff Browser kann in die deutsche Sprache nur schwer übersetzt werden. Am Besten beschreibt man die Bedeutung mit „in einem Buch schmökern“. Browser sind Programme, die den Internetnutzern die Möglichkeit geben, die Informationen der einzelnen Internetseiten zu sehen und entsprechend verarbeiten zu können. In den letzten Jahren kam es zur Entwicklung einer neuen Browser-Generation, die sich in wesentlichen Punkten von den bereits bestehenden unterscheiden sollte. Bei den neuen Browsern liegt der Fokus sowohl auf der Verbesserung der Nutzung des World Wide Web als auch der einzelnen Internetarbeiten. Ein Browser kann auch als ein Navigationsprogramm bezeichnet werden. Dieses Programm übernimmt die Abfrage der auf einem externen Rechner (Server) liegenden Webseiten. Bei dieser Abfrage werden die einzelnen HTML - Dokumente, die zu einer Internetpräsenz gehören, interpretiert und für den Benutzer sichtbar gemacht. Die neueren Browser haben zudem die Funktion, dass sie auch Bilder über PlugIns oder auch Addons darstellen können. Diese Funktion und Umwandlung macht es möglich, dass neben den Videoclips und Musikelementen weitere Dateiformate auf eine Internetseite integriert werden können. Die bekanntesten Browser sind: Internet Explorer, Netscape, Firefox und Opera.
Cascading Style Sheets (CSS)
Der Fachbegriff Cascading Style Sheets ist besser bekannt unter der Kurzform CSS. Der Begriff stammt aus dem Bereich der Programmierung. Dort wird CSS als effektive Ergänzung zu einzelnen HTML-Elementen eingesetzt. CSS ermöglicht auf einfache und schnelle Weise die Formatierung von HTML-Elementen. Bei diesen Formatierungen handelt es sich sowohl um Schriftarten und Schriftgrößen, als auch um die Hintergrundfarben einer Webseite. Mit Hilfe von Cascading Style Sheets lassen sich außerdem erweiterte Layout -Möglichkeiten auf eine Website einbinden. Als Beispiele dafür können die aufbereiteten Ausgabeformulare für Drucker, Bildschirm und Projektor angesehen werden. Durch die unterschiedlichen CSS-Formatierungen können bei den einzelnen Ausgabeformen verschiedenste Möglichkeiten erzeugt werden. CSS hat in den letzten Jahren auch Einzug in die Welt der Suchmaschinenoptimierer gefunden. Im Bereich der Suchmaschinenoptimierung machen die Cascading Style Sheets die gekonnte Einbindung von unterschiedlichsten Keywords möglich. So können Suchbegriffe, als eines der wichtigsten Elemente der Suchmaschinenoptimierung, so in die einzelnen Seiten eingebaut werden, dass diese nicht gleich auf den ersten Blick sichtbar sind. Durch die Einbindung in dieser Form soll eine bessere Platzierung in den Suchmaschinen erreicht werden.
Click Popularität
Früher haben einige Suchmaschinen damit experimentiert, die Popularität von Webseiten anhand der Anzahl der erhaltenen Klicks von den Ergebnisseiten zu bewerten. Im Wesentlichen handelt es sich bei der Click Popularität also um den Versuch der Suchmaschinen-Betreiber, die Beliebtheit einer gelisteten Website zu beurteilen. Als Beurteilungsgrundlage hierfür diente einzig und allein die Anzahl der Klicks, die eine bestimmte Webseite vorweisen konnte. Durch reines messen der Klick-Zahl versuchten die Suchmaschinen einer einzelnen Page einen entsprechenden Bedeutungsrang zukommen zu lassen. Die dadurch ermittelte Größe sollte dann als Basis für den Aufbau des Index einer bestimmten Suchmaschine heran gezogen werden. Heute ist dieses Verfahren überholt, da es von den jeweiligen Betreibern der Internetseiten entsprechend einfach und schnell manipuliert werden kann. Das häufige Manipulieren der Größe Click Popularität durch die Betreiber der Seiten führte dazu, dass diese Vorgehensweise heute nicht mehr angewendet wird.
Cloaking
Der Fachterminus Cloaking leitet sich vom englischen Wort Cloak ab, was übersetzt Deckmantel bedeutet. Als Cloaking bezeichnet man in der Suchmaschinenoptimierung eine URL, die spezifische Inhalte für Benutzer und Suchmaschinen liefert, die sich voneinander unterscheiden. Diese spezifischen Inhalte (Content) werden auf eine Vielzahl unterschiedlichster Kriterien abgestimmt. In der Regel existieren verschiedene Versionen von einer Website, auf die je nach Nutzung zurückgegriffen wird. So gibt es beim Cloaking zum einen eine Version, die für die einzelnen Suchmaschinen und zum anderen für die zahlreichen Benutzer optimiert ist. Durch die Optimierung für die Suchmaschinen soll eine bessere Positionierung im Index erreicht werden. Auf diesem Weg werden eine Steigerung im PageRank und als Folge ein höherer Bekanntheitsgrad der Internetpräsenz angestrebt. Jedoch führt Cloaking nicht automatisch zu einer wesentlich besseren Ranking in der Suchmaschine, sondern es kann sogar das Gegenteil eintretten. Manche Suchmaschinen erkennen Cloaking und werten es als Spam, was eine negative Einstufung zur Folge hat. Es kann sogar zu einer Löschung aus dem jeweiligen Index kommen. In diesem Fall wird die betreffende URL mit einem PageRank von Null versehen und wird bei Suchanfragen nicht mehr angezeigt. Es kann sich bei dem Entfernen aus dem Index um eine zeitlich begrenzte oder auch dauerhafte Maßnahme handeln.
Comment
Als Comment bezeichnet man auf dem Gebiet der Suchmaschinenoptimierung die Kommentare, die im Quellcode von Webseiten - als eine Art Orientierungshilfe für den Webmaster - untergebracht werden können. Die Kommentare dienen dazu, den HTML-Text zu strukturieren und somit übersichtlicher zu machen. Kommentare werden im Browser nicht angezeigt und sind deshalb für den Besucher der Webseite unsichtbar. Früher war es bei Spammern eine weit verbreitete Methode, in die Kommentare relevante Suchbegriffe einzubauen, um sich so ein höheres Ranking zu erschwindeln, weil die Suchmaschinen die Kommentare anfänglich ebenfalls ausgelesen haben. Dieser Missbrauch hatte zur Folge, dass heutzutage die Kommentare von den großen Suchmaschinen ignoriert werden.
Kommentare dienen mittlerweile nur noch dem Autor als Orientierungshilfe. Es gibt aber auch einfache Redaktionssysteme, die Kommentare als eine Art Markierung nutzen.
Conversion Rate
Im Deutschen wird die Conversion Rate auch als Konversionsrate bezeichnet. Dieser Begriff stammt aus der Suchmaschinenoptimierung und bezieht sich auf die Wirtschaftlichkeit einzelner Maßnahme einer Internetseite in kommerzieller Hinsicht. Meist handelt es sich hierbei um Werbe- und Marketingmaßnahmen, die durch die Conversion Rate ausgewertet und für den Besitzer oder das Unternehmen zugänglich gemacht werden. Im Wesentlichen kann die Conversion Rate als ein Maßstab angesehen werden, der nachfolgende Auswertungen und Entscheidung vereinfachen soll. Bei der Festlegung der Conversion Rate kommt eine Korrelation (Wechselbeziehung) zum Einsatz. Diese Wechselbeziehung findet statt zwischen:
1. Den Kosten, die für die Akquirierung von Besuchern gezahlt werden müssen
2. Dem Umsatz, der mit den Besuchrn erzielt wird
Der genaue Wert der Besucher bezieht sich in der Regel auf eine Gesamtheit von 100. Bei den großen Suchmaschinen wird oft aber auch mit dem Wert von 1000 gearbeitet. Lassen Sie uns den Sachverhalt anhand eines Beispiels erläutern: verfügt eine spezielle Maßnahme über eine Conversion Rate von sechs Prozent dann bedeutet dies, dass von einhundert Besuchern nur sechs Personen eine zuvor definierte Aktion durchgeführt haben. Bei einer Aktion kann es sich um eine Bestellung, um einen Download, eine E-Mail usw handeln. Der Besitzer einer Webseite muss forher festlegen, was er vom Besucher einer Webseite als Aktion möchte. Für den Erfolg und die weiteren Tätigkeiten auf dieser Website wird die Konversionsrate meist als Grundlage angesehen.
Cookie
Im Deutschen werden Cookies manchmal auch als Kekse bezeichnet, jedoch ist der englische Fachterminus geläufiger. Der Begriff selbst läßt kaum eine Schlussfolgerung auf die eigentliche Bedeutung bzw. Funktion zu. Im Zusammenhang mit Internetseiten haben Cookies sich zu einem der wohl gängigsten Ausdrücke entwickelt. Bei den Cookies handelt es sich um relativ kleine Textdateien. Diese Mini-Dateien werden beim Besuch einer Webseite auf der Festplatte des Besuchers abgelegt. Kommt es später zu einem erneuten Besuch der Internetseite, kann dieser somit als Folgebesuch identifiziert werden. Darüber hinaus werden durch Cookies zusätzliche Informationen an den Internetseitenbetreiber geliefert. In der Regel enthalten sie Informationen zur Besuchsdauer oder Daten zu den besuchten Unterseiten einer Internetpräsenz. Cookies dürfen nicht Größer sein als 4 KB. Ein Großteil der Suchmaschinen akzeptiert Cookies nicht. Muss ein Besucher zum Öffnen einer Internetseite deren Cookies zuvor akzeptiern, werden diese Internetseiten nicht mehr in der Suchmaschinen gelistet, wenn dies dem Suchmaschinen-Betreibern bekannt wird. In den meisten Fällen zieht so eine Vorgehensweise eine komplette Löschung aus dem Index nach sich. Die entsprechende Seite erhält einen PageRank von Null und wird für die Besucher nicht mehr angezeigt, wodurch es zu einem erheblichen Rückgang der Besucherzahlen und letzten Endes auch des Bekanntheitsgrads kommt.
Cost per Click (CPC)
Cost per Click ist die Bezeichnung für ein weitverbreitetes Abrechnungsmodell im Bereich der Internetwerbung, welches man hauptsächlich von den Anzeigenprogrammen Google AdWords und YSM von Yahoo! kennt. Häufig wird auch die Kurzform CPC verwendet, im Deutschen spricht man vom Klickpreis. Wie der Name bereits erahnen lässt, gibt die Größe Cost per Click an, wie viel der Klick eines Users auf eine Werbeanzeige kostet.
Crawler
Mit dem Fachterminus Crawler werden spezielle Programme bezeichnet, die sich unaufhörlich durch das Internet bewegen. Dabei lesen sie die Inhalte von Webseiten ein und bereiten den neuen Content für die spätere Indexierung durch Suchmaschinen vor. Die Adressen der gecrawlten Webseiten wurden zuvor entweder bei den Suchmaschinen angemeldet oder der Crawler folgt automatisch irgendwelchen Links und kriecht dabei von Seite zu Seite. Häufig liest man auch die Bezeichnungen Roboter, Bot oder Spider. Ein Crawler-Programm durchsucht das Internet selbstständige nach bestimmten Informationen und von den Betreibern gewünschten Daten. Suchmaschinenoptimierer setzen Crawler ein, um eine nahezu perfekte Generierung des jeweiligen Suchmaschinen – Index vorzunehmen. Crawler-Programme werden sowohl von Seitenbetreibern als auch von den Betreibern der Suchmaschinen genutzt. Aber auch für die schnelle und unkomplizierte Erstellung von Kontent werden sie angewendet. Bei Crawler-Programmen muss zwischen zwei Arten unterschieden werden: einer Lösung für Internetseiten und einer für E-Mails. Die E-Mail Crawler können gezielt nach E-Mail – Adressen suchen. Die gefundenen Adressen werden selbstständig in eine Datenbank eingetragen. Die so gewonnen Daten werden in vielerlei Hinsicht eingesetzt. Im positiven Fall handelt es sich hierbei nur um Marketingzwecke. Im negativen Fall handelt es sich um massives Spamming. Die Crawler-Daten dienen der Neukundengewinnung und der Datenerfassung.
Cross Linking
Cross Linking (auf Deutsch Querverbindung) ist eine der gängigsten Maßnahmen im Bereich der Suchmaschinenoptimierung. Unter dem Begriff muss eine auf Gegenseitigkeit beruhende Verlinkung von Webseiten verstanden werden, von der beide Parteien profitieren können. Als Folge werden unterschiedlichste Internetseiten miteinander verbunden. Auf diesem Weg soll ein besseres Ranking bei den Suchmaschinen auf nationaler und auch internationaler Ebene erreicht werden. Es wird bezweckt durch die gegenseitige Verlinkung einen erheblichen Anstieg der so genannten Link Popularität zu erreichen. Bei der Link Popularität handelt es sich um eine Größe, die für den PageRank einer Internetseite von enormer Bedeutung ist. Kommt es zu einer erheblichen Steigerung der Link Popularity kann sogar eine Vererbung des Google PageRank erreicht werden. Wahlloses Cross Linking - wie es von vielen Webseitenbetreibern betrieben wird - bringt nicht immer die erwünschten Vorteile für die Platzierung in den Suchmaschinen mit sich. Wird es in extremem Maß betrieben, erreicht man sogar das Gegenteil. Es kann sogar von Seiten der Suchmaschinenbetreiber zu einer Abwertung der jeweiligen Pages kommen. Nicht nur die Verschlechterung eines einzelnen Ranks, sondern auch ein PageRank von Null können die negativen Folgen sein. Im schlimmsten Fall kommt es zu einem irreversiblen Ausschluss aus dem Index der betreffenden Suchmaschine.
Deep Web
Das Deep Web, also das Versteckte Web, bezeichnet denjenigen Teil des World Wide Webs, der bei einer Recherche über die gängigen Suchmaschinen nicht auffindbar ist. Oft wird in diesem Zusammenhang auch vom Hidden Web oder Invisible Web gesprochen. Das Gegenstück zum Deep Web bilden die über Suchmaschinen zugänglichen Webseiten, die Visible Web (Sichtbares Web) oder Surface Web (Oberflächenweb) genannt werden. Das Deep Web besteht hauptsächlich aus themenspezifischen Datenbanken (Fachdatenbanken) und einer speziellen Art von Webseiten, welche erst nach Anfragen dynamisch aus Datenbanken generiert werden. Das Deep Web teilt sich - vereinfacht ausgedrückt - in zwei Bereiche:
1.
Inhalte, die nicht frei zugänglich sind
2. Inhalte, die nicht von Suchmaschinen indiziert werden.
Die Größe des Deep Web kann nur geschätzt werden. Experten gehen davon aus, dass es ein Vielfaches des direkt zugänglichen Webs umfasst. Die Zeit bleibt aber nicht stehen: Suchmaschinen und ihre Webcrawler entwickeln sich ständig weiter. Webseiten, die in der Vergangeheit noch zum Deep Web gehörten, können heute schon Teil des Oberflächenwebs sein aufgrund verbesserter Technologie.
Description Tag
Description bedeutet im Deutschen Beschreibung. Das Wort Tag läßt sich als Etikett oder Kennzeichnung übersetzen. Tags sind ein wichtiger Bestandteil der Seitenbeschreibungssprache HTML. Im Quelltext werden Tags immer durch spitze Klammern markiert. Der Meta Tag Description wird zur Beschreibung einer Seite verwendet und ist im Head-Bereich des Quelltextes zu finden. Früher machte die Verbesserung der Description einen wichtigen Teil der Suchmaschinenoptimierung aus, da Google & Co. die Relevanz einer Suchanfrage auch anhand der auf der Webseite enthaltenen Beschreibung berechneten. Weil die Beschreibungen sehr einfach zu verändern – und damit auch zu manipulieren – sind, werden diese heute kaum noch beachtet. Trotzdem erfüllt die Meta Description auch heute noch einen wichtige Aufgabe: wird eine Internetseite in den Suchergebnissen aufgelistet, entspricht der Beschreibungstext, welcher unterhalb des Links angezeigt wird, genau der Description, die im Quelltext eingetragen wurde. Der Sinn und Zweck der Meta Description liegt also heutzutage darin, die Aufmerksamkeit des Suchenden auf die Seite zu lenken, damit dieser den Link klickt und zum Besucher der Seiten wird.
Domain
Eine Domain (eingedeutscht auch Domäne geschrieben) ist ein zusammenhängender Teilbereich des hierarchisch geordneten Domain Name System (DNS). Jeder Rechner einer Domain verfügt im DNS über eine individuelle Bezeichnung. Diese individuelle Bezeichnung (z.B. www) wird um die Bezeichung der Domain (z.B. beispiel.de) erweitert. Getrennt werden die Bezeichnung des Rechners und die Bezeichnung der Domain durch einen Punkt. Der so konstruierte Fully Qualified Domain Name (z.B. www.beispiel.de) kann durch das Domain Name System in eine IP-Adresse aufgelöst werden. Die IP-Adresse kann dann verwendet werden, um Netzwerkverbindungen zu diesem Rechner aufzubauen (z.B. um auf die Webseite http://www.beispiel.de/index.html zuzugreifen). Der Fully Qualified Domain Name (und damit natürlich auch die Bezeichnung der Domain) ist oft Bestandteil von URLs (Uniform Resource Locator).
Domain Popularity
Unter dem Begriff Domain Popularity muss die Anzahl der Links verstanden werden, die auf eine bestimmte Website verweisen. Bei diesen Links handelt es sich um Verweise, die von verschiedenen Domains ausgehend auf eine Internetseite führen können und somit ein umfangreiches Bild dieser sicherstellen sollen. Eine der Besonderheiten der Domain Popularity ist beim Zählen der Links zu erkennen. So wird jeder Link von der Interseite 1 auf die Internetseite 2 nur einmal gezählt. Hierbei spielt es keinerlei Bedeutung, ob mehrere Links auf einer einzelnen Internetseite gesetzt sind oder ob die Anzahl dieser recht gering ist. Bei der Domain Popularity handelt es sich um eine bedeutende Größe im Segment der Suchmaschinenoptimierung und so ist diese für den PageRank einer Seite von nicht gerade geringer Bedeutung. Die Domain Popularity kann somit als ein Faktor angesehen werden, der die Platzierungen in den nationalen und internationalen Suchmaschinen entscheidend mitbestimmt. Auf Grund dessen legen vor allem die Suchmaschinenoptimierer auf einen hohen Grad der Domain Popularity einen sehr großen Wert. Somit kann die Anzahl der Links sowohl als bedeutendes Element der Optimierung einer Seite für die Suchmaschinen als auch als eine wesentliche Ursache für eine Platzierung angesehen werden. Eine zu hohe und vor allem unnatürliche Domain Popularity kann jedoch auch zur Verschlechterung eines PageRank führen.
Frames
Frames wurden vor allem früher zur Darstellung von Webseiten verwendet. Im Prinzip wurde es damit ermöglicht eine Seite in Einzelseiten zu unterteilen. Wird eine Startseite, die Frames verwendet, aufgerufen, so wird nicht nur eine Seite geladen, sondern im Grunde mehrere unterschiedliche, die auf einer Seite im Browser dargestellt werden. Hinsichtlich der verschiedenen Arten von Frames, kann man diese in statische und nicht statische, sowie iFrames untergliedern. Auf längere Sicht hat sich diese Art des Seitenaufbaus nicht bewährt. Suchmaschinen konnten den in den Frames enthaltenen Content nämlich nicht auslesen und wussten so nicht, was sie mit der Seite anfangen sollen. Ein schlechtes Ranking war die Folge, was Frames vor allem für eine Suchmaschinenoptimierung unpassend machten. Zwar gab es die Möglichkeit einen so genannten noframe Bereich im HTML Code einzubauen, in dem man der Suchmaschine mitteilen konnte, um was es sich auf der Seite handelt, allerdings konnte der noframe Bereich die Probleme nicht ausgleichen. Hinzu kam, dass Spammer den noframe Bereich benutzen, um die Suchmaschinen bzw. die User auszutricksen. Der noframe Bereich, der sich wie bereits erwähnt im HTML Code befindet, ist für den User auf der im Browser dargestellten Seite nicht sichtbar. Spammer nutzten diese Tatsache, um der Suchmaschine ein anderes Bild von der Seite zu zeigen, als den Usern. Die Folge war, dass Suchmaschinen immer allergischer auf Seiten reagierten, die mit Frames erstellt wurden.Heutzutage werden Frames von professionellen Webdesigner nicht mehr benutzt, da es eine Reihe von besseren Möglichkeiten gibt, eine Seite zu unterteilen.
Feed
Feed (engl.: feed „Einspeisung“, „Zufuhr“) oder Newsfeed wird im Deutschen als jargon-sprachliche Bezeichnung verwendet für:
Elektronische Nachrichten im Atom-Format oder im RSS-Format
Newsfeed, den Transportmechanismus von Usenet-Nachrichten
Übertragungen von Nachrichtenbeiträgen oder Livesendungen für Fernsehsender über Nachrichtensatelliten
HTML Tags
Neben dem Kerninhalt, zum Beispiel dem Fließtext, aus dem eine Webseite besteht, enthält die Seite auch HTML Tags, die als Seitenbeschreibung bezeichnet werden können. Mit den HTML Tags erreicht man die Wertigkeit bzw. die Formatierung einer Seite bzw. deren Inhalte. Im Quelltext sind die HTML Tags innerhalb von spitzen Klammern „<>“ gekennzeichnet, wobei ein Tag meist aus zwei Tags besteht – einem einleitenden zu Beginn und einem abschließenden am Ende. Was zwischen diesen beiden Punkten im Quelltext zu finden ist, ist der Bereich, für den die Tags gültig sind. Die Tags werden in weiterer Folge vom Browser nicht dargestellt, sondern dienen diesem mehr als Anweisungen, wie eine Seite dargestellt werden soll. Bei der Suchmaschinenoptimierung gibt es eine Reihe von HTML Tags, die eine entscheidende Rolle spielen. Beispielsweise die Überschriftenformate <h1> bis <h6>. Dabei muss allerdings darauf geachtet werden, dass der HTML Code sauber programmiert ist. Browser können Fehler zwar zum Großteil erkennen und ausbessern, Suchmaschinen haben aber häufig Probleme, was schlussendlich zu einem schlechteren Ranking führt.
Headline Tags
Headline Tags – oder auf Deutsch übersetzt Überschriften Tags – sind wichtige Elemente zur Erstellung einer Webpage. Bei den Headline Tags gibt es die Varianten von <H1> (für die Hauptüberschrift) bis <H6> (für die kleinsten Überschriften). Dabei dienen die unterschiedlichen Überschriften nicht nur der Gliederung eines Textes sondern auch, um wichtige Teile eines Textes für Suchmaschinen hervorheben zu können. Dementsprechend wichtig ist es hinsichtlich einer professionellen Suchmaschinenoptimierung auch, mit den Headline Tags richtig umzugehen und diese gekonnt einzusetzen.
Hidden Text
Hidden Text – häufig auch versteckter Text genannt – ist eine Art von Spam, bei der Text auf einer Seite untergebracht wird, ohne dass dieser im Browser sichtbar ist. Um dies zu erreichen, wird der Text in der gleichen Farbe geschrieben, wie der Hintergrund. Die Folge davon ist, dass der Text zwar da ist (und von den Suchmaschinen ausgelesen wird) für den User aber nicht sichtbar ist, sofern sich dieser den Quelltext nicht ansieht, was normalerweise nicht der Fall ist. In den versteckten Text werden in der Regel wichtige Keywords gepackt, damit der Suchmaschine vorgegaukelt werden kann, dass die Seite sehr relevant für die verwendeten Suchbegriffe ist und somit auch gut in den Suchergebnissen gelistet wird. Der Inhalt, den der User zu Gesicht bekommt ist nicht selten etwas völlig anderes, als er sich aufgrund der Platzierung in den SERPs erwartet hätte. Vor einiger Zeit war diese Black Hat SEO Methode ziemlich erfolgreich. Nachdem Suchmaschinen allerdings stets darum bemüht sind, Spam zu vermeiden und den Usern gute Ergebnisse zu liefern, wurden die Algorithmen schnell angepasst. So sind Suchmaschinen heutzutage dazu in der Lage, häufige Wortwiederholungen zu erkennen und dementsprechend zu behandeln. Zudem verstößt hidden text gegen die Richtlinien von Google, was entweder eine Abstrafung oder den Ausschluss aus dem Index zur Folge hat, wenn Google dahinter kommen sollte.
Interne Link Popularity
Die Link Popularity – oder auf Deutsch häufig auch Linkpopularität genannt – gibt die Anzahl der externen Links an, die auf eine Seite verweisen. Für die Suchmaschinen dienen die externen Links (Backlinks) als Empfehlung, die andere Seiten für die vorliegende aussprechen. Je mehr Empfehlungen eine Seite von anderen (guten) Seiten (Stichwort: Expertenseite, Autorität) besitzt, desto besser wird diese auch in den Suchergebnissen gelistet werden. Wie bei den externen Links, können auch interne Links die interne Link Popularity steigern. Dabei ist es wichtig, gute Linktexte zu verwenden, die kurz und bündig beschreiben, was sich auf der Seite befindet, auf die der Link führt. Die interne Link Popularity ist ein nicht unbedeutender Ranking Faktor, was auch das Phänomen erklärt, warum es manche Spam Seiten immer wieder zu einem guten Ranking schaffen: sie verfügen nämlich meist über eine hohe Seitenanzahl, die über eine ausgeklügelte interne Verlinkung miteinander verbunden sind.
IP-Adresse
Eine IP-Adresse ist eine Adresse in Computernetzen, die – wie z. B. das Internet – auf dem Internetprotokoll (IP) basieren. Sie wird Geräten zugewiesen, welche an das Netz angebunden sind und macht die Geräte so adressierbar und damit erreichbar. Die IP-Adresse kann einen einzelnen Empfänger oder eine Gruppe von Empfängern bezeichnen (Multicast, Broadcast). Umgekehrt können einem Computer mehrere IP-Adressen zugeordnet sein. Die IP-Adresse wird verwendet, um Daten von ihrem Absender zum vorgesehenen Empfänger transportieren zu können. Ähnlich der Postanschrift auf einem Briefumschlag werden Datenpakete mit einer IP-Adresse versehen, die den Empfänger eindeutig identifiziert. Aufgrund dieser Adresse können die „Poststellen“, die Router, entscheiden, in welche Richtung das Paket weiter transportiert werden soll. Im Gegensatz zu Postadressen sind IP-Adressen nicht an einen bestimmten Ort gebunden. Die bekannteste Notation der heute geläufigen IPv4-Adressen besteht aus vier Zahlen, die jeweils zwischen 0 und 255 liegen und mit einem Punkt getrennt werden, beispielsweise 127.0.0.1. Technisch gesehen ist die Adresse eine 32-stellige (IPv4) oder 128-stellige (IPv6) Binärzahl.
Page Impression oder Page-View
Seitenabruf oder engl. Page Impression (PI, auch Seitenaufruf bzw. Page-View) ist ein Begriff aus der Internet-Marktforschung und bezeichnet den Abruf einer Einzelseite innerhalb einer Website. Eine exakte Definition wurde durch die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) festgelegt. Wenn ein Programm (sei es ein Browser oder ein Webspider) eine Website besucht, werden Anfragen verschickt und generieren dabei Hits in der Logdatei des versendenden Webservers. Jede einzelne Datei, egal welchen Typs (html, jpg, pdf...), hinterlässt dabei einen Eintrag. Hits sind damit für den Betreiber eine eher technisch relevante Messgröße, denn inhaltlich interessant sind nur komplette Webseiten, nicht deren einzelne Bausteine. Deshalb wurde eine umfassendere Einheit als die isolierten Hits definiert: Eine Page-Impression bezeichnet dagegen eine komplette Seite mit allen eingebundenen Elementen. Wenn z. B. eine Seite aus dem Inhalt (seite.html) und fünf Bildern besteht, dann generiert diese Seite sechs Hits, aber nur eine Page-Impression. Meistens werden von Webspidern u. ä. erzeugte PIs nicht gezählt, genauso wenig wie durch Neuladen, z. B. bei ständig aktualisierenden Inhalten, erzeugte Seitenaufrufe. Die durchschnittliche Anzahl an Seitenaufrufen pro Monat ist vor allem für Anbieter interessant, die auf einer Seite Werbung schalten möchten. Manche Seitenbetreiber versuchen mit künstlichen Seitenaufrufen z.B. durch Besuchertausch Systeme die Seitenaufrufe zu erhöhen, diese werden in vielen Statistiken mittlerweile erkannt und zählen nicht mehr in die Wertungen mit ein.
RSS-Feed
RSS ist eine seit dem Anfang des Jahres 2000 kontinuierlich weiterentwickelte Familie von Formaten für die einfache und strukturierte Veröffentlichung von Änderungen auf Webseiten (z.B. News-Seiten, Blogs, Audio-/Video-Logs etc.) in einem standardisierten Format (XML). RSS-Dienste werden in der Regel in Form spezieller Service-Webseiten (sogenannter RSS-Channels) angeboten. Ein RSS-Channel versorgt den Adressaten, ähnlich einem Nachrichtenticker, mit kurzen Informationsblöcken, die aus einer Schlagzeile mit einem kurzen Textanriss und einem Link zur Originalseite bestehen. Die Bereitstellung von Daten im RSS-Format bezeichnet man auch als RSS-Feed (englisch to feed – im Sinne von füttern, einspeisen, zuführen). Wenn ein Benutzer einen RSS-Channel abonniert hat, so sucht der Client in regelmäßigen Abständen beim Server nach Aktualisierungen im RSS-Feed.
Surface Links und Deep Links
Die Begriffe Surface Link und Deep Link (deutsch wörtlich „Oberflächenverknüpfung“ und „tiefe Verknüpfung“) werden verwendet, um Hyperlinks zu kategorisieren: Ein Surface Link verweist auf die Eingangsseite einer Internetpräsenz, ein Deep Link verweist hingegen unmittelbar auf eine ganz bestimmte, „tiefer liegende“ Unterseite einer Internetpräsenz oder webbasierten Anwendung. Dies kann eine bestimmte Datei, ein einzelner Artikel oder ein offenes Verzeichnis sein. Der Grund für diese Unterscheidung ist die juristische Diskussion rund um Fragen der Haftung für Hyperlinks. In dieser Hinsicht ist die Bewertung des Einsatzes von Surface Links rechtlich seltener strittig als das Verwenden von Deep Links. Ein Fall, in dem ein Surface Link widerrechtlich, ein Deep Link auf dieselbe Webpräsenz aber rechtskonform wäre, erscheint schwer denkbar. Dieser Artikel beschränkt sich daher auf die spezifischen Aspekte des Einsatzes von Deep Links. Die beiden Termini stehen in inhaltlichem Zusammenhang mit den Begriffen Surface Web und Deep Web.
Surface Web
Unter dem Begriff Surface Web oder Visible Web (dt.: „Oberflächen-Web“ bzw. „Sichtbares Web“) versteht man denjenigen Teil des World Wide Web, der allgemein zugänglich ist. Es besteht also aus denjenigen Webseiten und Dokumenten, die von konventionellen Suchmaschinen, welche mit Hilfe von Webcrawler über weiterführende Hyperlinks von einer Webseite zu weiteren URL gelangen, erfasst werden können. So können theoretisch alle erreichbaren Seiten des WWW gefunden werden. Fakt ist jedoch, dass das Surface Web schätzungsweise 400- bis 550mal kleiner als das Deep Web ist, was bedeutet, dass konventionelle Suchmaschinen lediglich die Spitze eines riesigen und immer weiter wachsenden Eisberges durchsuchen und somit bei der Recherche sichtbar machen.
Uniform Resource Locator
Als Uniform Resource Locator (URL, dt. „einheitlicher Quellenanzeiger“) bezeichnet man eine Unterart von Uniform Resource Identifiern (URIs). URLs identifizieren und lokalisieren eine Ressource über das verwendete Netzwerkprotokoll (beispielsweise HTTP oder FTP) und den Ort (engl. location) der Ressource in Computernetzwerken. Da URLs die erste und häufigste Art von URIs darstellen, werden die Begriffe häufig synonym verwendet. In der Umgangssprache wird URL häufig als Synonym für Internetadresse verwendet.
Unique Visits
Unabhängig von der Anzahl der Seitenaufrufe eines Nutzers ist der Unique Visit (der gezählte Besuch einer Website), für den meist halb- bis einstündige Neuladesperren für die Erfassung festgelegt sind. Kommt der Nutzer z. B. schon nach zehn Minuten wieder, wird dies nicht erneut als Besuch gewertet. Dabei ist es allerdings unerheblich, ob der Besucher nur ein Dokument (etwa die Startseite) oder Dutzende betrachtet. Neben den Besuchen sind schließlich auch die Besucher interessant: wie viele unterschiedliche Nutzer (Unique Visitors) besuchen ein Angebot, wie viele wiederkehrende Besuche (engl. visit) vom selben Besucher gibt es. Die Identifikation ist jedoch technisch und rechtlich schwierig, da z. B. hinter ein und derselben IP-Adresse nicht derselbe Mensch stecken muss und eine Identifikation über Anmeldung und/oder Cookies den Anforderungen des Datenschutzes genügen muss.
Usenet
Das Usenet (urspr. Unix User Network – engl. „Netzwerk für die Benutzer von Unix“) ist ein weltweites, elektronisches Netzwerk, das Diskussionsforen (so genannte „Newsgroups“) aller Art bereitstellt und an dem grundsätzlich jeder teilnehmen kann. Der Teilnehmer verwendet dazu üblicherweise einen Newsreader.Die Funktionsweise des Usenet wird oft mit Schwarzen Brettern verglichen, wie es sie zum Beispiel auch im Supermarkt gibt: Jemand schreibt eine Nachricht und heftet diese an das Schwarze Brett, wo sie für jeden Interessierten sichtbar ist. Dieser Vergleich gibt jedoch nur einen Teilaspekt des Usenet wieder, da die Kommunikation über Schwarze Bretter in der Regel nur in eine Richtung läuft: Eine Nachricht wird dort nämlich für gewöhnlich nicht durch jemanden beantwortet, indem dieser wiederum eine (Antwort-)Nachricht an das Schwarze Brett heftet. Die weitere Kommunikation findet auf einem anderen Weg (z. B. per Telefon) statt. Beim Usenet ist die Beantwortung einer Nachricht durch eine weitere Nachricht innerhalb desselben Mediums allerdings der übliche Weg.
Web 2.0
Web 2.0 ist ein Begriff, der von Tim O'Reilly schon im Jahre 2004 geprägt wurde. Web 2.0 ist kein Ausdruck für neue Technologien, sondern vielmehr ein Synonym für die durch die Open-Source-Bewegung ermöglichte Sozialisierung des Internets. Durch freie Schnittstellen zu beinahe standardisierten Diensten werden alle zu aktiven Teilnehmern am Geschehen im und durch das Internet. Typische Web 2.0 Dienste sind Weblogs, Foren, alternative Navigationsfunktionen (z.B. tagcloud, tagging), Podcast/ Videocast, RSS / Newsfeeds oder Communities/ SocialNetworks. Beispiele hierzu sind » flickr.com, » photocase.com, » xing.com, » mister-wong.de, » myoutube.com und nicht zu vergessen » ebay.de.
Als Online-Agentur bzw. Internetagentur beraten wir gern zu diesen Themen und realisieren nach Absprache diverse Dienste, Schnittstellen und Internetauftritte mit Web 2.0 Bestandteilen.