A

    Ad-Impression

    Die Anzahl der Einblendungen einer Werbefläche nennt man Ad-Impression. Die Zahl der Aufrufe der einzelnen Werbeflächen werden in der Regel auf AdServern protokolliert.

    Die Abrechnung von Online-Marketing wird in vielen Fällen nach dem Tausend-Kontakt-Preis (TKP) berechnet. Die Zahl der Ad Impressions ist ein wichtiger Indikator, über den sich später in Verbindung mit weiteren Leistungswerten (Klicks, Leads, Sales und Orders) Conversion-Verhältnisse ermitteln lassen.

    Wird eine Anzeige nicht nur gesehen, sondern auch geklickt, spricht man in diesem Zusammenhang von Click-through Rate. Bei Ad Impressions selbst geht es nicht um Klicks, sondern um reine Sichtkontakte, weshalb man auch von Ad Views spricht.

    Die Ad Impressions können von den Page Impressions, also Seitenaufrufen, abweichen. Anzeigen können individuelle gesteuert werden und so beispielsweise nicht bei jedem Seitenaufruf desselben Nutzers, sondern nur einmalig oder einmal pro Stunde, angezeigt werden.

    Ausstiegsseiten

    Als Ausstiegsseiten werden Unterseiten auf Ihrer Webseite, Ihrem Blog, Ihrem Shop oder Ihrem Forum bezeichnet, von welchen der Besucher Ihr Webangebote wieder verlassen. Dies gibt mitunter deutliche Hinweise auf qualitative Mängel. Erweist sich eine Unterseite überdurchschnittlich oft als Ausstiegsseite und kann auch nur auf eine geringe Aufenthaltsdauer der Besucher verweisen, muss hier dringend etwas getan werden.

    Mit Analytics haben Sie ein mächtiges Werkzeug zur Hand. Mit Hilfe der Analyse von Einstiegs- und Ausstiegsseiten können Sie die Webseiten-Optimierung geziehlt angehen.

    AdWords

    Google AdWords ist ein Angebot der Google Inc. Für die Werbung können mittels Google AdWords Anzeigen geschaltet werden, die sich an den Suchergebnissen orientieren. Anzeigen können auch auf anderen Webseiten verwendet werden.

    Für die Anzeige (Impression) werden bei Google AdWords grundsätzlich keine Gebühren erhoben. Dies geschieht erst bei einer tatsächlichen Aktion des Nutzers – in der Regel einem Klick auf die Anzeige und dem damit einhergehenden Besuch auf einer verlinkten Webseite. Die Anzeigeposition wird durch den CPC (Cost per Click) festgelegt. Google AdWords kombiniert alle bestehenden Interessenten an einem Schlüsselwort oder der Kombination mehrerer Begriffe, sodass der Platz für Anzeigen versteigert wird. Zusätzlich wird auch der sogenannte Qualitäts Faktor für die Platzierung einer Anzeige mit einbezogen. Mit seiner Hilfe versucht Google einzuschätzen, wie interessant eine Anzeige für die Besucher thematisch verwandter Seiten sein könnte.

    Für die Erstellung der Keyword-Listen kann auch der AdWords Keyword Generator auf unserer Seite verwendet werden.

    Unsere AdWords Agentur ist Google zertifiziert. Gerne helfen wir Ihnen.

    AdSense

    Während Google mit seinem AdWords Programm Anzeigenplätze für seine eigenen Suchergebnisseiten und Partnerwebsites wie Youtube an Werbetreibende verkauft, stellen bei AdSense Webseitenbesitzer, auch "Publisher" genannt, Platz auf ihrer Seite als Werbefläche zur Verfügung.

    Pro Klick auf ein über das Google-Programm eingeblendetes, kontextbezogenes Werbemittel erhält der Publisher eine Vergütung. Wenn Sie also auf Ihrer Website AdSense in Form von Text- und Bild-Anzeigen zulassen, bezahlt Google Ihnen für jeden Klick bzw. jede Impression von Nutzern, die durch die Anzeige erzielt werden, einen gewissen Betrag aus.

    Google AdSense ist also eher als Affiliate-Marketing zu sehen.

    Werbeanzeigen sollten auf keinen Fall den Hauptbestandteil der Webseite ausmachen. Auch Google selbst mahnt zur klugen Dosierung – "Machen Sie sich zuerst einmal Gedanken um Ihre Nutzer". Mit zu viel Werbung auf der Homepage können die Besucherzahlen schnell weniger werden. Auch sollten die Anzeigen die Hauptinhalte der Seite nicht verdrängen.

    Die Schaltung der Anzeigen auf der Seite erfolgt durch das Display Netzwerk von Goolge.

    Affiliate-Marketing

    Affiliate-Marketing ist grundsätzlich nichts anderes als die partnerschaftliche Zusammenarbeit zwischen einem werbetreibenden Unternehmen und einem Webseitebetreiber.

    In dieser Partnerschaft stellt der Webseitebetreiber dem Unternehmen Werbeplatz auf seinen Webseiten zur Verfügung. Diese werden vom werbetreibenden Unternemen mit entsprechenden Inhalten gefüllt (Text, Banner usw.) Damit wird das Zielpublikun direkt auf der Partnerwebseite angesprochen. Der Webseitebetreiber erhält dafür eine im Vorfeld vereinbarte Provision. Es kann sich dabei um eine Provision für einen Werbezeitraum, pro Tausend Werbeeinblendungen oder pro Klick handeln.

    Mit dem Google Displaynetzwerk kann z.B. eine entsprechende Affiliate-Kampagne aufgebaut werden.

    Authority

    Die Domain Authority einer Webseite sagt aus, wie bedeutsam diese Webseite für ihr Thema ist. Sie ist mit hoher Wahrscheinlichkeit ein Faktor, der in das Ranking bei Suchmaschinen mit einfliesst. Denn wer als Autorität mit wertvollem und vertrauenswürdigem Inhalt gilt, sollte in den SERPs höher eingestuft werden. So wollen Suchmaschinen sicherstellen, dass sie den Benutzern nützliche und sichere Inhalte als Ergebnis anzeigen.

    Alter der Domain

    Das Alter einer Domain ein wichtiger Rankingfaktor für Suchmaschinen. Die Domain wird mit der ersten Onlineaufschaltung geboren. Alte und bekannte Webseiten bzw. Autoritäten, werden bei der Auflistung der Suchmaschinenergebnisse bevorzugt behandelt. Die Suchmaschinen gehen davon aus, dass Seiten welche schon einige Jahre existieren und dabei regelmässig aktualisiert wurden, dem Suchenden umfangreiche und bessere Informationen bieten können als z.B. eine noch sehr neue Seite. Ebendso besitzen ältere Domains meist mehr "Trust".

    Experten vermuten, dass eine Domain ab 3 Jahren ein gutes Alter erreicht.

    Anchor Text

    Beim Anchor Text oder deutsch Ankertext, handelt es sich um einen meist farblich hervorgehobenen, klickbaren Text eines Hyperlinks auf einer Internetseite oder innerhalb eines Dokuments. Es werden auch die Begriffe Linktext oder Verweistext verwednet.

    Beim Klick verweist der Anchor Text auf eine Zieladresse, die sich sowohl auf ein Dokument innerhalb der gleichen Domain, als auch auf eine Seite einer anderen Domain befinden kann. Anchor Text und Zieladresse werden bei einem Hyperlink separat angegeben. Auf der Internetseite wird dann nur der beschreibende Linktext angezeigt, die Zieladresse bleibt im Textfluss verborgen. Für den Anchor Text sollte ein möglichst aussagekräftiger Text gewählt werden, da er die Erwartung des Lesers bestimmt. Und somit Informiert worauf ein Hyperlink verweist.

    Suchmaschinen werten die Verlinkung einer Webseite aus und beziehen die Inhalte der Linktexte erfahrungsgemäss mit in ihre Bewertung für das Ranking ein. Google versucht einen künstlichen Aufbau von Backlinks (eingehende Links auf eine Webseite, die von einer anderen Webseite aus auf diese führen) von einem natürlichen Linkaufbau zu unterscheiden. Google nutzt unter anderem die Linktexte zur Analyse dieser Backlinks. Das Penguin Update im April 2012 hat bei Google einen neuen Algorithmus eingeführt, der den übermässigen Missbrauch von Keywords in Linktexten erkennen soll. Als Folge sollen Webseiten durch Google Penguin abgestraft werden durch eine Herabstufung im Ranking. Die Anchor Texte sollten daher nicht sehr allgemein gehalten werden oder auf einfache Keywords reduzieret werden. Besser ist ganze Sätze, die den Inhalt des Links etwas genauer beschreiben und Keywords enthalten, verwendet werden.

    Analytics

    Web Analytics wird eingesetzt, um den Verkehr auf der Webseite zu messen. Daraus versucht man dann Schwachstellen in der Kommunikation zu erkennen, um damit die Besucher dorthin zu lenken wo man sie auch will. Die Web Analyse ist auch unter den Begriffen Web-Controlling, Web-Analyse, Datenverkehrsanalyse, Traffic-Analyse, Clickstream-Analyse, Webtracking bekannt. Das Analytic-Tool untersucht typischerweise den Ursprung der Besucher, welche Seiten und Inhalte auf der Webseite aufgesucht werden und wie oft und wie lange welche Unterseiten und Kategorien angesehen werden. Der Einsatz solcher Werkzeuge ist aus Datenschutzgründen umstritten. Der Webseiten Besitzer muss die Besucher in einer Datenschutzerklärung darauf hinzuweisen, welche Daten über ihn gesammelt und an wen sie weitergegeben werden (inklusive Angabe des Landes). Werden die Daten in ein Land weitergegeben, welches über kein angemessenes Datenschutzniveau verfügt, sind zusätzlich mit dem Anbieter des Auswertungstools Garantien zu vereinbaren, die ein ausreichendes Schutzniveau gewährleisten.

    Neben einer Reihe von freien Produkten bieten etwa 150 Unternehmen Lösungen für Web Analytics an. Ein sehr häufig eingesetztes Werkzeug ist Goolge Analytics.

    Welche Ziele werden verfolgt?

    Web Analytics dient der Analyse, Optimierung und Kontrolle von Prozessen, betreffend alle Internet-Aktivitäten eines Unternehmens. Web Controlling Tools ermöglichen es eine Vielzahl von Kennzahlen und Auswertungen bzgl. einer Webseite und den dazugehörigen Marketing-Aktionen nutzbringend zu messen. Wichtige Kennzahlen im elektronischen Handel beziehen sich zum Beispiel auf:

    • Herkunft der Besucher
    • Anzahl neuer und wiederkehrender Besucher
    • die Anzahl der Besucher ihres Web-Shops
    • den Anteil der Besucher, die etwas in den Warenkorb legen
    • den Anteil der Besucher, die den Kaufprozess abschliessen
    • den durchschnittlichen Warenkorbwert
    • die Wirksamkeit einzelner Werbemittel

    Mit diesen Kennzahlen und daraus generierten Statistiken werden neue Marketing-Aktionen gestartet und die eigene Webseite entsprechend optimieren.

    Ablauf der Datensammlung

    Gewöhnlich werden für Web Analytics entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in Websites zur Datengewinnung genutzt. Neben diesen beiden existieren noch Verfahren, die Web-Server-Plugins oder Netzwerk-Sniffer benutzen.

    • Server-basierte Daten, Logdateianalyse
    • Client-basierte Daten: Tags und Pixel
    • Netzwerk-Protokoll-Analyse (NPA, Network Sniffer)
    • Cookies
    Ad-Rank

    Der Ad-Rank ist ein Wert, mit dem die Anzeigenposition und somit die Position der AdWords Anzeige auf einer Seite bestimmt wird. Der Anzeigenrang wird anhand Ihres vorliegenden Gebots, CPC und des Qualitätsfaktors berechnet.

    Werbender

    Bieter 1

    Bieter 2

    Bieter 3

    Bieter 4

    CPC max

    8.00 €

    6.00 €

    5.00 €

    3.00 €

    QF & AdRank

    2 - 16

    4 - 24

    3 - 15

    9 - 27

    Anzeigepositon

    3

    2

    4

    1

    Die wichtigsten Faktoren für den Anzeigenrang sind Ihre Gebote, CPC und die Anzeigen-, Keyword- und Webseitenqualität, die in Form des Qualitätsfaktors angegeben wird. Bei der Berechnung des Anzeigenrangs wird auch berücksichtigt, welchen Einfluss Ihre Erweiterungen und andere Anzeigenformate voraussichtlich haben. Bei der Schätzung der erwarteten Auswirkungen von Erweiterungen und Anzeigenformaten werden verschiedene Faktoren berücksichtigt. Hierzu zählen etwa die Relevanz, die Klickrate, Click-through-Rate kurz CTR und die Präsenz der Erweiterungen oder Formate auf der Suchergebnisseite. Selbst wenn Ihre Mitbewerber höhere Gebote abgeben als Sie, können Sie mit äusserst relevanten Keywords, Anzeigen und Erweiterungen dennoch eine höhere Anzeigenposition zu einem niedrigeren Preis erzielen.

    Der Anzeigenrang wird jedes Mal neu berechnet, wenn Ihre Anzeige geschaltet werden kann. Die Anzeigenposition schwankt daher in Abhängigkeit von den Mitbewerbern zum Zeitpunkt der Anzeigenschaltung.

    Anzeigeposition AdWords

    Die Anzeigeposition der AdWords Anzeigen ist die Reihenfolge der Anzeigen auf einer Seite. Die Anzeigenposition "1" bedeutet, dass Ihre Anzeige auf der Seite an erster Position angezeigt wird. Dies kann oberhalb oder unterhalb der Suchergebnisse sein oder auf der rechten Seite bei der Google Suche. Die Anzeigeposition wird mit dem CPC und dem QF ermittelt und als Ad Rank dargestellt.

    AdWords Agentur

    Eine Onlinemarketing Agentur ist eine auf das Internet spezialisierte Werbeagentur. Sie kennen sich speziell mit den Werbetool wie AdWords, Affiliate-Marketing, Suchmaschinenoptimierung oder generell mit dem Suchmaschinenmarketing aus. Dabei haben gute Onlinemarketing Agenturen neben dem technischen Know How auch ein profundes Wissen im Marketing und den entsprechenden Strategien.

    AdWords Konto

    Die Google AdWords werden in einem entsprechenden Google AdWords-Konto geführt. Damit man die Übersicht nicht verliert, empfiehlt es sich dieses Konto mit einer klaren Struktur zu versehen.

    Aufbau und Struktur von einem Google AdWords Konto

    Der Aufbau ist logisch strukturiert, wie in der AdWords Hilfe dargestellt:

    AdWords Konto

    Mit einem gut strukturierten Google AdWords Konto behalten Sie nicht nur die Übersichtlichkeit, es hilft Ihnen auch massgeblich bei der Optimierung der Kampagnen. Dadurch können Sie die Effektivität der Anzeigen steigern und so einen besseren ROI erzielen. Bei vielen durch uns überprüften AdWords-Konten stellen wir aber immer wieder fest, dass keine Strukturen vorhanden sind.

    Übersichtliche Gliederung des AdWords Kontos

    Wie kann man nun aber das AdWords-Konto übersichtlich gestalten? Dazu nochmals ein paar Fakten zum Google AdWords-Konto:

    • - Ein Konto kann bis 10‘000 Kampagnen enthalten
    • - Eine AdWords Kampagne kann bis zu 20‘000 Anzeigegruppen enthalten
    • - Pro AdWords-Anzeigegruppe können bis zu 2.5 Millionen Keywords verwendet werden.
    • - Die Möglichkeiten der Sprach-, Zielregions- und Zeit-Einstellungen ausnutzen

    In einem ersten Schritt wird das AdWords-Konto wie oben beschrieben in einzelne Kampagnen und Anzeigegruppen gegliedert. Die Anzeigegruppen werden mit Vorteil in allgemeine und dann spezifische Anzeigen aufgeteilt. Die entsprechenden Suchbegriffe werden den Anzeigegruppen zugewiesen. Dabei ist wichtig, dass keine Duplikate von Keywords entstehen zwischen den einzelnen Anzeigegruppen. Dadurch erhalten Sie Gruppen von Anzeigen und Keywords, die unmittelbar zusammengehören. Das verbessert den Qualitätsfaktor und hilft so, die Kosten niedrig zu halten.

    Tipps und Tricks für die Gliederung des AdWords Kontos

    Keywords und Anzeigetexte

    Die in einer Anzeigegruppe verwendeten Anzeigetexte sollten möglichst gut mit den verwendeten Suchbegriffen übereinstimmen. Sie bieten Damenschuhe an. Also gibt es sicher eine Anzeigegruppe „Damenschuhe“. Für High Heels wird jedoch eine eigene Anzeigegruppe erstellt. Nun können Sie diese noch nach Marken und Farben trennen.

    Schlechte Keywords auslagern

    Optimieren Sie Ihre Anzeigegruppen, indem Sie Suchbegriffe mit einer schlechten Effizienz in eine entsprechend eigene Anzeigegruppe auslagern. Dadurch steigt der Qualitätsfaktor der guten Anzeige und die Optimierung der schlechten Keywords wird vereinfacht.

    Trennen der unterschiedlichen Netzwerke

    Vermeiden die Vermischung von Such- und Content-Netzwerk. Dies ist wichtig, weil die Bedeutung der Keywords in den Netzwerken unterschiedliche ist. Im Content-Netzwerk wird eine thematische Eingrenzung gemacht. Im Such-Netzwerk dagegen soll möglichst präzise auf die mögliche Suchanfrage reagiert werden. Es sind also völlig unterschiedliche Keyword-Listen gefordert.

    Suchergebnis

    Jeder möchte zu seinem Keyword in den Suchmaschinen gefunden werden. Doch haben Sie sich eigentlich schon einmal Gedanken darüber gemacht, wie die einzelnen Seiten zu Ihrem Internetauftritt in den Suchergebnissen, dem Ranking, angezeigt werden? Falls nicht, dann wird es höchste Zeit! Verschaffen Sie sich einen ersten Überblick, indem Sie die Site-Abfrage verwenden. Dazu geben Sie site:meinedomain.ch in bei der Google-Suche ein.

    Im Ergebnis erhalten Sie eine Liste mit allen Seiten zu Ihrem Internetauftritt, die Google im Index aufgenommen hat und somit auch in den Suchergebnissen zur Verfügung gestellt werden.

    Basics: Wie ist ein Suchergebnis eigentlich aufgebaut?

    Ein Suchergebnis, auch Snippet genannt, besteht aus drei wesentlichen Bestandteilen. Diese sind:

    • - Der Titel, Seitentitel
    • - Die Domain, bzw. URL
    • - Die Meta-Description – Seitenbeschreibung

    Hier als Beispiel wie unsere Seite bei Google angezeigt wird:

    Suchmaschinenoptimierung Basic. Dargestellt mit der Anzeige der Onlinemarketing Agentur SFC Group AG

    Wie sie erkennen können, wird der Seitentitel bedingt durch Schriftgrösse und Farbe am auffälligsten dargestellt. Es ist daher klar, dass Sie bereits im Seitentitel für Aufmerksamkeit sorgen müssen. Kommunizieren Sie deutlich, was Nutzer erwarten können, wenn Sie Ihre Seite aufrufen. Platzieren Sie Ihr Keyword direkt im Seitentitel.

    An Hand der Domain bzw. URL sehen Nutzer, wohin sie geleitet werden. Auch die URL sollte Ihr Keyword enthalten.

    Im dritten Abschnitt – der Seitenbeschreibung – stellen Sie weitere Informationen rund um die Inhalte auf Ihrer Seite zur Verfügung. Die Seitenbeschreibung, Meta Description sollte ebenfalls Ihr Keyword enthalten.

    Tipp: Achten Sie darauf, dass Ihr Keyword sowohl im Seitentitel als auch in der Seitenbeschreibung möglichst weit vorn steht. Denn Google weist Begriffen, die weiter vorn stehen eine höhere Relevanz zu. Vermeiden Sie Stichwortsammlungen. Und achten Sie darauf, dass er Seitentitel nicht länger als ca. 70 Zeichen ist.

    Übertreiben Sie es nicht mit den Sonderzeichen im Titel!

    Gehen Sie behutsam mit dem Einsatz von Sonderzeichen im Seitentitel vor. Google hat in der Vergangenheit bereits einige Riegel vorgeschoben. So wurden zum Beispiel fünf Sterne in der Seitenbeschreibung entfernt. Dies, weil derartige Angaben irreführend sind und von regulären Sternebewertung mit gelben Sternen ablenken kann.

B

    Bad Neighbourhood

    Der Begriff Bad Neighbourhood (Deutsch: Schlechte Nachbarschaft) wird für Internetseiten verwendet, die gegen die Suchmaschinenrichtlinien verstossen oder bereits durch einen Verstoss aufgefallen sind. In der Regel handelt es sich um Suchmaschinen-Spam.

    Solche Internetseiten werden meist mit einem Pagerank von Null geführt oder u.A. ganz aus dem Index entfernt. Jede Internetseite, die schon länger im Google-Index gelistet ist, aber einen PageRank von Null aufweist, ist zur Kategorie Bad Neighbourhood zu zählen. Es ist nicht bekannt, ob eingehende Links negative Auswirkungen auf die Seiten in den Suchergebnislisten haben, aber wer auf solche Seiten einen Link setzt, riskiert in jedem Fall früher oder später selbst eine massive Abwertung durch relevante Suchmaschinen.

    Der Begriff „Bad Neighbourhood" gilt z.B. in folgenden Fällen für:

    • Websites, die für Urheberrechtsverletzungen bekannt sind
    • Domains, die für Spam-Massnahmen bekannt sind
    • Webseiten mit „thin content"
    • Internetseiten mit massenhaft gekauften Backlinks (bzw. auch unnatürlichem Linkaufbau)

    Bad Neighbourhood gehört mit zu den Aufgaben der SEO. Falsch gesetzte Linkempfehlungen oder vermeintlich starke Backlinks können sich hier negativ auf die eigene Webseite auswirken.

    Black Hat SEO

    Black Hat SEO ist der Begriff für Suchmaschinenoptimierungsmethoden, bei denen unter anderem bewusst verschiedene Spam-Methoden eingesetzt werden, welche gegen die Richtlinien von Suchmaschinen verstossen, um so schnell eine Verbesserung des Rankings bei Suchmaschinenplatzierungen zu erreichen.

    Die angewandte Methoden sind sehr weitreichend, und beinhalten Techniken, wie z.B. Linkfarmen, Text Hiding, Back-Link Kauf und Cloacking. Angewendet werden aber auch eingriffsstärkere Methoden. Als Beispiel kann das automatisierte Linksetzen genannt werden. Ziel ist es, durch automatisierte Softwareprogramme viele Links auf verschiedenen Seiten anzubringen. Diese enthalten meist keine realen Inhalte, sondern sinnfreie, automatisch angelegte Texte. Hierbei erhofft man sich vor allem eine Steigerung der Linkpopularität.

    In Falle des "Text Hiding" werden Elemente der Webseite mit Keywörtern gefüllt, die danach entweder nicht sichtbar dargestellt werden (gleiche Text und Hintergrundfarbe), ober aber mit Hilfe von CSS unsichtbar oder ausserhalb des sichtbaren Bereiches der Webseiten positioniert werden.

    Desgleichen kann die Gewinnung von Links durch gezielte Käufe der Expired Domains oder durch das Aufbauen von einem sogenannten Satelliten-Domain Netzwerk erreicht werden.

    Google ist sich dieser Problematik bewusst und versucht aktiv dagegen vorzugehen. Folge des Einsatzes von Black Hat SEO kann eine Abstrafung (Penalty) sein, oder im schlimmsten Fall eine Verbannung aus dem Google-Index.

    Die Techniken mit denen Google versucht gegen diese Black-Hat optimierten Seiten vorzugehen sind z.B. die Updates Panda und Penguin.

    Backlink

    Ein Backlink (deutsch: Rückverweis) oder auch Inbound Link (deutsch: eingehender Link) ist ein eingehender externen Link von einer Webseite zu einer anderen. Vor der Entstehung der Suchmaschinen waren Links ein primäres Mittel der Webnavigation. Heute sind die Backlinks für die Suchmaschinenoptimierung bedeutsam. Die Anzahl der Backlinks ist häufig als ein Indiz für die Popularität oder Wichtigkeit einer Webseite zu interpretieren und ob eine Seite hohes Ansehen (Linkpopularität) im Web geniesst.

    Wert eines Backlinks

    Es gibt mehrere Faktoren, die den Wert eines Backlinks bestimmen. Backlinks von autorisierenden Seiten, die von sogenannten Trusted Domains kommen und themenrelevant verlinkt werden und einen hohen PageRank aufweisen, sind sehr wertvoll. Wenn beide Seiten themenrelevant zueinander verlinken, wird der Backlink als relevant betrachtet und positiv von der Suchmaschine bewertet. Ist ein Backlink vertrauenswürdig und themenerelevant kann dieser einen starken Einfluss auf die Suchmaschinen-Rankings der verlinkten Webseite haben. Man erbt einen Teil des Ranking und Vertrauens der verlinkenden Webseite. Ein Backlink stellt nicht nur eine Empfehlung des Inhalts dar, sondern ist eine redaktionelle Stimme"für die Webseite.

    Ein weiterer wichtiger Faktor ist der Anchor Text eines Backlinks. Der Anchor Text ist die beschreibende Kennzeichnung eines Hyperlinks. Je nach dem, wie der Anchor Text deklariert wird, erscheint dieser auch so im Text. Google untersucht eingehend die Anchor Texte, um die Relevanz festzustellen. Auch hier wurden in der Vergangenheit häufig "unnatürliche" Anchor Texte generiert.

    Suchmaschinen verwenden oft die Anzahl der Backlinks einer Seite für die Bestimmung der Popularität und Bedeutung der Webseite im Internet. Google's Algorithmus und das PageRank-System basieren auf der Logik, dass eine Seite, die eine andere Seite verlinkt, diese als Empfehlung betrachtet. Die Annahme ist, dass je mehr Backlinks eine Webseite hat, desto besser wird diese in den Suchergebnissen platziert. Diese Annahme führte zur Anhäufung von Spam-Methoden einiger Suchmaschinenoptimierer, wie zum Beispiel so viele eingehende Links wie möglich auf ihrer Webseite zu platzieren. Hierfür wurden mitunter auch Artikelverzeichnisse ausgenutzt. Somit entstanden Linkfarmen und Linkverkäufer, die massiv versuchten, die Suchmaschinen damit zu manipulieren.

    Heutzutage ist die Qualität eines Backlinks eher von Bedeutung als die Anzahl der externen eingehenden Links. Aufgrund einiger Google Algorithmus Updates wie z.B. dem Penguin Update können heutzutage qualitativ schlechte Links von Google einfach identifiziert und entwertet werden. Teilweise ist es sogar gefährlich, unerlaubte Methoden beim Linkbuilding zu benutzen, da man dadurch riskiert, dass die gesamte Domain aus dem Google Suchmaschinenindex verbannt wird. Es muss davon ausgegangen werden, dass Suchmaschinen in naher Zukunft solche Manipulationen automatisch sanktionieren. Sinnvoll eingesetztes Cross-Linking mit anderen vertrauenswürdigen Domains kann dem Ranking hingegen zugute kommen.

    Brandig

    Ein Brand ist für Konzerne und Markenhersteller etwas ganz normales. Für das Brandbuilding werden oft grosse Budgets innerhalb des Marketing aufgewendet. Ziel ist es dabei, bei den Konsumenten die Wahrnehmung der eigenen Marke zu stärken. Brandbuilding ist im Marketing daher bereits etwas ganz normales. Doch im Zeitalter der Suchmaschinen sollte die Marke nicht nur gegenüber den Konsumenten aufgebaut werden. Es muss auch den Suchmaschinen klar gemacht werden, dass es sich um eine Marke handelt. Technisches Brandbuilding bzw. SEO-Brandbuilding sollte in jeder langfristigen SEO-Strategie von Marken-Unternehmen enthalten sein.

    Neue Algorithmen, neue Tools und das menschliche Verhalten des Suchenden verändern sich permanent. Die Zukunft der Suche ist durch semantik der Daten gezeichnet. Es geht Heute viel mehr darum, dass Google & Co. eine Webseite verstehen können und diese nicht nur lesen. Dabei ist der wesentliche Unterschied von “lesen” und “verstehen” das entscheidene. Suchmaschinen können Seiten auch über die entsprechenden Tag und die verwendete Semantik verstehen.

    Aber auch weitere Faktoren, wie z.B. die Marke selbst sind wichtig, um möglichst viel Traffic über Google und andere Scuhmaschinen zu erhalten. Die relevanz von Marken hat Google bereits lange erkannt und daraufhin das Brand-Update (Venice-Update) 2009 in den Suchalgorithmus eingebaut. Das Update von Google hat grosse Marken auf den Brand-Keywords gestärkt. Ausserdem hat sich im Laufe der Zeit gezeigt, dass Marken, welche von Google auch als Marke eingestuft werden, keine oder geringere Beeinflussungen durch andere grosse Algorythmus-Updates wie Panda oder Pinguin erfahren.

    Bad-Bots

    Bad-Bots oder Webcrawler die sich nicht an die robots.txt halten

    Webcrawler können für erheblichen zusätzlichen Traffic auf einer Webseite sorgen. So werden auch Inhalte in Suchmaschinen indiziert, die eigentlich nicht für die Öffentlichkeit gedacht sind. Dies können z.B. Nutzerprofile sein, die zwar öffentlich zugänglich sein müssen, in Suchmaschinen aber nicht auftauchen sollen. Was kann man aber tun, wenn sich ein Crawler nicht an die Angaben in der robots.txt hält und alle Inhlate und Seiten indexiert? Auch die welche eigentlich die explizit ausgeschlossen wurden?

    Die bösen Crawlern, Bad-Bots kann man im vornherein den Zugriff auf die Webseite verbieten. Hierzu gibt es fertige Bad-Bot-Listen, die regelmässig aktualisiert werden und die man relativ einfach auf der Webseite einbauen kann.

C

    Cloaking

    Cloaking ist eine Technik zur Suchmaschinenoptimierung, bei der dem Robot einer Suchmaschine eine andere Seite präsentiert wird als dem Besucher. Diese Art der Suchmaschinenoptimierung dient zur besseren Positionierung in den Suchmaschinen. Diese Methode wird bei den professionellen Suchmaschinenoptimierern nicht gerne gesehen, da diese Technik in der Vergangenheit oft missbraucht wurde. Verstösse werden im schlimmsten Falle mit einem dauerhaften Ausschluss aus dem Index bestraft.

    Crawler

    Ein Webcrawler (auch Spider, Robots oder Searchbot) ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Webcrawler werden vor allem von Suchmaschinen eingesetzt. Weitere Anwendungen sind das Sammeln von RSS-Newsfeeds, E-Mail-Adressen oder von anderen Informationen.

    Wie beim Internetsurfen gelangt ein Webcrawler über Hyperlinks von einer Webseite zu weiteren URLs. Dabei werden alle aufgefundenen Adressen gespeichert und der Reihe nach besucht. Die neu gefundenen Hyperlinks werden zur Liste aller URLs hinzugefügt. Auf diese Weise können theoretisch alle verlinkten und nicht für Webcrawler gesperrten Seiten des WWW gefunden werden. In der Praxis wird jedoch oft eine Auswahl getroffen, der Prozess irgendwann beendet und von vorne begonnen. Je nach Aufgabe des Webcrawlers wird der Inhalt der gefundenen Webseiten beispielsweise mittels Indexierung ausgewertet und gespeichert, um ein späteres Suchen in den so gesammelten Daten zu ermöglichen.

    Mit Hilfe des Robots Exclusion Standards kann ein Webseitenbetreiber in der Datei robots.txt und in bestimmten Meta-Tags im HTML-Header einem Webcrawler mitteilen, welche Seiten er indizieren soll und welche nicht, sofern sich der Webcrawler an das Protokoll hält. (http://de.wikipedia.org/wiki/Webcrawler)

    CSS

    Ein Content Management System, oder kurz CMS ist ein Programm für die Inhaltsverwaltung und wird in diesem Zusammenhang für die Verwaltung von Webseiten eingesetzt. Also im Grunde eine Software, zur Erstellung, Bearbeitung und Organisation von Inhalten wie Text- und Multimedia-Dateien.

    Ein CMS ermöglicht professionelle und effiziente Gestaltung von Webauftritten. Es wird hierzu direkt auf dem Server des betreffenden Kunden installiert und zeichnet sich durch Einfachheit in der Bedienung aus. Eine programmierung der Webseite mittels HTML ist nahezu überflüssig.

    Die bekanntesten Open Soure CMS sind Joomla, Dupal, Typo3 und WordPress. Welches eingesetzt werden soll, hängt von den Anforderungen der Webseite und den Vorkenntissen ab.

    CPC

    Der CPC (Cost per Click) ist der Wert, mit dem bei Google AdWords für eine geklickte Anzeige abgerechnet wird. Verrechnet wird mit dieser Art der Werbung nur, wen diese Anzeige auch geklickt wurde. Über den CPC wird in einem ausgeklügelten Auktionsverfahren die Anzeigeposition der Werbung ermittelt.

    Wie berechnet sich der CPC?

    Gehen wir davon aus, dass 4 Werbende eine Anzeige auf den gleichen Suchbegriff schalten und alle das gleiche maximale Gebote für den CPC eingerichtet haben. Sie haben aber unterschiedliche Qualitätsfaktoren, QF. Ein hoher Qualitätsfaktor bedeutet das die Anzeige und Suchbegriff zur verwendeten Zielseite sehr relevant sind.

    Werbender

    Bieter 1

    Bieter 2

    Bieter 3

    Bieter 4

    CPC max

    6.00 €

    6.00 €

    6.00 €

    6.00 €

    QF & AdRank

    9 - 54

    4 - 24

    3 - 18

    1 - 6

    CPC eff.

    2,66

    4.50

    2.00

    minimal Preis*

    An diesem Beispiel erkennt man, wie sich der Qualitätsfaktor auf den CPC und somit auf die Anzeigeposition auswirken. * der minimal Preis wird durch Google festgelegt. Dabei ist er von den Anzahl Bietern abhängig. Je mehr Bieter mit diesem Suchbegriff eine Anzeige schlaten wollen, desto höher wird das minimal Gebot.

    CTR

    Die Click-Through-Rate, CTR oder einfach Klickrate gibt an, wie oft Personen, die Ihre AdWords Anzeige sehen, schliesslich darauf klicken. Anhand der CTR können Sie einschätzen, ob Ihre Keywords und Anzeigen eine gute Leistung aufweisen.

    Die CTR wird aus den Anzahl Impressionen, Anzeigen der AdWords, geteilt durch die tatsächlichen Klicks ermittelt. Wenn Sie zum Beispiel 100 Impressionen und 2 Klicks haben, erreichen sie einen CTR von 2%. Dabei hat jede Google AdWords Anzeige und jedes Keyword seinen eigenen CTR.

    Ein hoher CTR muss dabei nicht immer erfolgreich sein. Die Anzeige soll ja möglichst auch zu einen Abschluss führen und möglichst wenig Streuverlsut aufweisen. Dazu kann auch eine Conversion eingerichtet werden.

    Der erwartete CTR fliesst auch in den QF ein und beeinflusst damit die Kosten der AdWords Anzeige, den CPC.

    Conversion

    Mit dem Conversion-Tracking von Google AdWords wird erfasst, wenn ein Nutzer auf Ihre Anzeige klickt und anschliessend eine definierte Aktion ausführt. Die Aktion, welche Sie für Ihr Unternehmen als wertvoll betrachten, werden entsprechend markiert. So können Sie beispielsweise einen Onlinekauf oder einen Aufruf des Kontaktformulares als Conversion definieren.

    Anhand von Conversions lässt sich ermitteln, inwiefern Ihre Onlineanzeigen für Ihr Unternehmen wertvoll sind.

    In Ihren Statistiken können bis zu zwei verschiedene Arten von Conversion-Daten erfasst werden.

    Das Verhältnis Klick-Conversions bezieht sich auf die Anzahl aller Klicks auf eine AdWords-Anzeige, welche innerhalb des definierten Zeitraums zu einer oder mehreren Conversions geführt haben. Wenn daher Ihre Erfassungseinstellungen so festgelegt sind, dass einzelne Conversions erfasst werden, und nach einem einzelnen Klick auf eine Anzeige mehrere Conversion-Aktionen erfolgen (beispielsweise eine Anmeldung per Kontaktformulat und eine Offertanfrage), steht in dieser Spalte für den Klick trotzdem "1". So können Sie die Anzahl einzelner Kundenakquisitionen leichter messen, erhalten aber keinen Einblick in den relativen Wert der einzelnen Klick-Conversions.

D

    Display-Netzwerk von Google

    Display-Netzwerk von Google gehört zu dem Marketingtool AdWords. Für nicht Google spezifische Lösungen wird auch der Begriff "Affiliate-Marketing" verwendet. Es ist eine klassische Form des Onlinemarketing und basiert auf Text-Anzeigen oder in Form von Bildern, Videos oder Animationen.

    Erweiterte Formen sind z.B. dynamische Anzeigen basierend auf dem Google Merchant Center oder die etwas agressive Nutzerverfolgung mit Remarketing.

    Das Display Marketing kann unter anderem als eine klassische Onlinewerbung mit Grafikbannern definiert werden. Synonyme für Display Marketing sind noch “Display Advertising”, “Onlinewerbung” und “Bannerwerbung”.

    Das Google Display-Netzwerk besteht aus einer Vielzahl an Blogs und Webseiten, die Google über das Adsense-System Werbefläche zur Verfügung stellen.

    Funktionsweise:

    Jeder, der eine Webseite besitzt, kann sich für das AdSense-Programm von Google anmelden. Nach einer Prüfung haben die Publisher dann die Möglichkeit, Werbeflächen auf Ihrer Webseite über Google anderen Werbetreibenden zur Verfügung zu stellen. Die Werbetreibenden können diese Flächen über die Adwords-Benutzeroberfläche belegen. Das Google-Werbenetzwerk besteht aus einer Vielzahl von Webseiten und Blogs. Es dürften mittlerweile über 2 Million Webseiten und Blogs sein, die im AdSense-System von Google Ihrer Internetpräsenz anbieten. Die Webseiten werden Themen zugeordnet, um danach Werbung gezielter bzw. relevanter schalten zu können.

    Die Anzeigen im Display-Netzwerk können nach speziellen Kriterien ausgerichtet werden:

    • Zum Kontext des Werbetreibenden
    • Nach URL's und Domains
    • Nach thematisch interessanten Webseiten oder Blogs
    • Nach Interessen des Besuchers
    • Nach geographischer Kriterien
    • Via Remarketing

    Die verschiedenen Möglichkeiten können einzeln angewendet oder miteinander kombiniert werden.

    Darknet

    "Dunkles Netz" beschreibt in der Informatik ein Peer-to-Peer-Netzwerk, dessen Teilnehmer ihre Verbindungen untereinander manuell herstellen.

    Das Darknet kann von den Suchmaschinen nicht erkannt und indiziert werden.

    Das Darknet muss nicht illegal sein.

    Die Idee hinter den Online-Darknets ähnelt dem Konzept der Geheimbünde und verborgenen Organisationen der realen Welt und hat erst einmal nichts mit illegalen Machenschaften zu tun. Nur wer mindestens einem Logenmitglied persönlich bekannt ist, wird zu den Treffen zugelassen. Diese finden an mehr oder weniger öffentlich zugänglichen Orten statt, aber nur Eingeweihte wissen, was sich wann und wo abspielt. Aufs Internet übertragen heisst das: Darknets setzen auf die gleiche Technik wie alle anderen Internetdienste. Jeder der die Zugangsdaten kennt kann auf die Informationen zugreifen. Meistens wird dafür eine spezielle Software verwendet.

    Entstanden sind Darknets, seitdem Strafverfolger weltweit Tauschbörsen unter die Lupe nehmen und die rührigsten Teilnehmer ju­ristisch verfolgen. Die Filesharer suchten nach Wegen, ihr Treiben unbehelligt fortzusetzen und konzipierten ein verstecktes Pendant zu den öffentlich zugänglichen Peer-to-Peer-(P2P-)Plattformen wie Napster, eDonkey oder BitTorrent. In P2P-Netzen kümmern sich meist zentrale Server darum, dass alle Nutzer MP3-Dateien, Videos oder Bilder austauschen können – freilich ohne sich dabei um Ur­heberrechte oder andere rechtliche Details zu kümmern.

    Dynamische AdWords-Suchanzeigen

    Die klassischen AdWords-Textanzeigen werden anhand von Keyword-Listen bei Suchanfragen geschalten. Mit den dynamischen Suchanzeigen (Dynamic Search Ads) werden die AdWords anhand von einem Google-Tool auf den Inhalt der Webseite erstellt. Damit wird das Definieren von Keyword-Listen hinfällig und gemäss Google wird ein besserer Return on Invest (ROI) erzielt.

    Entstehung der dynamischen Suchanzeigen

    Die dynamischen Suchanzeigen sind Teil einer grundlegenden Erweiterung von Werbemöglichkeiten mittels Google AdWords. Nach der Einführung der Anzeigen mit Produktinformationen (Product Listing Ads) im Jahr 2013, mit welchen grosse Datenmengen leichter in Bildanzeigen umgesetzt werden können, bilden die dynamischen Suchanzeigen neben Google AdWords Express über Google MyBusiness einen weiteren Schritt in Richtung automatisierter Suchmaschinenwerbung. Dabei profitiert der Kunde von Googles grossen technischen Fortschritt im Bereich der Websuche. Für Werbekunden wird es dadurch noch lukrativer AdWords zu schalten.

    Nutzen für Onlinemarketing mit AdWords

    Gemäss Aussagen von Google sollen sich sowohl Klicks als auch Conversions und der ROI bei Testkunden um bis zu 10 Prozent erhöht haben. Dynamisch generierte Suchanzeigen eignen sich vor allem für Shops mit grossem Sortiment, deren Inhalte sich häufig ändern. Auf diese Weise bleiben die AdWords-Anzeigen immer aktuell und beziehen sich auf die korrekten Inhalte, ohne dass dafür Anzeigentexte und Keyword-Sets abgeändert werden müssen. Nicht geeignet sind die dynamischen Suchanzeigen für Webseiten mit Tagesangeboten. Hier besteht die Gefahr, dass Google die neuen Inhalte noch nicht kennt und somit falsche Anzeigen schaltet.

    Vor- und Nachteile von dynamischen Suchanzeigen

    Kampagnen mit dynamischen Suchanzeigen bieten den Vorteil, dass man zusätzliche Reichweite generiert. Die AdWords werden zu bisher nicht belegten Suchbegriffen ausgeliefert und somit Traffic generiert. Dynamischen Suchanzeigen eignen sich sehr gut zur Generierung neuer Keyword Ideen.

    Der Nachteil der dynamischen Suchanzeigen ist die Abgabe der Kontrolle über die Auslieferung sowie, damit verbunden, die Kontrolle über die Anzeigentexte der AdWords und teilweise auch der Zielseiten. Weiter ist auch die rechtliche Situation brisant. Wenn auf der Webseite fremde Markennamen genannt werden und Google eine Relevanz zu diesen herstellt, kann bei der Anzeige der AdWords plötzlich ein fremder Markenname verwendet werden. Daher empfehlen wir den konsequenten Ausschluss von bekannten Markennamen schon beim Erstellen einer Kampagne mit dynamischen Suchanzeigen.

E

    Ethische Regeln für SEO

    Die ethischen Regeln für SEO beschreiben die Methoden zur Verbesserung der Sichtbarkeit der Webseiten bei Suchmaschinen. Dabei gibt es eine ganze Reihe Methoden die als unlauter oder nicht ethisch betrachtet werden. Methoden um Webseiten bei den Suchmaschinen nach vorne zu puschen bezeichnet man als Black Hat Methoden. So bearbeitete Webseiten können von den Suchmaschinen verbannt werden. Das heisst, sie werden nicht mehr angezeigt. Alle Massnahmen, die die ethischen Regeln einhalten bezeichnet man als White Hat Methoden.

    Siehe dazu auch die Beschriebung auf Wikipedia

F

    Full-Screen-Design

    Was früher höchstens mit Flash möglich war, ist mit modernen Webtechnologien jetzt für jedes Endgerät Realität geworden. Webseiten mit festen Grössen gehören der Vergangenheit an und werden mit beeindruckenden Fotos, Videos und Design-Elementen von Vollbild-Webseiten abgelöst. Die „klassische Webseite“ wird damit aber nicht aussterben. Vor allem für Produkteseiten und eine beeindruckende, interaktive Präsentation und Benutzerführung sind Vollbildseiten das Werkzeug der Wahl. Denn „Bilder sagen mehr als tausend Worte.“ Sind diese dann auch auf den Text und das restliche Design abgestimmt, ist die Aufmerksamkeit der Benutzer fast schon garantiert.

    Aus Sicht der Suchmaschinenoptimierung sind diese Seiten aber nur bedingt zu empfehlen. Da ist die klassische Webseite ganz klar im Vorteil.

    Forrester

    Unternehmen verschwenden Zeit und Geld auf Facebook und Twitter

    Forrester Research hat sich bereits häufiger kritisch mit dem Thema Social Media Marketing beschäftigt. So haben sie beispielsweise darauf hingewiesen, dass E-Mail mehr Klicks und Conversions als Facebook bringt und Social Media weniger als 1% der Kaufentscheidungen beeinflusst.

    Nun legt Forrester mit der neusesten Studie nach und findet noch kriterische Worte: Unternehmen verschwenden Zeit und Geld auf Facebook und Twitter, orignial Zitat: Brands Are Wasting Time And Money On Facebook And Twitter.

    Forrester rät den Unternehmen damit aufzuhören, Facebook zum Zentrum ihres Relationship Marketing zu machen. Die Analysten beziehen sich dabei auf eine Ogilvy Studie, nach der Unternehmen lediglich 2% ihrer Follower auf Facebook erreichen.

    Nun kann und sollte man jede Studie kritisch hinterfragen und diskutieren. Spätestens nachdem Facebook angekündigt hat, im kommenden Jahr die Sichtbarkeit von werblichen Postings noch weiter einzuschränken, müsste es Unternehmen aber klar sein, dass Social Media Marketing ein Fass ohne Boden sein kann.

    Vor allem Facebook ist hier ein wahres Meisterstück gelungen:

    • - Unternehmen platzieren das Facebook-Logo auf ihren Websites und in den Werbemittel, um mehr Reichweite auf dem sozialen Netzwerk aufzubauen. Das ist wahres Marketing für Facebook.
    • - Unternehmen buchen für viel Geld Facebook Ads, um noch mehr Fans für ihre Seiten aufzubauen.
    • -Facebook ermöglicht den Benutzern die Sichtbarkeit von werblichen Postings stark einzuschränken. Die teuren Facebook Ads verpuffen.
    • - Damit die Unternehmen weiterhin mit ihren Fans kommunizieren können und die Anzahl noch weiter aus zu bauen, nun regelmässig immer neue FAcebook Ads gebucht werden.
    • - Die Börse und Facebook wird das sicherlich freuen.
    Favicon

    Das Favicon ist eine Wortkombination aus dem Englischen und steht für Favorites Icon. Das Favicon ist ein grafisches Element welches im Browser in der Adressleiste oder auch im Register angezeigt wird. Das Favicon soll der angezeigten Webseite eine zusätzliche Weidererkennung geben. Ursprünglich wurde das Favicon von Microsoft mit den Internet Explorer 5 eingeführt. Es wird heute aber von dem meisten Browsern dargestellt.

    Ein Favicon ist standardmässig 16 x 16 Pixel gross und wird im Format .ico gespeichert. In einigen Anwendungen kann das Favicon auch 32 x 32 Pixel gross sein.

    Favicon in die Webseite einbinden

    Es gibt zwei Möglichkeiten, ein Favicon in eine Seite einzubinden.

    1. Speicher Sie das Favicon mit dem Namen „favicon.ico“ im Basisverzeichnis der Weseite. Beispiel: //ich.net/favicon.ico. Browser beachten Dateien mit Namen favicon.ico in anderen Verzeichnissen nicht. Es sollten auch keine anderen Formate als das ico-Format verwendet werden.

    2. Referenzierung über ein HTML-Element, das in die Headerdaten () einer HTML-Seite eingebunden wird. Laut HTML-Standard lautet die Bezeichnung hierfür icon. Für den Internet Explorer von Microsoft benötigt man aber die Bezeichnung shortcut icon. Hier sind auch andere Bildformate als .ico erlaubt.

    Beispiel:

    Standardgrössen und Farbtiefen:

    • - Für .ICO: 16×16 oder 32×32 und bis 16,7 Millionen Farben
    • - Für .GIF und .PNG: 16×16 und 256 Farben
    Flash

    Flash ermöglicht es, Vektorgrafiken, Rastergrafiken und Videoclips darzustellen, zu animieren und zu manipulieren. Es unterstützt das bidirektionale Streaming von Audio- und Videoinhalten und kann Nutzereingaben über Maus, Tastatur, Mikrofon und Kamera verarbeiten. Die Programmierung von Inhalten erfolgt in der objektorientierten Skriptsprache ActionScript. Seit der ersten Veröffentlichung von Version 11 des Flash Player am 4. Oktober 2011 unterstützt Flash die Darstellung von 3D-Inhalten über die sogenannte Stage3D-API.

    Der Adobe Flash-Player ist das am meisten eingesetzte Plug-in für die Browser. Er ist in einer 32- und 64-Bit Version erhältlich. Der Flash-Player wird allerdings seit Herbst 2013 für Mobile-Browser nicht mehr weiter entwickelt. Für Apple iOS war er gar nie verfügbar.

    Da Flash ursprünglich ein reines Animationswerkzeug war, wurde es in der Vergangenheit oft ausschliesslich für Intro-Animationen auf Webseiten oder animierte Werbebanner eingesetzt. Mit Version 4 wurde Flash um ActionScript und damit um eine Steuerungsmöglichkeit erweitert. Es erlaubt seitdem die Erstellung interaktiver Inhalte oder die Programmierung browserbasierter Anwendungen. Diese Kombination ermöglicht interaktive Präsentationen, zum Beispiel Kugelpanoramen, Spiele oder Medien im Bereich des E-Learning.

G

    Google-Bot

    Ein Crawler ist ein automatisiertes Programm welches Dokumente (Webseiteninhalte) erfasst und verarbeitet. Der Google-Bot ist der Crawler von Google.Diese Crawler werden auch Spider genannt.

    Der Google-Bot durchsucht täglich Milliarden von Webseiten nach neuen und aktualisierten Webseiteninhalten.

    Das Verhalten des Google-Bots lässt sich z.B. mit der robots.txt, sitemaps und Html-Elementen steuern.

H

    HTML

    HTML, Hypertext Markup Language ist eine sogenannte Auszeichungssprache. Mit der Einführung des World Wide Web wurde auch ein Lösung für die Darstellung und Strukturierung von Texinhalten benötigt. Im Jahre 1992 wurde die erste Version von HTML eingeführt. In der Weiterentwicklung konnten nicht nur Texte dargestellt werden, sondern auch Bilder und Hyperlinks. Die Auszeichungssprache HTML wird durch den Webbrowser interpretiert und dargestellt. Neben den vom Webbrowser angezeigten Inhalten einer Webseite enthält HTML zusätzliche Angaben in Form von Metainformationen, die z. B. über die im Text verwendete Sprache und den Autor Auskunft geben oder die den Inhalt des Textes zusammenfassen.

    HTML wird vom W3C (World Wide Web Consortium) und der WHATWG (Web Hypertext Application Technology Working Group) weiterentwickelt.

    Die korrekte Anwendung des HTML-Codes ist nicht nur für die Browser wichtig. Auch die Suchmaschinen bewerten feherfreie Webseiten besser.

    Hyperlink

    Der Hyperlink ist ein elektronischer Querverweis. Er wird in einem Hypertext dargestellt, was funktional einem Sprung an eine andere Stelle entspricht. Das Ziel kann dabei innerhalb dem Dokument liegen oder zu einem anderen elektronisch erreichbarem Dokument zeigen. Wird der Hyperlink ausgeführt, wird automatisch das angegebene Ziel aufgerufen. Im Allgemeinen wird der Begriff auf das weltweite Netz bezogen, kann aber zum Beispiel auch in einem text-Dokument verwendet werden. Das Konzept der Hyperlinks entspricht logisch dem Querverweis aus der konventionellen Literatur.

    Mit einem Hyperlink können auch Dateien von einem anderen Typ, die erreichbar sind, aufgerufen werden. Hyperlinks können somit genutzt werden, um zum Beispiel Webseiten, Dokumente, Filme, Bilder usw. zu erreichen. Die Zieldateien können vielfach auch lokal auf den Computer geladen werden.

    Ein verlinktes Dokument liegt vor, wenn es mindestens ein weiteres Dokument gibt, welches mit einem gültigen Hyperlink auf dieses Dokument verweist. Die Hyperlinks werden in einer Auszeichungssprache, meistens mittels Hypertext Markup Language erstellt. Der Link des verlinkenden Dokuments besteht in der Regel aus zwei Teilen. Einem „sichtbaren“ Teil, z.B. ein Bild, ein Symbol oder einem Text, der dem Benutzer anzeigt was in erwartet und einem unsichtbaren Teil. In diesem Teil wird das Linkziel als HTML-Code für diesen Link hinterlegt. Dadurch können Hyperlinks gesetzt werden, ohne dass der Lesefluss unterbrochen wird. Auch können damit lange oder schlecht lesbare Ziele einfach dargestellt werden.

    Homepage

    Die Homepage oder zu Deutsch die Hauptseite, bezeichnet die Webseite, die für eine ganze Internetpräsenz steht. Genau genommen bezeichnet sie die Seite, die als zentrale Ausgangsseite eines Internetauftritts angezeigt wird. In der Umgangssprache wird Homepage auch als Bezeichnung für einen gesamten Internetauftritt verwendet und mit der Webseite gleichgesetzt. Die Webseite wird oft auch mit dem Begriff Website bezeichnet.

    Die Homepage ist also die Webseite, welche beim Aufruf der Domain angezeigt wird. In der Hierarchie der Webseite steht sie an oberster Stelle. Die Homepage soll dem Besucher eine einfache Navigation auf die einzelnen Website ermöglichen und einen guten Gesamteindruck über den Inhalt der ganzen Webseite vermitteln. Die Homepage wird gelegentlich auch als Indexseite, Startseite, Hauptseite, Frontpage, Einstiegsseite, oder Leitseite bezeichnet.

    Das sollte auf der Homepage auf keinen Fall mehr gemacht werden:

    • - Intro, welches automatisch startet.
    • - Flash-Animationen; diese sollten heute auf der ganzen Webseite nicht mehr verwendet werden, da diese vor allem von Mobilegeräten nicht immer dargestellt werden können.
    http-Statusmeldungen

    Ohne HTTP Weiterleitungen (redirects) kommt keine Webseite aus. Weiterleitungen kommen vor allem immer dann zum Einsatz, wenn die ursprüngliche URL nicht mehr funktioniert oder umgezogen wurde. Der Einsatz von Weiterleitungen kann verschiedene Gründe haben und mit die bekannteste Statusmeldung ist sicherlich der Statuscode „404 not found“.Dieser wird Besuchern angezeigt, wenn der angeklickte Link auf einer Website defekt ist und der dazugehörige Inhalt nicht mehr existiert. Jeder Websitebetreiber sollte auf den richtigen Einsatz von Weiterleitungen achten. Und zwar nicht nur, um das Nutzererlebnis von Besuchern zu optimieren. Denn defekte Links schaden Ihrer Online-Reputation und können sich negativ auf Ihre Platzierung zu Ihren Keywords in den Suchergebnissen auswirken. Wir stellen Ihnen die wichtigsten Weiterleitungen vor und geben Ihnen Tipps für den optimalen Einsatz.

    Grundlagen zu HTTP Statuscodes

    Bevor wir die wichtigsten Statuscodes 301, 302 & 404 beschreiben, gehen wir kurz die Funktionen von http Statuscodes durch. HTTP steht als Abkürzung für Hypertext Transfer Protocol. Bei jeder HTTP-Anfrage durch einen Client – z.B. durch Browser – an einen Server, liefert dieser eine Antwort in Form eines HTTP Statuscodes. An Hand dieses Codes wird dem Client mitgeteilt, ob die Anfrage erfolgreich bearbeitet werden konnte oder falls nicht, welcher Fehler aufgetreten ist. Zur Strukturierung sind die dreistelligen Statuscodes in einzelne Klassen unterteilt. Die erste Ziffer entspricht der jeweiligen Statusklasse. Die vollständige Liste der Statuscodes finden Sie am Ende von diesem Artikel.

    Aus Sicht der Suchmaschinenoptimierung, SEO, sind die Klassen der Grupp 3xx, Umleitung und der Statuscode 404, not found relevant.

    Der richtige Umgang mit der http-Klasse 3xx Umleitungen

    Die beiden wichtigsten Statuscodes in dieser Klasse sind die 301 und 302. Wann sollte welcher Status verwendet werden?

    301 Statuscode: Die angefragten Informationen werden dauerhaft unter einer neuen Adresse bereitgehalten. Die alte Adresse steht nicht mehr zur Verfügung und ist nicht mehr gültig. Der Server sendet die neue Adresse an den Client zurück, sodass dieser die Inhalte unter der neuen Adresse abrufen kann. Der Index vom „alten“ Link wird an den neuen vererbt.

    302 Statuscode: Die angefragten Informationen stehen temporär unter einer neuen Adresse zur Verfügung wobei die ursprüngliche Adresse weiterhin bestehen bleibt. Zwar liefert der Server die neue Adresse zur Abfrage aus, aber der Googlebot prüft weiterhin, ob sich Änderungen auf der alten Adresse ergeben haben. Insofern sollte dieser Statuscode bei einer dauerhaften Umleitung nicht verwendet werden.

    Siehe dazu auch die Beschreibung Webseiten Relaunch.

    Aus verschiedenen Gründen lohnt sich das Einrichten von Umleitungen unter SEO Aspekten. Diese sind unter anderem:

    Google möchte Nutzern immer ein gutes Ergebnis ausliefern. Wenn Ihre Inhalte unter der bisherigen URL nicht mehr vorhanden sind, und Sie keine Weiterleitung eingerichtet haben, so wird eine 404 not found Meldung ausgeliefert. Für Sie kann das bedeuten, dass Ihre Besucher Ihre Seite sofort wieder verlassen, weil sie nicht die Informationen vorfinden, mit denen sie gerechnet haben. Für Google sind kurze Besuchszeiten und hohe Absprungraten wiederum ein Signal, dass Ihre Website nicht attraktiv ist. Die Webseite wird an Sichtbarkeit verlieren und die Rankings zu Suchbegriffen verschlechtern.

    Google weiss nicht genau, welche Inhalte die wichtigsten sind, wenn Ihre Website sowohl mit als auch ohne www angezeigt wird. Auch in diesem Fall lohnt es sich, eine permanente Weiterleitung anzulegen. Gleichzeitig vermeiden Sie damit doppelten Content.

    Die induviduelle Fehlerseite

    Der Statuscode 404 ist fast nicht zu vermeiden. Daher sollten Sie eine individuelle Fehlerseite erstellen und den Besucher auf der Webseite behalten. Es lohnt sich also durchaus hier einen gewissen Aufwand zu treiben, denn Fehler werden auftreten. Eine gute Fehlerseite überrascht den Besucher vielleicht sogar positiv. Sicher ist aber, dass Google & Co schlecht auf fehlende Fehlerseiten reagieren. In diesem Falle betrachten Sie den 404 Statuscode als soft broken.

I

    Internetmarketing

    Internetmarketing ist ein Sammelbegriff und umfasst alle Marketing-Aktivitäten, die durch das Medium Internet ermöglicht werden. Eine genaue Gliederung in verschieden Teildisziplinen ist dabei nur schwer realisierbar. Die zugrunde liegenenden Möglichkeiten sind sehr umfassend und komplex. Auch unterscheiden sich die Marketing-Prioritäten je nach Betrachter. Gemeinsam haben alle Internetmarketing Massnahmen, dass sie den Verkaufsprozess unterstützen und optimieren.

    Mehr Details unter: Onlinemarketing

K

    Keyword Generator

    Mit dem AdWords Keyword Generator können Sie sich einfach die Keywordliste für Google AdWords erstellen. Mit diesem kostenlosen AdWords Keyword Generator können Sie die Keywords auch nach den Regeln von Google AdWords erstellen und einfach in Ihre AdWords Kampagne importieren.

L

    Landing Page

    Beschäftigt man sich intensiv mit seiner Internet-Präsenz (SEM & SEO), taucht früher oder später der Begriff Landing Page auf. Die Landing Page bedeutet etwa soviel wie Landebahn..Und genau das ist auch Sinn und Zweck der Landing Pages.

M

    Mobile tauglich

    Damit eine Webseite auch auf mobilen Endgeräten korrekt und lesbar dargestellt wird, gibt es grundsätzlich 3 verschiedene Lösungsansätze. Diese werden auch von Google gleich bewertet. Wir empfehlen jedoch ganz klar das Native Responsive Design.

    Responsive Design:

    Bei diesem von Google empfohlenen Ansatz wird unabhängig vom verwendeten Gerät derselbe HTML Code bereitgestellt. Ebenso bleibt die URL gleich. Jedoch werden Inhalte je nach Bildschirmgrösse dynamisch anders dargestellt oder ausgeblendet. Dies wird über entsprechende Befehle im CSS erreicht. So verändert sich bei der Verwendung von Responsive Design zum Beispiel die zweispaltige Darstellung auf dem Computer in eine einspaltige Darstellung auf dem Smartphone. Dabei werden auf dem Smartphone in der Regel Inhalte aus der Hauptspalte oben und aus den Seitenleisten darunter angezeigt. Bei einer dreispaltigen Darstellung auf dem Computer kommt es durchaus vor, dass nur Inhalte von zwei Spalten im Smartphone angezeigt werden. Dies vor allem vor dem Hintergrund, um Nutzern ein nahezu endloses Scrollen zu ersparen. Zumal sich in den Seitenleisten oftmals Informationen befinden, die auf allen Unterseiten einer Website identisch sind. Ein Umstand, der auf kleinen Bildschirmen eher nicht zu einem positiven Nutzererlebnis beiträgt. Der Inhalt der Webseite im Backend ist nur einmal zu erstellen und pflegen.

    Dynamische Bereitstellung:

    Bei dieser Konfiguration wird ebenfalls auf die gleiche URL zurück gegriffen. Jedoch wird an die verschiedenen Geräte ein sich voneinander unterscheidender HTML- und CSS Code ausgeliefert. Es ist nicht sofort erkennbar, dass die Website einen anderen HTML Code bei Besuchen über mobile Endgeräte verwendet. Über einen sogenannten Vary-HTTP Header erhält der Browser einen Hinweis darüber, welches HTML ausgeliefert werden soll. Vary steht für Varianz – je nachdem, mit welchem Browser eine Seite aufgerufen wird, werden andere Inhalte angezeigt. Der Vary-HTTP Header sorgt unter anderem auch dafür, dass Inhalte aus dem Cache, die für den Deskop gedacht sind, nicht an mobile Endgeräte ausgeliefert werden. Ausserdem unterstützt der Vary-HTTP Header den Googlebot bei der schnelleren Erkennung der Inhalte, die Sie speziell für mobile Endgeräte bereitstellen. Diese Konfiguration der dynamischen Bereitstellung ist sehr komplex und gilt als fehleranfällig. Lassen Sie sich im Vorfeld beraten, ob diese Konfiguration überhaupt für Ihr Projekt geeignet ist, da auch die Inhalte entsprechend für die Gerätekategorie bereitgestellt werden müsse. Mehrfach Aufwand.

    Unterschiedliche URLs:

    Hier wird unterschiedlicher Code zu unterschiedlichen URLs wie www.meinedomain.ch und m.meinedomain.che bereitgestellt. Über Weiterleitungen und Vary-HTTP Header sollen Nutzer auf die passenden Inhalte geführt werden. Dies geschieht mit zwei speziellen Tags. Auf der Seite für den Desktop weist der Tag rel=”alternate” auf die entsprechende mobile Version hin. Auf der mobilen Seite weist der Tag rel=”canonical” auf die entsprechende Desktop URL hin. Auch diese Konfiguration benötigt tieferes technisches Verständnis und der Inhalt muss dem Endgerät entsprechend bereitgestellt werden. Auch hier ist daher ein mehrfach Aufwand nötig.

    My Business

    Google My Business – Ein neuer Dienst von Google

    Ein einfacher Weg für Unternehmen, bei Google gefunden zu werden!

    Google ist die bedeutendste Suchmaschine auf der Welt. Wer im Netz nach einem Unternehmen, einem Produkt oder einer Dienstleistung sucht, lässt sich in den meisten Fällen von Google helfen. Nicht verwunderlich, dass jedes Unternehmen einiges macht oder machen sollte, um bei Google schnell und gut gefunden zu werden.

    Google My Business ist der neue Dienst von Google, der es Unternehmen möglich macht, alle Firmeninformationen (z.B. Daten, Bilder, Videos etc.) an einer zentralen Stelle zu sammeln und zu verwalten. Sie werden danach für die verschiedenen Dienste wie Google+, Google Maps und die Google Suche verwendet. Suchenden ermöglicht diese zentrale Anlaufstelle, dass sie ihr Unternehmen schnell und möglichst einfach und effizient finden. Ungeachtet in welchem Dienst sie nach den Keywörtern suchen, die mit Ihrem Unternehmen verbunden sind.

    Was ist Google My Business ganz allgemein?

    Mit Google My Business halten Sie alle Informationen und Daten in allen Diensten von Google schnell und einfach aktuell. Einpflegen, ändern oder ergänzen müssen sie alle Angaben nur an einer einzigen Stelle. Von dort aus (My Business) werden sie für alle Google Dienst zentral bereitgestellt. Dazu zählt die Google Suche, Google Maps und Google+.

    Ihre Kunden haben die Möglichkeit, sie auf Ihrer Google+ Seite zu beurteilen und Erfahrungsberichte zu hinterlassen. Der Vorteil ist, dass die Bewertungen dann auch in die Suchergebnisse integriert werden. Mittels Statistiken können sie die verschiedenen Beiträge verfolgen (auch für einen YouTube-Kanal möglich). Zusätzlich können direkt aus dem Verwaltungstool heraus Kampagnen für die Suchmaschinenwerbung gestartet werden.

    Google Places ist jetzt ein Teil von Google My Business

    Die bisher bekannten Dienste wie Google Places und Google+ Local sind verschwunden. Sie haben das sogenannte Branchenbuch von Google betitelt, dass hauptsächlich für kleinere, regional tätige Firmen konzipiert wurde. Google Places und Google+ Local sind nun neu ein Teil von Google My Business.

    Der grösste Vorteil für regional tätige Firmen ist, dass Google die bereitgestellten Informationen in die lokalen Suchergebnisse einbringt. So erscheinen bei lokalen Suchanfragen nebst den Öffnungszeiten auch die genaue Lage (Google Maps). Unternehmen, die in verschiedenen Regionen Filialen betreiben, haben die Möglichkeit, jede Filiale einzeln zu hinterlegen. Damit werden sie genau dort gefunden, wo nach Ihnen gesucht wird.

    Besseres Suchmaschinenranking durch möglichst viele Aktionen auf den Einträgen

    Je mehr diese Firmendaten angezeigt werden und je mehr Aktion, z.B. in Form von Kommentaren, mit diesen getätigt werden, desto besser kann sich das Suchmaschinenranking für Ihr Unternehmen entwickeln. Ausserdem können Ihnen entsprechende Statistiken Einblicke geben, mit welchen Keywords Kunden nach Ihrem Unternehmen gesucht haben und aus welcher Region sie stammen.

    Fazit

    Google My Business bietet vor allem regional tätigen Unternehmen einige klare Vorteile. Es ermöglicht den Unternehmen sich, ohne grossen Aufwand, mit den aktuellen Firmendaten in den Google Diensten zu präsentieren und entsprechend gefunden zu werden. Ausserdem unterstützen gut gepflegten Daten die Interaktion und damit den Bekanntheitsgrad und das Suchmaschinenranking der Unternehmen.

N

    Native Advertising

    Onlinemarketing Kampagnen die nicht sofort als Werbekampagnen zu erkennen sind, bezeichnet man als Native Advertising. Die Inhalte und die Form der Onlinewerbung wird der entsprechenden Zielgruppe angepasst und soll daher nicht als störend wahrgenommen werden. Die Werbung dient mehr der Unterhaltung oder gibt dem Leser einen gewissen Mehrwert. Dies kann beispielsweise eine Sammlung lustiger Bilder oder Fakten sein, die auf einer Newsseite veröffentlicht wird.

    Ziel ist es, dass die Werbung über die sozialen Netzwerke verteilt wird und somit die Viralität steigert. Unternehmen nutzen diese Form des Advertising meist, um ihr Branding in eine bestimmte Richtung zu entwickeln.

O

    Online-Marketing
    Online-Marketing ist ein Sammelbegriff und umfasst alle Marketing-Aktivitäten, die durch das Medium Internet ermöglicht werden. Eine genaue Gliederung in verschieden Teildisziplinen ist dabei nur schwer realisierbar. Die zugrunde liegenenden Möglichkeiten sind sehr umfassend und komplex. Auch unterscheiden sich die Marketing-Prioritäten je nach Betrachter. Gemeinsam haben alle Online-Marketing Massnahmen, dass sie den Verkaufsprozess unterstützen und optimieren.

    Die folgenden Disziplinen des Online-Marketings betrachten wir als sehr wichtig:

    • - Anzeige Werbung mit Google AdWords
    • - Suchmaschinenmarketing auch bekannt unter dem Begriff SEM
    • - Bannerwerbung
    • - Affiliate Marketing
    • - Social Media Marketing
    • - E-Mail-Marketing

    Online-Markting ist technisch sehr komplex. Daher empfiehlt es sich, diese Aufgaben mit einer entsprechend ausgerichteten Marketing Agentur zu bewältigen. Online-Marketing Agenturen kennen sich im Detail mit den Thematiken wie, AdWords, Display-Netzwerk, Remarketing oder vielfach auch mit Suchmaschinenmarketing, SEM aus. Eine gute Online Marketing Agentur kennt im Bereich der SEM oder speziell bei der Suchmaschinenoptimierung, SEO die entsprechenden Anforderungen der Suchmaschinen. Sie halten sich auch gezielt an die ethischen Regeln der Suchmaschinen und arbeiten nur nach White Hat Methoden.

P

    PageRank

    Der PageRank ist ein Verfahren, um Webseiten anhand ihrer Struktur zu bewerten beziehungsweise zu gewichten. Der PageRank-Algorithmus bildet einen zufällig durch das Netz surfenden Benutzer nach. Die Wahrscheinlichkeit, mit der dieser auf eine Webseite stösst, korreliert mit dem PageRank.

    Die matematische Definition findet man auf Wikipedia.

    PageRank-ist der noch relevant?

    Der Toolbar-PageRank-Update von Google erfolgte in der Vergangenheit regelmässig ca. alle 90 Tage. Das letzte PageRank Update erfolgte allerdings bereits am 06.12.2013 - liegt also schon fast zwei Jahre zurück. Da der von aussen sichtbare Pagerank somit nicht mehr aktualisiert wird, sollte auf Pagerank auch nicht mehr zu viel Wert gelegt werden.

    Tipp: Investieren Sie die Zeit und das Geld besser in guten Inhalt.

    Position Anzeige

    Der Anzeigerang und somit die Position der AdWords Anzeige auf einer Seite wird aus mehreren Faktoren bestimmt. Der Anzeigenrang wird anhand Ihres vorliegenden Gebots und des Qualitätsfaktors berechnet.

    Der Anzeigenrang bestimmt die Anzeigenposition und somit die Position der Anzeige auf einer Seite im Vergleich zu den anderen geschalteten Anzeigen.

    Die wichtigsten Faktoren für den Anzeigenrang sind Ihre Gebote (CPC) und die Anzeigen-, Keyword- und Webseitequalität, die in Form des Qualitätsfaktors angegeben wird. Bei der Berechnung des Anzeigenrangs wird auch berücksichtigt, welchen Einfluss Ihre Erweiterungen und andere Anzeigenformate voraussichtlich haben. Bei der Schätzung der erwarteten Auswirkungen von Erweiterungen und Anzeigenformaten werden verschiedene Faktoren berücksichtigt. Hierzu zählen etwa die Relevanz, die Klickrate (Click-through-Rate – CTR) und die Präsenz der Erweiterungen oder Formate auf der Suchergebnisseite. Selbst wenn Ihre Mitbewerber höhere Gebote abgeben als Sie, können Sie mit äusserst relevanten Keywords, Anzeigen und Erweiterungen dennoch eine höhere Anzeigenposition zu einem niedrigeren Preis erzielen.

    Der Anzeigenrang wird jedes Mal neu berechnet, wenn Ihre Anzeige geschaltet werden kann. Die Anzeigenposition schwankt daher in Abhängigkeit von den Mitbewerbern zum Zeitpunkt der Anzeigenschaltung.

    Beim Onlinemarketing mit AdWords sollten diese Faktoren genau kontrolliert und entsprechend eingesetzt werden.

    Penguin

    Unter dem Kodenamen “Penguin” wird eine bedeutende Änderung (Update) an Googles Ranking-Algorithmus zusammengefasst.

    Mit dem Penguin Update wird das Ziel verfolgt, Webspam in den Surchergebnissen weiter und radikaler einzudämmen. Das Penguin Update ist daher auch unter dem Namen Webspam Update bekannt.

    Die ersten Algorithmus-Änderung wurde am 24.04.2012 für alle Sprachen weltweit ausgespielt und erzielten einen wahrnehmbaren Effekt.

    Die prozentuale Menge an betroffenen Suchanfragen ist laut Google von Land zu Land bzw. Sprache zu Sprache unterschiedlich stark ausgefallen. So sind vom Penguin Update ca. 3,1% aller englischsprachigen Suchanfragen betroffen. Deutsche, chinesische und arabische Suchanfragen sind mit rund 3% betroffen. In einigen Sprachen ist Webspam stärker in den Suchergebnissen vertreten, als in anderen. So gibt Google die Auswirkung der Algorithmus-Änderung auf Suchanfragen in polnischer Sprache z.B. mit 5% an.

    Google verfeinert die Techniken laufend mit neuen Updates. Dadurch soll der Webspam und auch die Black-Hat Methoden eingedämmt werden. Im aktuellsten Update wird dem sogenannten anorganischen Linkaufbau der Kampf angesagt. Seiten mit Linkaufbau die unter die Black-Hat Methoden fallen werden neu mit einem Malus versehen.

Q

    Qualitätsfaktor

    Jedem Keyword wird ein Qualitätsfaktor, QF zwischen eins und zehn zugewiesen, wobei eins die niedrigste und zehn die höchste Bewertung darstellt. Der QF wird jedes Mal neu berechnet, wenn Ihre Anzeigen Teil der Anzeigenauktion sind. Dies kann mehrmals am Tag der Fall sein. Im Laufe des Tages werden jedoch keine verschiedenen QF angezeigt, sondern Sie erhalten einen einzigen QF, mit dem eine Schätzung der Gesamtqualität des entsprechenden Keywords angegeben wird.

    Der Qualitätsfaktor wird immer dann berechnet, wenn ein Nutzer eine Suche ausführt, mit der die Schaltung Ihrer Anzeige ausgelöst wird. In die Berechnung des QF fliessen zahlreiche Aspekte Ihres Kontos ein. Durch folgende Massnahmen können Sie den Qualitätsfaktor verbessern:

    • Voraussichtliche Klickrate eines Keywords, CTR
    • Die bisherige Klickrate Ihrer angezeigten URL: Bezieht sich darauf, wie oft Sie mit Ihrer angezeigten URL Klicks erhalten haben.
    • Kontoprotokoll: Die Gesamtklickrate aller Anzeigen und Keywords in Ihrem Konto.
    • Qualität der Zielseite: Wie relevant, transparent und navigationsfreundlich Ihre Seite ist.
    • Keyword-/Anzeigenrelevanz: Wie relevant das Keyword für Ihre Anzeigen ist.
    • Keyword-/Suchrelevanz: Wie relevant das Keyword für die Suchanfrage eines Nutzers ist.
    • Geografische Leistung: Wie erfolgreich Ihr Konto in den Zielregionen ist.
    • Ihre Anzeigenleistung auf einer Website: Wie gut die Leistung Ihrer Anzeige auf dieser und ähnlichen Websites ist. Bei Ausrichtung auf das Display-Netzwerk.
    • Die Geräteausrichtung: Die Leistung Ihre Anzeigen auf verschiedenen Geräten wie Desktop-Computern, Laptops, Mobilgeräten und Tablets. Der Qualitätsfaktor ist je nach Gerätetyp unterschiedlich.

    Kurz: Ein höherer Qualitätsfaktor führt in der Regel zu niedrigeren Kosten und einer besseren Anzeigenposition. Das AdWords-System bietet allen Beteiligten – Werbetreibenden, Kunden, Publishern und Google – die meisten Vorteile, wenn die geschalteten Anzeigen relevant sind und den Suchanfragen der Nutzer möglichst genau entsprechen. Relevante Anzeigen erhalten tendenziell mehr Klicks, erscheinen an einer besseren Position und erzielen den grössten Erfolg.

R

    Ranking

    Die Reihenfolge, in der die bei der Benutzung der Suchmaschine ermittelten Ergebnisse aufgeführt werden, nennt man Suchmaschinenranking oder nur Ranking. Der Suchmaschinenanbieter verwendet dazu entsprechende Algorytmen, welche möglichst gute Suchergebnisse liefern. Die Ergebnisse werden nach einer ausgeklügelten Rangordung dargestellt, dem Ranking. Die Seiten, auf denen die Suchergebnisse dargestellt werden, werden auch Search Engine Result Pages (kurz SERPs) genannt. Da SERPs nach dem Prinzip der Top-N-Anfrage arbeiten, ist von entscheidender Bedeutung für eine Webseite unter den ersten N, beispielsweise 10 Ergebnissen, genannt zu werden.

    Für die Schweiz wird vor allem das Google Ranking betrachtet, da Google mit Abstand die verbreiteste Suchmaschine ist.

    Remarketing

    Mit dem klassischen Remarketing werden Webseiten-Besucher nach definierten Kriterien auf Listen gesammelt um diesen dann im Display-Netzwerk von Goolge gezielt AdWords-Anzeigen einblenden. Mit dem AdWords-Remarketing-Code, der auf allen relevanten Seiten der Webseite eingebaut wird, werden Remarketing-Listen der besuchten URLs angelegt. So können zum Beispiel Besucher, die sich auf der Website für eine Kreuzfahrt interessiert haben erfasst werden. Danach können sie gezielt mit Displayanzeigen auf Angebote von Kreuzfahrten aufmerksam gemacht werden. Man kann ganz unterschiedliche Listen erstellen und mit einer entsprechenden Strategie bearbeiten. Mögliche Listen sind, Besucher der Webseite, Besucher von bestimmten Produkten oder solche die den Warenkorb besucht haben. Es besthet auch die Möglichkeit anstelle des AdWords-Remarketing-Codes einen speziellen Google-Analytics-Code für das Remarketing zu verwenden. Damit kann beim Remarketing auf Analytics-Metriken zurück gegriffen werden. Zum Beispiel werden Werbeanzeigen nur Besuchern angezeigt, die mindestens drei Unterseiten besucht haben und mehr als 1 Minute auf der Webseite waren.

    Remarketing (oft auch Retargeting genannt) ist eine sehr agressive Form der Werbung, da die Webseiten-Besucher verfolgt werden. Die Anwendungsmöglichkeiten sind aber sehr vielfältig, und sehr gut dazu geeignet, mögliche Kunden zurückzugewinnen.

    RLSA

    Remarketing Lists for Search Ads (RLSA) ist spezielles Remarketing-Tool von Google. Die auf den Remarketing-Listen gesammelten Besucher können damit nicht nur auf dem Display-Netzwerk von Google, sondern auch bei einer weiteren Google-Suche angesprochen werden. Um besser Anzeigenposition zu erreichen werden dabei die gewünschten Remarketing-Listen den bestehenden Kampagnen zugeordnet und mit einem höheren CPC versehen (Gebotsmultiplikator von -90% bis 900%). Man kann jedoch auch einen spezifischen Anzeigentext schalten.

    Es können aber auch separate RLSA-Kampagnen erstellt werden. Damit sind den kundenspezifischen Möglichkeiten an RLSA-Kampagnen keine Grenzen gesetzt.

    robots.txt

    Es gibt Defacto-Standards im Internet, die einfach gewachsen sind, ohne es je zu einem RFC gebracht haben. Das gilt auch für den Status, der die Datei robots.txt im Internet hat. In einer Text-Datei mit diesem Namen können Betreiber von Webauftritten angeben, welcher Such-Robot welche URL-Verzeichnisse auslesen darf und welchen er nicht lesen darf. Die Datei enthält also Anweisungen für Robots von Suchmaschinen. Die überwiegende Mehrheit der Robots moderner Suchmaschinen berücksichtigt das Vorhandensein einer robots.txt, lesen sie aus und befolgen die Anweisungen.

    Man könnte die mit Hilfe der Meta-Tag für einzelne HTML-Dateien auch erreichen. Doch das betrifft nur die jeweilige HTML-Datei und maximal alle weiteren, durch Verweise erreichbaren Dateien. In einer zentralen robots.txt können Sie dagegen unabhängig von der Datei- und Verweisstruktur Ihres Webauftrittes festlegen, welche Verzeichnisse und Verzeichnisbäume ausgelesen werden dürfen. Die anderen werden nicht ausgelesen und erscheinen somit auch nicht im Index der Suchmaschinen.

    Wo muss die robots.txt gespeichert werden?

    Die robots.txt muss unter diesem Namen (alle Buchstaben klein geschrieben) im Root-Verzeichnis der Web-Dateien der Domain abgelegt werden. Wenn Sie also einen Domain-Namen ich.net haben, dann muss die robots.txt in dem Verzeichnis abgelegt werden, in dem auch die oberste Einstiegsdatei von www.ich.net liegt. Der URL wäre also http://www.ich.net/robots.txt. Suchmaschinen-Robots suchen nur an dieser Stelle nach dieser Datei. Das bedeutet, dass Sie die Technik der robots.txt nur nutzen können, wenn Sie eine eigene Domain haben. Bei einem Homepage-Verzeichnis auf einem Server, ohne an das Root-Verzeichnis der Domain geht das nicht. Beispiel eines Webseitenverzeichnisses, bei welchem in der Domain ich.net die robots.txt nichts bewirkt: http:/www.sfc-group.ch/ich/robots.txt

    Die robots.txt ist eine reine Textdatei und muss mit einem Texteditor bearbeitet werden.

    Beispiel einer robots.txt

    # robots.txt zu http://www.ich.net/

    #

    # For more information about the robots.txt standard, see:

    # http://www.robotstxt.org/orig.html

    #

    # For syntax checking, see:

    # http://www.sxw.org.uk/computing/robots/check.html

    User-agent: *

    Disallow: /administrator/

    Disallow: /libraries/

    Disallow: /logs/

    Disallow: /templates/

    Disallow: /tmp/

    Sitemap: http://ich.net/sitemap.xml

    Erklärungen

    Zeilen bei denen ein # voran geht sind lediglich Kommentarzeilen.

    Die eigentliche robots.txt besteht aus Datensätzen, sogenannten Rekords. Im obigen Beispiel sind sechs solcher Datensätze notiert. Ein Datensatz besteht grundsätzlich aus zwei Teilen. Im ersten Teil wird angegeben, für welche Robots oder User-agent die nachfolgenden Anweisungen gelten. Im darauf folgenden Teil werden die Anweisungen selbst aufgeführt. Die Anweisungen bestehen darin, den zuvor bestimmten Robots etwas zu verbieten, Disallow.

    Jede Zeile eines Datensatzes beginnt mit einem der zwei erlaubten Schlüsselwörter User-agent oder Disallow. Darauf folgt, durch ein Doppelpunkt und Leerzeichen getrennt, die zugehörige Angabe. Zwischen den Datensätzen wird eine Leerzeile notiert. Innerhalb eines Datensatzes muss zunächst mindestens eine Zeile mit User-agent: beginnen. Dahinter ist immer nur eine Angabe möglich. Wenn Sie mehr als einen bestimmten Robot ansprechen möchten, müssen Sie mehrere Zeilen untereinander notieren, die mit User-agent: beginnen. Anstelle des User-agent Namens kann auch die Wildcard * gesetzt werden. * gilt demnach für alle User-agent. In diesem Falle darf der User-Agent nur einmal vorkommen.

    Die Zeilen nach dem User-agent werden die Anweisungen notiert. Typischerweise wird das Disallow verwendet. Ohne robots.txt ist alles erlaubt, also Allow. Dies ist jedoch kein Schlüsselwort, denn Allow: wurde niemals definiert. Weiter wird auch die Anweisung Sitemap: in der robots.txt verwendet. Die Sitemap ist das Inhaltsverzeichnis für die Robots.

    Hinter jeder Zeile, die mit Disallow: beginnt, können Sie jeweils eine Pfadangabe machen. Die Robots werden diese Pfade auf Ihrer Seite dann nicht indizieren.

    Bei den Angaben zu Disallow: können Sie Verzeichnispfade und einzelne Dateien mit Pfadangabe angeben. Wildcards wie * oder *.* sind dabei nicht erlaubt. Achten Sie darauf, bei Verzeichnispfaden einen abschliessenden Schrägstrich / zu notieren. Wenn Sie nämlich beispielsweise /index notieren, wäre auch die Datei /index.html betroffen, und nicht nur das Unterverzeichnis /index/.

    Wichtig:

    Das sollten Sie vermeiden:
    User-Agent: *
    Disallow: /
    Mit / bestimmen Sie das Rootsverzeichnis. Es wird den Suchmaschinen also verboten, die Webseite im Index zu führen.

    Auch das sollten Sie vermeiden:
    User-Agent: test-robot
    Disallow: /
    Durch die fehlende Angabe hinter Disallow wird dem Robot test-robot alles erlaubt!

    Das sollten Sie wissen:
    Web-Browser ignorieren die robots.txt. Es ist also nicht möglich, damit Daten vor Anwendern auf diese Art zu schützen.

    Aus demselben Grund besteht auch keinerlei Garantie, dass sich Suchmaschinen an die Verbote in den robots.txt halten. Die grossen Suchmaschinen halten sich jedoch daran. Die sogenannten Bad-Bots leider nicht.

    Relaunch Webseite

    Das Aufschalten einer neuen Webseite oder der sogenannte Relaunch kann sehr unterschiedliche Gründe haben. Vielleicht ist das Design nicht mehr so modern oder die verwendete Software ist in die Jahre gekommen. Vielleicht möchten Sie auch nur eine Erweiterung mit zusätzlichen Sprachen machen. Welche Motivation Sie auch immer haben, die neue Webseite sollte besser sein als die bestehende. Dies vor allem in Bezug auf die geltenden Standards nach W3C aber auch die Anforderungen der Suchmaschinen, z.B. die Mobile-Tauglichkeit nach Google, sollten eingehalten werden.

    Ein Relaunch der Webseite ist immer mit dem Risiko verbunden, die bestehenden guten Platzierungen zu verlieren. Wir geben Ihnen im Folgenden ein paar Tipps, wie Sie dieses Risiko verhindern oder mindestens verringern.

    1. Entwicklerumgebung nicht indexieren lassen

    Stellen Sie sicher, dass Ihre Entwicklerumgebung nicht von Google und anderen Suchmaschinen indexiert werden kann und sperren Sie die Robots über die robots.txt aus. Das erreichen Sie mit dem folgenden einfachen Eintrag in der robots.txt:

    User-Agent: *
    Disallow: /

    Sie können dies auch direkt in der Meta Tag erreichen. Geben Sie dazu im Headbereich des Webseiten-Quellcode den folgenden Befehl ein:

    <meta name="robots" content="NOINDEX,NOFOLLOW" />

    Je nach verwendetem CMS-Tool können Sie das auch einfach in den Einstellungen anpassen. Wenn Sie die Entwicklerumgebung komplett vor der Öffentlichkeit verbergen wollen, können Sie auch einen sogenannten .htaccess Passwortschutz einrichten. Oder ganz sicher, Sie verwenden einen Server hinter der Firewall und sind so nicht mit dem Internet verbunden.

    Wichtig: Entfernen Sie alle getroffenen Sicherheitsmassnahmen beim Go Live.

    2. Abfangen geänderter URL-Strukturen

    Mit einem Relaunch der Webseite werden Sie in aller Regel eine komplett neue URL-Struktur haben. Dadurch werden aber alle URL’s im Index der Suchmaschinen nicht mehr gefunden und es erscheint der ungeliebte Error 404.

    Mit einer IP-301 Weiterleitung können Sie das verhindern und verlieren dadurch keine wertvollen Positionen.

    Wir empfehlen Ihnen daher eine Tabelle mit allen URL’s der aktuellen Webseite zu erstellen. Wenn Sie diese nun noch nach dem aktuellen Ranking bei Google & Co. versehen, können Sie die URL’s entsprechend priorisieren. Damit nun die bisherigen Linkziele nicht ins Leere laufen, müssen Sie alle URL’s, oder die mit der entsprechenden Priorität, mittels einer IP-301 Weiterleitung auf die neue URL verweisen.

    Denken Sie auch an die interne Verlinkung der Webseite und passen Sie diese bei einer geänderten URL Struktur entsprechend an.

    Behalten Sie die Bildpfade bei. Sollte dies nicht möglich sein, tragen Sie eine 301 Weiterleitung wie oben beschrieben auch für die Bilder ein.

    Achten Sie auch auf Archiv- und Kategorie-Seiten. Verweisen Sie auch hier mit einer IP-301 Weiterleitung, um mögliche Backlinks zu Suchergebnisseiten ebenfalls zu erfassen.

    Seiten die endgültig entfernen wollen, können Sie Google mittels den Webmaster-Tools mitteilen. Im Abschnitt „Google Index“ finden Sie die Option „URLs entfernen“. Sie können zusätzlich auch alle Seiten, die im neuen Webseiten-Auftritt nicht mehr vorhanden sein werden, mit einer IP-301 Weiterleitung auf Ihre Startseite um. Dadurch überbrücken Sie die Zeit, bis Google die Seiten aus dem Index entfernt hat.

    Je nach CMS gibt es für die IP- 301 Weiterleitungen unterschiedliche Erweiterungen. Sie können diese aber auch direkt in Ihre .htaccess mit dem Befehl „Redirect 301 /beitrag.html http://www.meinedomain.ich/kategorie/beitrag.html„ anpassen.

    Wichtiger Hinweis: Erstellen Sie zwingend ein Backup, bevor Sie die .htaccess verändern. Jede Änderung in der .htaccess-Datei ist sofort wirksam und kann bei falscher Eingabe verheerende Auswirkungen haben.

    3. Wann darf die URL-Struktur nicht geändert werden?

    Haben Sie bereits auf der alten Webseite Inhalte intensive über Social-Media verbreitet? Haben Sie auf der alten Webseite Schaltflächen für die Social-Media integriert? Wenn Ihnen diese Likes, Comments und Shares wichtig sind, dann dürfen Sie die URL-Struktur nicht ändern, da sonst alle Ziele verschwinden. Leider gibt es in Verbindung mit Social-Media keine Weiterleitung wie zum Beispiel die IP-301.

    Die gleichen Überlegungen müssen Sie sich auch machen, wenn Sie von http auf https umstellen. Auch hier gibt es keine Möglichkeit der Umleitung. Da empfiehlt es sich, Social-Media-Signale wenn möglich von der Umstellung aus zu schliessen.

    4. Zeitpunkt für das Go-Live

    Wie wählt man den richtigen Zeitpunkt für das Go-Live? Sie haben alles sorgfältig geprüft und getestet. Und trotzdem können dann auf der neuen Webseite online Probleme auftauchen. Daher sollten Sie den Zeitpunkt für das Go-Live so wählen, dass Sie genügend Zeit haben die eventuellen Probleme zu beheben. Weiter sollten Sie einen Zeitpunkt wählen, bei dem der grösste Teil der Kunden nicht betroffen sein wird.

    Wichtig: Prüfen Sie nach dem Relaunch Ihre Website mit möglichst vielen Betriebssystemen und Browsern. Prüfen Sie auch alle wesentlichen Funktionen nochmals durch. Mit dem Webmaster-Tool von Google können Sie auch prüfen, ob URL’s aufgeführt werden, die nicht funktionieren. Weiter sollten Sie mit Analysetools das Benutzerverhalten beobachten. Auch gibt es gute Tools, mit denen Sie die Sichtbarkeit der Webseite und die Entwicklung der indizierten Keywords überprüfen und verfolgen. Reagieren Sie bei Bedarf mit den notwendigen Massnahmen, um die vorhandenen Probleme zu beheben. wie Google Analytics und beobachten Sie das Besucherverhalten. Ebenso hilft Ihnen unser Seitwert-Monitor, z.B. um auf Verschlechterungen Ihrer wichtigsten Keywords zu reagieren.

    Führen Sie aber keine Überreaktionen aus.

    Gerne helfen wir Ihnen bei der Planung und Umsetzung des Webseiten-Relaunch.

    Robots

    Ein Robot ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Definition siehe und Crawler.

    Mit Hilfe des Robots Exclusion Standards kann ein Webseitenbetreiber in der Datei robots.txt einem Webcrawler mitteilen, welche Seiten er indizieren soll und welche nicht, sofern sich der Webcrawler an das Protokoll hält.

    Responsive Design

    Responsive Webdesign stellt eine aktuelle Technik zur Verfügung, welche es ermöglicht, Inhalte von Webseiten auf jedem Gerät optimal darzustellen. Dabei wird das Layout einer Website so flexibel gestaltet, dass dieses auf dem Desktop, Tablet und Smartphone eine gleichbleibende Benutzerfreundlichkeit bietet und der Inhalt gänzlich und schnell vom Besucher aufgenommen werden kann.

    "Form follows function" - beim Responsive Design folgen Funktion, Design und Inhalt der jeweiligen Bildschirmauflösung des verwendeten Desktop, Tablet oder Smartphone.

    Responsive Design bedeutet im übertragenen Sinne "reagierendes Design". Inhalts- und Navigationselemente sowie auch der strukturelle Aufbau einer Website passen sich der Bildschirmauflösung des mobilen Endgeräts an – es reagiert auf und korrespondiert mit der Auflösung des mobilen Endgeräts. Responsive Design folgt dem Nutzer, und nicht wie gegenwärtig, der Nutzer den meist starr konstruierten Layouts konventioneller Websites und Online-Shops.

    Responsive Design werden durch die steigende Anwendung mobiler Endgeräte immer wichtiger. Ab dem 21. April 2015 wird Google Webseiten in mobile-freundliche und mobile-unfreundliche aufteilen. Dabei werden die mobile-unfreunlichen Webseiten klar schechter bewertet und entsprechend im Ranking verlieren.

    Die strikte Trennung von Mobil- und Desktop-Version der Webseite ist nicht zu empfeheln. Durch diesen Ansatz entsteht ein markant höherer Pflegeaufwand von redaktionellem Content und Bildmaterial. Dazu kommt, dass die Webseite mit mehreren Versionen auf die unterschiedlichen Formate reagieren muss. Und wer weiss wie zukünftige Tablet- oder Smartphone-Formate aussehen.

    RankBrain von Google

    Seit einigen Monaten testet Google mit RankBrain. Ein auf künstlicher Intelligenz aufgebautes System, welches für die Bewertung und Platzierung von Suchergebnissen eigensetzt wird. Laut Google übertreffen die Testergebnisse die Erwartungen bei weitem.

    RankBrain ist nach Aussagen von Greg Corrado schon der dritt wichtigste Ranking-Faktor bei Google. Mit dem RankBrain sollen die Suchergebisse noch besser werden und das auch für nicht eindeutige oder sehr komplexe Suchanfragen.

    Was bedeutet das für die Suchmaschinen-Optimierung?

    Bis jetzt konnten noch keine Auswirkungen auf das SEO durch RankBrain festgestellt werden. Google geht jedoch mit diesem neuen Algorithmus den konsequenten Weg weiter, dass Inhalte für Menschen und nicht für Maschinen geschrieben werden. Daraus muss angenommen werden, dass das Content-Marketing immer wichtiger wird. Die Inhalte müssen also so aufbereitet werden, dass sie von Menschen nicht nur gut verstanden sondern auch gern gelesen werden.

S

    SEO

    Search Enging Optimizing (Suchmaschinen Optimierung) oder kurz SEO ist eine Möglichkeit von Onlinemarketing. Man versteht darunter die Massnahmen, um die Webseite bei den Suchmaschinen möglichst gut zu platzieren. Grundsätzlich werden dabei sogenannte Onpage- und Offpage-Massnahmen durchgeführt. Wichtig bei den SEO-Massnahmen ist, dass die ethischen Regelen eingehalten werden.

    Eine optimale Suchmaschinen Optimierung sollte nach diesem Prinzip erfolgen.

    SEO
    Searchbot

    Ein Web Searchbot ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert.

    Spider

    Ein Web Spider ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert.

    SERPs

    SERP ist die englische Abkürzung für Search Engine Result Pages. Wir haben die SERP oder das Suchmaschinenranking unter Ranking beschrieben.

    SEM

    Suchmaschinen Marketing (Search Engine Marketing) oder kurz einfach SEM ist ein Teilgebiet des Online Marketing. Es ist die Verbesserung der Sichtbarkeit innerhalb der Ergebnislisten der Suchmaschinen. Suchmaschinen Marketing umfasst alle Massnahmen für die Suchmaschinen zur Gewinnung von Besuchern auf der Webseite. Neben der direkten Bewerbung von Produkten gewinnt das Suchmaschinenmarketing auch in der Öffentlichkeitsarbeit und im Branding zunehmend an Bedeutung. Suchmaschinen Marketing besteht aus Suchmaschinenoptimierung (Search Engine Optimization = SEO) und Suchmaschinen Werbung (Search Engine Advertising SEA).

    Die Suchmaschinenmarketing-Massnahmen führen dazu, dass eine Werbeanzeige auf einem der obersten Plätze bei den Suchmaschinenergebnissen erscheint. Die organischen Suchmaschinenergebnisse stehen dabei nicht in Konkurrenz zu den Werbeeinblendungen, AdWords. Für beide Ergebnislisten gibt es auf den Ergebnisseiten vordefinierte Bereiche. Sowohl die organischen Suchresultate als auch die Werbeeinblendungen beruhen auf eigenen Rankingfaktoren, die eine bestimmte Gewichtung innerhalb der Suchmaschinenalgorithmen aufweisen. Keine der beiden Ergebnislisten hat einen Einfluss auf die Darstellung der Anderen. Die Anzeigenschaltung der Werbe-Einblendung erfolgt nach dem Keyword-Advertising-Prinzip, das heisst, für bestimmte Suchbegriffe eine Position auf der ersten Seite der Suchmaschinenergebnisse zu kaufen. Bei den grossen allgemeinen Suchmaschinen Google, Yahoo und Bing werden die bezahlten Suchtreffer in einem Werbeblock zusammengefasst und so optisch von den unbezahlten (organischen) Ergebnissen abgehoben.

    Das Suchmaschinenmarketing wird bei vielen Unternehmen meist durch die betreuende Onlinemarketing Agentur übernommen. Bei kleinen und mittelständischen Unternehmen wird das Suchmaschinenmarketing mehrheitlich noch nicht wahrgenommen und deren Bedeutung entsprechend nicht erkannt.

    Sitemap

    Die Sitemap nach dem Sitemap Schema 0.9 ist ein Inhaltsverzeichs der Webseite, welches von den Robots gelesen werden kann. Die Sitemap muss im XML-Format abgelegt sein. In der robots.txt wird entsprechend auf die Sitemap verwiesen. So können die Robots diese einfach finden.

    Die Sitemap darf grösser als 10 MB sein. Sie können die Sitemap-Dateien mit gzip komprimieren, um Ihren Bandbreitenbedarf zu verringern, die nicht komprimierte Sitemap-Datei darf jedoch nicht grösser als 10 MB sein. Bei Angabe von mehr als 50.000 URLs müssen Sie mehrere Sitemap-Dateien erstellen. Es empfiehlt sich jedoch, die Sitemap-Dateien schon ab 1 MB mit gzip zu komprimieren. So kann die Ladezeit optimiert werden.

    Für grössere Webseiten können Sie auch eine Sitemap-Indexdatei erstellen, in welcher sich mehrere Sitemaps befinden. Dabei gelten jedoch pro Sitemap die Regeln von oben. In der Sitemap-Indexdatei dürfen sich maximal 50‘000 Sitemaps befinden.

    Aus Erfahrung empfehlen wir die Sitemap nicht grösser als 2 MB zu erstellen.

    Beispiel einer Sitemap-Indexdatei:

    <sitemapindex xmlns="http://www.meinedomain.ich/schemas/sitemap/0.9">

       <sitemap>

          <loc>http://www.meinedomain.ich /sitemap1.xml.gz</loc>

          <lastmod>2015-01-01T18:23:17+00:00</lastmod>

       </sitemap>

       <sitemap>

          <loc>http://www.meinedomain.ich /sitemap2.xml.gz</loc>

          <lastmod>2015-04-01</lastmod>

       </sitemap>

    </sitemapindex>

W

    W3C
    Das W3C, World Wide Web Consortium ist das Gremium zur Standardisierung der eingesetzten Techniken im World Wide Web. Es wurde am 1. Oktober 1994 am MIT Laboratory for Computer Science in Cambridge (Massachusetts) gegründet. Gründer des W3C ist Tim Berners-Lee, der auch als der Erfinder des World Wide Web bekannt ist. Das W3C entwickelt technische Spezifikationen und Richtlinien mittels eines ausgereiften, transparenten Prozesses, um maximalen Konsens über den Inhalt eines technischen Protokolls, hohe technische und redaktionelle Qualität und Zustimmung durch das W3C zu erzielen. Durch das W3C werden unter anderem diese Technologien standartisiert: HTML, XHTML, XML, RDF, OWL, CSS, SVG und WCAG.
    Webspam

    Jeder Internetbenutzer weiss, wie frustrierend es sein kann, wenn man auf einer Webseite landet, die in den Suchergebnissen vielversprechend klingt, sich jedoch als nutzlos herausstellt, wenn man sie aufruft. Die Suchmaschinen arbeiten hart daran um sicherzustellen, dass die Algorithmen so viel Webspam oder einfach Spam wie möglich abfangen. Gelegentlich jedoch schafft es die eine oder andere Spam-Seite, in die Suchergebnisse zu gelangen.

    Was ist Webspam?

    Alle Massnahmen die dazu dienen, nicht relevante Suchergebnisse in den Suchmaschinen zu erwirken, werden als Spam benannt. Als Spammer werden alle bezeichnet, die Webseiten mit der alleinigen Absicht manipuliert um damit die Position einer bestimmten Webseite zu verbessern, welche zum Suchbegriff oder dem Inhlat der Webseite keinen relevanten Mehrwert liefert. Die Anpassung von Webseiten an die Suchalgorithmen von Suchmaschinen mit dem Ziel, die Position bei Suchbegriffen zu verbessern, bezeichnet man als Suchmaschinenoptimierung. Dabei werden grundsätzlich zwei Arten der Optimierung verwendet. Die White-Hat Methode arbeitet nur nach den ethischen Regeln der Suchmaschinen. Black-Hat Methoden dagegen versuchen die Schlupflöcher der Suchmaschinen zu finden und aus zu nutzen.

    Die Übergänge von der relevanten Optimierung zum Suchmaschinen-Spamming sind aber oft fliessend. So sind für Bing von Microsoft keine genauen Grenzziehungen zwischen White-Hat und Black-Hat vorhanden. Google definiert inakzeptabeln Praktiken und mahnt entsprechend die Webseiten-Betreiber zur Vorsicht. Mit dem Update Pinguin geht Google neue Wege gegen die Spammer.

    Informative Seiten mit gehaltvollem Inhalt haben Manipulationen der beschriebenen Art nicht nötig, da sie durch viele Hyperlinks von verschiedenen Internet-Usern gefördert werden. Gespammt wird meistens bei kommerziellen Seiten. Besonders agressiv wird das bei Webseiten mit pornografischen Inhalten angewendet.

    Die folgende Auflistung gibt einen nicht abschliessenden Überblick über Spam-Praktiken:

    • Brückenseiten auch Doorway Pages oder Cloaking
    • Scraper Sites
    • Nutzung von Artikelverzeichnissen oder Content Farmen
    • Aufbau von Linkfarmen oder Hyperlinks auf fremden Webseiten
    • Blogspam
    • Social-Bookmark-Spam
    • Forenspam
    • Negative Suchmaschinen-Optimierung auch Google Bowling
    • Keyword-Spamming
    White-Hat

    White-Hat Methoden für die Suchmaschinenoptimierung halten sich an die ethischen Regeln der Suchmaschinen. Das setzt voraus, dass man sich an die gängigen Standards im HTML hält. Eine gute Webseite hat auch immer genügend guten und aktuellen Inhalt. Dieser Inhalt sollte möglichst einzigartig sein, um dadurch genügend Autorität zu erreichen. Der Textinhalt sollte dabei eine gute Keyworddichte aufweisen. Die Keyords sollten in einer entsprechenden Strategie festgelegt werden.

    Eine gute Seite wird auch alle nötigen Onsite-Krieterien erfüllen. Das heisst, die Seite ist nach W3C erstellt. Die Tags, Metas, Sitemap und Robots sind korrekt erstellt.

    Für den Offsite-Bereich werden nur organische Ziele aufgebaut. Dies ist nicht so schnell aber dafür nachhaltig.

    Webmarketing

    Webmarketingbist ein Sammelbegriff und umfasst alle Marketing-Aktivitäten, die durch das Medium Internet ermöglicht werden. Eine genaue Gliederung in verschieden Teildisziplinen ist dabei nur schwer realisierbar. Die zugrunde liegenenden Möglichkeiten sind sehr umfassend und komplex. Auch unterscheiden sich die Marketing-Prioritäten je nach Betrachter. Gemeinsam haben alle Webmarketing Massnahmen, dass sie den Verkaufsprozess unterstützen und optimieren.

X

    XML

    Die Extensible Markup Language (erweiterbare Auszeichnungssprache), abgekürzt XML, ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten in Form von Textdateien. XML wird uunter anderem für den plattform- und implementationsunabhängigen Austausch von Daten zwischen Computersystemen eingesetzt, insbesondere über das Internet.

    Die vom World Wide Web Consortium (W3C) herausgegebene XML-Spezifikation definiert eine Metasprache, auf deren Basis durch strukturelle und inhaltliche Einschränkungen anwendungsspezifische Sprachen definiert werden. Diese Einschränkungen werden durch Schemasprachen wie XML Schema ausgedrückt. Beispiele für XML-Sprachen sind: RSS, XHTML, XAML aber auch XML-Schema.

    Ein XML-Dokument besteht aus Textzeichen, im einfachsten Fall in ASCII-Format, und ist damit auch für Meschen lesbar. Binärdaten enthält es per Definition nicht.

Z

    Zitate von Henry Ford

    „Wer aufhört zu werben, um Geld zu sparen, kann ebenso seine Uhr anhalten, um Zeit zu sparen.“

    „Fünfzig Prozent bei der Werbung sind immer rausgeworfen. Man weiss aber nicht, welche Hälfte das ist.“

    „Wenn Sie einen Dollar in Ihr Unternehmen stecken wollen, so müssen Sie einen weiteren bereithalten, um das bekannt zu machen.“

    „Wer nicht wirbt, stirbt!“

    „Die Menschen im Allgemeinen haben so wenig und es kostet so viel, das Notwendigste zu kaufen, weil fast alles, was wir machen viel komplexer ist als es sein müsste. Unsere Kleidung, unsere Nahrung, unsere Hausrat, alles könnte viel einfacher sein, als es jetzt ist und zur gleichen Zeit besser aussehen.“

    „Enten legen ihre Eier in Stille. Hühner gackern dabei wie verrückt. Was ist die Folge? Alle Welt isst Hühnereier.“

Vamedia Deutschland GmbH
Carl-Hopp-Str. 4a
D-18069 Rostock

Tel: +49 (0)381 800 89 90
Fax: +49 (0)381 800 89 91
E-mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden.
Ok