Passwort vergessen Passwort vergessen?
Einfach
hier klicken
Branche oder Ort wählen
hinzufügen
 European Business Connect - Blog, Seo Blog, Branchenbuch, Branchenverzeichnis

Facebook: Der First Mover als Gatekeeper?

27. Mai 2016

Als Facebook Anfang 2004 das Licht der Welt erblickte, präsentierte sich das soziale Netzwerk als einmalige Möglichkeit, mit Menschen in Kontakt zu treten und Inhalte zu teilen. Seitdem ist über eine Dekade rasanter Vernetzung vergangen. Doch der Hype um das globale Zusammenwachsen via permanentem Breitband zeitigt auch immer wieder Vorwürfe gegen das US-Unternehmen. Inhalte seien zu einseitig gefiltert und verzerrten so die Wirklichkeitswahrnehmung vieler User – eine echte Herausforderung für Social SEO.

Die Mär der Eliten?
Als Gatekeeper wird eine Person oder Personengruppe bezeichnet, die ob ihrer herausragenden gesellschaftlichen Reputation und/oder außergewöhnlichen Fähigkeiten eine tragende Rolle in der demografischen Entwicklung einer Gesellschaft spielt. Neben der soziologischen Dimension des Begriffs verweist seine Verwendung in der Publizistik auf die häufig heterogenen Einflussfaktoren während der Themenzusammenstellung der Nachrichtendienste. Den Gatekeeper umgibt eine beinah mystische Aura, eine Mischung aus anerkennender und paranoider Ehrfurcht vor den Eliten an den Stellschrauben der Macht. Die individuellen Freiheiten im Netz zerstreuen zwar angestaubte Akkumulationen, können aber etablierte Meinungsmacher nicht ignorieren.

Die Wirklichkeit: der Elefant im Raum
Mit über 1,6 Mrd. aktiven Nutzern ist Facebook, mittlerweile die graue Eminenz der Sozialen Netzwerke, der Meinungsmacher im Internet schlechthin. Facebook bedient seine Nutzer seit Anbeginn regelmäßig mit Neuerungen und Erweiterungen und behauptet damit seinen Vorteil als arrivierter First Mover und Platzhirsch unter aufstrebenden Plattformen. Wer in Sachen Social Media konkurrieren will, kommt an der Konfrontation mit Facebook nicht vorbei. Vor allem bei den inzwischen herangewachsenen und kaufkräftigen Millennials avanciert das Netzwerk laut einer Studie des Pew Research Center, einem Washingtoner Meinungsforschungsinstitut, zur bevorzugten Nachrichtenquelle.

Macht der Auslassung
Naturgemäß ruft dieser Trend Kritiker auf den Plan. Wie Zeit Online jüngst unter Berufung auf das Onlineportal Gizmodo berichtete, nimmt es Facebook mit der politischen Neutralität ihrer ausgewählten Trending Topics nicht so genau. Die bereits vor zwei Jahren in den Staaten eingeführten Trendlisten bilden aktuelle und tagespolitische Themen auf Basis der Gefällt mir-Markierungen der User ab. So zumindest die Theorie. Denn in den USA steht Facebook in Verdacht Nachrichten mit konservativem Inhalt gegenüber eher liberal anmutenden zu marginalisieren. Auch bei der Verlinkung zu anderen Nachrichtenseiten würden liberale Blätter den konservativen vorgezogen.

Informationsflut und Verantwortung
Objektiv betrachtet verzerren gezielte Auslassungen das Weltgeschehen. Anderseits sollte man die Kirche im Dorf lassen. Jeden Tag überschwemmt eine schier überwältigende Informationsflut die Nachrichtenagenturen weltweit, und was wir hierzulande zu sehen bekommen, ist häufig kaum mehr als eine Dauerschleife aus politisch konsentierter Agenda und regionalen Grotesken. Daher liegt es nahe, dass jeder Informationsdienstleister unter Berücksichtigung vertrauenswürdiger Quellen und evidenter Interessenlagen selektiv arbeitet.

Social Signals
Ein offenes Geheimnis des anhaltenden Erfolgs von Facebook ist die Exploration der Interessen der Nutzer. Schafft es Facebook ähnlich wie Twitter seine Trendlisten zu etablieren, ohne Authentizität einzubüßen, könnte den sogenannten Social Signals (Likes, Shares, etc.) eine immer dichtere, inhaltliche Komponente angedeihen und somit präzisere Auskünfte über die Interaktionen der Netzbesucher geben. Eine wahres Eldorado für SEO.

Fazit
Die Vormachtstellung des Internet-Giganten wird auch in Zukunft Raum für Spekulation offen halten. Interessant ist, inwieweit sich Politik und Gesellschaft dazu veranlasst fühlen, eine differenzierte Nutzung zu kultivieren. Für SEO Spezialisten jedenfalls bergen beide Entwicklungen überwältigende Ressourcen – wenigstens indiziell. In Teil 2 dieser Blog-Reihe werden die Auswirkungen des Gatekeeper- Phänomens auf die Suchmaschinenoptimierung in den Blick genommen.

Zum Vorwurf der Meinungsmache:
http://www.zeit.de/digital/internet/2016-05/facebook-trending-topics-filter-konservative-inhalte

Content-Marketing – was einen guten Text ausmacht

02. Mai 2016

Wer in der digitalen Welt erfolgreich sein will, muss seiner Zielgruppe nützlichen und einzigartigen Content liefern. Seien es Blog-Beiträge, Fachartitkel für Online- Publikationen, Rubrikentexte oder einfach nur informative Produktbeschreibungen – guter Content stärkt die eigene Marke, begeistert die Nutzer und ist weiterhin einer der wichtigsten Ranking-Faktoren bei Google.

Schlechte Texte gibt es bereits genug. Reine SEO-Texte und mit Keywords überfrachtete Allgemeinplätze will niemand lesen. Gute Texte fürs Web zeichnen sich dadurch aus, dass sie für den Leser relevant, leicht zugänglich und nützlich sowie individuell, sympatisch und strukturiert verfasst sind. Der Texterstellung sollten daher immer einige W-Fragen vorangehen: Was interessiert meine Zielgruppe, wo liegen ihre Bedürfnisse und wie lässt sich ein Mehrwehrt durch entsprechenden Content schaffen?

Themen finden, Fahrplan erstellen
Zunächst geht es an die Recherche der fragespezifischen Keywords. Hierfür bietetsich das Keyword-Tool von Google Adwords oder das W-Fragen-Tool an. Anstatt sich dabei aber auf generische Keywords zu versteifen, sollten idealerweise spezifische Keywords oder Longtail-Keywords die Suche bestimmen. So lassen sich deutlich einfach bessere Rankings bei der Google-Suche erzielen. Bereits populäre und umworbene Keywords mit Content zu besetzen, ist nicht unbedingt sinnvoll. Weitaus mehr Erfolg versprechen mehrere gute Texte für Keywords mit einem geringeren Suchaufkommen. Und wenn die entsprechenden Keywords ermittelt sind, folgt die Themenrecherche und das Aufsetzen eines redaktionellen Fahrplans für den zu erstellenden Content.

Mehrwert schaffen, Aufmerksamkeit erregen
Die Aufmerksamkeitsspanne im Netz ist kurz. Daher muss guter Content sofort ins Auge springen, den Leser emotionalisieren, reinziehen und ihm einen inhaltlichen Mehrwert bieten. Guten Content zu erstellen, erfordert natĂĽrlich Zeit. Diese ist aber in jedem Fall gut investiert. In die Tiefe recherchierte Inhalte, welche sich an den Fragen und BedĂĽrnissen der Leser oder Kunden orientieren, zahlen sich langfristig aus. Leser verbringen mehr Zeit auf solchen Webseiten und die Bereitschaft, die Inhalte auch im Social Web zu teilen, steigt erheblich.

Startseitenoptimierung – Weil der erste Eindruck zählt

09. März 2016

Häufig gelangen Besucher über Umwege auf eine Domain. Dies geschieht meist durch eine bestimmte Eingabe bei den Suchmaschinen oder über die Verlinkung einer externen Seite. Während früher vermehrt Verlinkungen zur Startseite üblich gewesen sind, landen User nun immer öfter zuerst auf einer der Unterseiten. Dieses ist nicht unbedingt als erster Anlaufpunkt für Suchmaschinen-Bots oder reale Besucher gedacht, führt allerdings erfahrungsgemäß spätestens mit dem zweiten Klick auf die Startseite einer Website – mittels der Seitenorientierung.

Die Homepage ist quasi das Zentrum, an dem die Verknüpfungen aller Unterseiten zusammenlaufen. Folglich sollte daher ein guter Überblick über die vorhandenen Inhalte gegeben werden. Auf Grund dessen wird diese Adresse in der Regel auch die meisten Besuche verzeichnen können und sollte gewissen Ansprüchen gerecht werden.

Worum geht es auf der Website?
Inwieweit ist der Besuch der Seite profitabel fĂĽr den User?
Welche Arten von Beiträgen oder Dienstleistungen bietet die Seite an?
Wer steckt hinter dem Content und woher nimmt dieser seine Qualifikation?

Dies alles sind Fragen, die sich den potentiellen Besuchern oftmals stellen, und welche im Idealfall bereits auf der Startseite beantwortet werden sollten. Zumindest ein erster Einblick in den Hintergrund der noch verborgenen Unterseiten sollte ebenfalls gegeben werden. Sicher kann es in vereinzelten Fällen auch clever sein, dem User gezielt Informationen auf der Startseite vorzuenthalten. Beispielsweise um sein Interesse zu wecken und ihn tiefer in den eigentlichen Content der Seite zu locken. Jedoch sollte an dieser Stelle immer eine gesunde Mitte gefunden werden und weder übermäßig Content verheimlicht, noch vorweggenommen werden.

Bei der Anordnung der Content-Bausteine auf der Startseite, lohnt es sich, die einzelnen Elemente einem gewissen Prinzip folgend aufzubauen – nicht wahllos. Solange ein Besucher nicht bewusst visuell abgelenkt ist, wird selbiger normalerweise gewohnheitsmäßig von oben nach unten die Seite überfliegen. Von daher ist es ratsam, eine thematische Vormachtstellung gleichfalls optisch zum Ausdruck zu bringen. Das Wichtigste sollte hierbei möglichst weit oben angeordnet werden. Zudem sollten stets logisch zusammenhängende Aspekte in selbiger Weise visuell miteinander verknüpft sein – und dies nicht nur auf der Startseite.

Sicher erscheint es plausibel die Eingangsseite einer Website optisch pompös und für den Besucher möglichst ansprechend zu gestalten. Jedoch sollte nicht aus den Augen verloren werden, dass Textelemente auch wirklich solche sein sollten. Das bedeutet, dass es nicht empfehlenswert ist, gewählten Content (ausschließlich) in Form von Grafiken oder Videos zu präsentieren, da diese nicht effektiv von den Suchmaschinen ausgelesen werden könnten. Dementsprechend können Texte eine Seite nur positiv beeinflussen, wenn die Zeichen auch wirklich auslesbar sind.

Die Startseite einer Website sollte stets einen guten Überblick über die Thematik der jeweiligen Domain vermitteln. Die Präsentation von Newslettern, Blogbeiträgen oder Sonderangeboten auf der Homepage suggeriert dem User ein Bild von Aktualität. Zusätzlich bietet es die Möglichkeit, das Augenmerk auf die jeweils verlinkten Unterseiten zu lenken. Ansonsten sollte das Startseitenmenü einen sehr guten Überblick über die thematische Spannbreite der Website geben. Dabei ist weniger auf die Vollständigkeit der Unterseiten, als vielmehr auf die Gesamtheit der vorhandenen Oberpunkte zu achten. Um ein verwirrendes, unübersichtliches Startseitenmenü zu vermeiden, sollte das Anlegen weiterer Untermenüs in Erwägung gezogen werden.

Im Normalfall sollte innerhalb von wenigen Sekunden für jeden Erstbesucher die Bedeutung und Zweckmäßigkeit einer Domain, anhand der Startseite erkennbar sein. Idealerweise reicht hierzu sogar der „above the fold“-Bereich aus. Also genau derjenige Abschnitt einer Seite, welcher dem Besucher unmittelbar und ohne zu scrollen auf seinem Desktop angezeigt wird. Sekundäre Informationen wie der Einführungstext gehören eher „below the fold“, wie beispielsweise Elemente wie Titel und Logo. Um bei den Usern möglichst schnell das Bild einer seriösen und kompetenten Seite zu wecken, ist es auch nicht verkehrt, im unteren Teil der Startseite kurz auf Referenzen, abgeschlossene Projekte oder erhaltene Gütesiegel hinzuweisen.

Nachfolgend eine kurze Checkliste der Dinge, welche auf keiner guten Startseite fehlen dĂĽrfen:

- Der Titel und das Logo der Website/des Unternehmens
- Der Slogan beziehungsweise Claim der Website/des Unternehmens
- Ein ĂĽbersichtliches MenĂĽ mit Verlinkungen ĂĽber die Hauptseiten der Website
- Ein interesseweckender Einleitungstext
- Eine ansprechende visuelle Gestaltung aller Elemente

Viele der genannten Möglichkeiten der Startseitenoptimierung sind vielmehr Empfehlungen, als wirkliche essentielle Notwendigkeiten. Je nach Thematik und Ziel der jeweiligen Website variiert die Erwartung und Anforderung der Besucher an eine Startseite teils sehr stark. Deshalb ist in jedem individuellen Fall die Anpassung bzw. Anwendung anderer Methoden ratsam.

Online-Marketing via Facebook – SEO meets Social Media

01. Februar 2016

Bei der Suchmaschinenoptimierung geht es um die gezielte Einflussnahme auf die organische Auflistung von Websites im Suchmaschinenranking. Mit der stetig wachsenden Bedeutung und Ausbreitung von Social Media Plattformen, steigt auch zunehmend deren Relevanz im SEO-Bereich. Man spricht dabei auch von Social SEO.

Soziale Netzwerke gibt es zu Hauf: Facebook, YouTube, Twitter, Xing und Google+ sind zwar nur einige, aber die Größten unter ihnen. Mit diesen Portalen beschäftigt sich Social Media SEO, welches sowohl Teil der Suchmaschinenoptimierung, als auch des Social Media Marketings ist. Selbstverständlich wäre anzunehmen, dass beispielsweise Google primär die Nutzerdaten aus der firmeneigenen Plattform Google+ für das Seitenranking heranzieht. Jedoch eignet sich dieses, auf Grund des momentan noch relativ geringen Nutzungsniveaus, noch nicht ernsthaft als Ersatz der wirklich großen Netzwerke, wie beispielsweise Facebook.

Die vor knapp zwölf Jahren ins Leben gerufene Website entwickelte sich innerhalb kürzester Zeit vom einfachen Studentenverzeichnis zum Megakonzern. Übertroffen wird der stetige Anstieg der monatlich aktiven Facebook-Nutzer, nur noch durch das Wachstum der Werbeumsätze des Internet-Giganten: 2015 stiegen diese vom dritten zum letzten Quartal um fast 700 Millionen US-Dollar. Natürlich ist genannter Betrag vergleichsweise gering, wenn man bedenkt, dass der Konzern im gesamten letzten Jahr einen Umsatz von 17.928 Millionen US-Dollar erwirtschaftet hat.

Von dem prognostizierten Tod der weltweit größten sozialen Plattform ist Facebook also noch weit entfernt. Grund dafür ist vor allem, die Masse an bereits registrierten Usern. Ein bereits etabliertes und anerkanntes Medium überzeugt Interessenten meist viel schneller, als ein völlig neuer Anbieter. Allerdings führt Facebook auch fortlaufend neue Dienste und Features ein, welche auch die langjährigen Nutzer bei der Stange halten.

Für Google und letztendlich Social SEO ist Facebook dank der schieren Unmenge an Nutzerdaten, ein regelrechter Schatz an Informationen. Da allerdings momentan keine Kooperation zwischen den beiden Online-Kolossen stattfindet, kann sich die Suchmaschine nur auf die öffentlich zugänglichen Daten beziehen. Diese sind zu einem großen Prozentsatz unvollständig und teils nicht vertrauenswürdig genug, als dass Google ihnen allzu große Bedeutung, in Bezug auf einen essentiellen Ranking-Faktor, zukommen lassen würde.

Nichtdestotrotz spielen die sogenannten Social Signals hierbei eine nicht unbedeutende Rolle: Dieser, durch Likes bzw. Shares beeinflusste Faktor, ist einem klassischen Backlink und dessen Wirkung nicht unähnlich. Da sie gleichermaßen eine Empfehlung beinhalten, können Social Signals ebenfalls zur Stärkung einer bestimmten Seite im Ranking beitragen. Allerdings darf die Bedeutung dieser zwei Komponenten für SEO nicht gleichgesetzt werden, da Backlinks in der Realität einen viel wichtigeren Faktor darstellen.
Eine andere Möglichkeit, Kunden zu gewinnen oder schlichtweg den Traffic auf der eigenen Website zu erhöhen, ist die Schaltung direkter Werbeanzeigen über Facebook. Mithilfe der enormen Reichweite des sozialen Netzwerkes und einer kaum vergleichbaren Nutzerdatenmenge lässt sich Werbung individueller platzieren, als auf jeder anderen Online-Plattform der Welt. Weit über die demografischen Merkmale, wie Alter, Geschlecht und Familienstatus hinaus, kennt Facebook die Gewohnheiten und Vorlieben seiner Nutzer ganz genau. Diese lassen sich demnach exzellent für Werbetreibende – und für die ideale Orientierung auf deren Wunschzielgruppe – verwenden. Ein Budget lässt sich schließlich viel effektiver einsetzten, wenn die Empfänger der Anzeigen genau ausgewählt werden können und man nicht auf potentielle Interessenten hoffen muss.

In jedem Fall bieten Social Media Plattformen wie Facebook, interessante Perspektiven im Online Marketing-Bereich. Auch wenn Social SEO kein essentieller Teil der Suchmaschinenoptimierung ist, bleibt es doch ein wichtiger Bestandteil dessen – und ist nicht zu unterschätzen. Vor allen Dingen, da die Bedeutung genannter Plattformen tendenziell eher weiter ansteigen wird, lohnt es nachhaltig, sich möglichst früh in dieser Richtung zu engagieren und zukünftige Entwicklungen im Auge zu behalten.

Der PageSpeed – Mit Schnelligkeit an die Spitze

18. Dezember 2015

Im SEO-Bereich ist das Maß an optimierbaren Faktoren praktisch unbegrenzt. Kaum jemand kann behaupten, dass seine Webseite im Thema Suchmaschinenoptimierung perfekt wäre. Doch auch allgemein: Was bringt die schönste Website der Welt auf den besten Plätzen im Google-Ranking, wenn diese niemand besucht?

Der PageSpeed ist im Vergleich ein weiterhin eher komplizierter Faktor der Suchmaschinenoptimierung. Dieser äußert sich durch die jeweilige Ladezeit einer Website und hängt von der Leichtigkeit Googles ab, die entsprechende URL auszulesen. Je größer die Seite und je mehr Elemente nötig sind, um von Google gecrawlt zu werden, desto länger dauert das Ganze folglich in der Regel auch.

Einer der häufigsten Gründe, warum User eine eigentlich qualitativ hochwertige Website nicht besuchen, ist schlichtweg, dass sich die angewählte Page einfach nicht öffnet – jedenfalls nicht schnell genug. Der durchschnittliche Internetbesucher ist wählerisch und außerdem verwöhnt vom maßlosen digitalen Überangebot des World Wide Webs. Wer hat heutzutage noch Zeit, länger als drei Sekunden auf das Öffnen einer Website zu warten? Nach neusten Umfrageerkenntnissen sind dies gerade einmal 60 Prozent der Internetuser. Das bedeutet, beinahe die Hälfte der Nutzer wechselt lieber zu einer alternativen Website, als über drei Sekunden auf das Laden der Seite zu warten – Tendenz steigend.

Das liegt, wie bereits angedeutet, vor allem daran, dass wir von den großen Seiten, im Hinblick auf deren Seitenladegeschwindigkeit, verwöhnt worden sind. Dazu gehören Giganten wie Facebook, YouTube oder auch Google. Dazu kommt, dass man sich in der Regel im privaten, tagtäglichen Gebrauch hauptsächlich auf bereits bekannten Websites aufhält. Durch die Erwartungshaltung des gewohnt guten Content der Seite, ist man als User auch viel eher bereit, einen geringeren PageSpeed in Kauf zu nehmen und länger darauf zu warten. Bei fremden Seiten verhält sich es genau gegenteilig: Lange Wartezeiten verfälschen den Ersteindruck der Seite negativ und bewegen den Nutzer schnell dazu, stattdessen eine alternative Website aufzurufen. Gute PageSpeed-Werte verbessern also nicht nur die Qualität der Seite, sondern auch aktiv die Absprungrate und damit einhergehende User Experience der Website.

Mit dem Vormarsch der Smartphones und die darauf folgende Erweiterung der Internetlandschaft, ist der PageSpeed auch für das mobile Web interessant geworden. Auf Smartphones, Tablets und anderen internetfähigen Mobilgeräten erwartet sogar über die Hälfte der Nutzer eine ähnliche Ladezeit, wie auf dem heimischen PC. Eine Hoffnung, welche in den seltensten Fällen erfüllt werden kann. Um diesem Mangel allerdings etwas entgegenzukommen, versucht Google momentan die Ladezeiten mobiler Websites durch das so genannte Accelerated Mobile Pages (AMP)-Framework zu verkürzen.

Laut Google, ist das Ziel der Accelerated Mobile Pages, die kombinierte Nutzung aus den technisch begrenzten Funktionalitäten der Mobilgeräte mit Hilfe von Caching. Dadurch soll eine bessere Performance der Seiten bewirkt werden. Als „Cache“ bezeichnet man normalerweise jede Art von Zwischenspeicher. Einen Solchen besitzt auch Google und hält in diesem unter anderem den Stand einer bereits gecrawlten Website fest. Mit Hilfe des Cachings sollte es möglich sein, Internetseiten direkt aus dem Cache aufzurufen und so deren Ladezeiten etwas zu verkürzen.

OffPage-Optimierung – nicht zu verkennen in seiner Bedeutung

16. November 2015

Die Erstellung der eigenen Webseite bringt Freude und Stolz mit sich: „…da ist sie, meine eigene Homepage!“. Nachdem viel Arbeit und Geld investiert wurde, um eine möglichst schöne, ĂĽbersichtliche und vielleicht sogar innovative Seite zu entwickeln, sollte diese nun auch schlussendlich von vorzugsweise zahlreichen Usern besucht werden.

Eine gute und solide Basis liefert die OnPage-Optimierung: Alle Maßnahmen auf der eigenen Webseite – vom mittels Keywords abgerundeten Content, über perfektionierte Überschriften und Texte, als auch Bildbeschreibungen, bis hin zur idealen internen Seitenvernetzung. Eine optimale OnPage-Optimierung bringt einen großen Vorteil mit sich und ist schon (fast) zielführend. Um allerdings im World Wide Web Aufmerksamkeit zu bekommen müssen noch weitere Maßnahmen ergriffen werden, außerhalb der eigenen Website – OffPage.

Die OffPage-Optimierung ist die zweite große Komponente in einer erfolgreichen und nachhaltigen Suchmaschinenoptimierung (SEO). Hierbei handelt es sich, um die elementare Entwicklung einer Linkstruktur mit anderen Webseiten. Ziel ist die bestmögliche Positionierung seiner Seite bei den Suchmaschinen in festgelegten Bereichen rund um seinen Themenbereich beziehungsweise Branche. Die entscheidendsten Aspekte für eine zielgerichtete OffPage-Optimierung sind Backlinks. Im Folgenden sind alle Schritte und Vorgehensweisen der idealen OffPage-Optimierung als SEO-Checkliste aufgeführt – goldrichtig für ein Ziel: Nur der erste Platz zählt.

OffPage SEO – an alles gedacht?

Analyse
= Entscheidungshilfe ĂĽber direkte und indirekte Linkaufbau-MaĂźnahmen.
o Menge der Backlinks prüfen, sowie ihren Ursprung und Qualität
o Hilfe bieten hierbei z.B. die Tools von SISTRIX oder XOVI
o Struktur der Backlinks von Anfang an beachten

Content
= Inhalte, die optimalerweise zur Sammlung von Backlinks dienen.
o Ansprechende und außergewöhnliche Inhalte bilden ein ideales Fundament für den Linkaufbau.
o Mit den Inhalten sollten User zur Weiterempfehlung oder Verlinkung animiert werden.

Backlinks (RĂĽckverweise)
= Eingehender Link zur Webseite von einer anderen (z.B. von bild.de aus) – somit entscheidendster Aspekt für OffPage SEO, da anhand der Rückverweise die Beliebtheit einer Seite gemessen werden kann (vgl. Linkpopularität).
o Ankertext (auch: Linktext oder Verweistext) der Backlinks sollte stets verschieden sein und Keywords enthalten
o Backlinks in der Domain – empfehlenswert, sofern die markantesten Keywords enthalten sind.
o Zusätzlich Deep Links (Link, welcher auf eine „tieferliegende“ Unterseite verweist) sammeln.
o Eigene Artikel aktiv verbreiten, z.B. über soziale Netzwerke wie Facebook – alternativ die Berichte mit Social-Media-Buttons versehen.

NatĂĽrlicher Backlinkaufbau
= Verlinkungsstrategie, die individuell und effektiv auf die betreffende Seite abgestimmt ist, dabei jedoch wahrheitsgetreu und plausibel in der Linkgeschichte bleibt – Linkaufbau mit natürlicher Struktur.
o Entstehung der Backlinks sollte allmählich und schrittweise erfolgen.
o Nofollow-Links sind Bestandteil einer glaubhaften Backlinkstruktur – daher neben den wirksamen Follow-Links einzuplanen beim Aufbau.
o Gut durchdachten Backlink-Mix gestalten – keine Art sollte Überhand haben.

Backlink-Quellen
= Beeinflussen das Ranking und den Traffic der Webseite.
o Je mehr verschiedene Quellen benutzt werden, desto natürlicher wirkt es – ein wirkungsvoller Content ist hierfür ungemein hilfreich.
o Entscheidung, welche Quellen verwendet werden, obliegt jedem selbst.
o Linkbait (auch: Clickbait – Strategie, um seinen Traffic auf der eigenen Seite zu erhöhen – User werden „geködert“ für eine Verlinkung) sinnvoll einsetzbar für die Generierung natürlicher Backlinks.
o Für neue Webseiten und Blogs besonders effektiv: kostenlose Backlinks aus unterschiedlichen Quellen – erhöht das Einstiegstempo ins Google-Ranking.

Direkte und indirekte Backlink-Generierung
= Unterschiedliche MaĂźnahmen, um Backlinks aus anderen Bereichen zu erzeugen.

o Direkte Backlinks:
Links, die direkt auf die Zielseite verweisen. Es gibt hierbei zwei Arten: Nofollow-Links und Follow-Links (Unterscheidung auf die Anweisung des HTML-Codes – Suchmaschinen werden angeleitet zu folgen oder nicht zu folgen. Dies ist wichtig in Bezug auf die Beurteilung der Linkpopularität und den Rankingfaktor).

o Indirekte Backlinks:
Verweisen beispielsweise über Landingpages, Formulare oder interessante Beiträge und Blogs auf eine Webseite. Hierbei besteht zwar Kontrollverlust, jedoch lassen sich dadurch viele natürliche Backlinks erhaschen.

o Besondere Form - Affiliate Links:
= Wichtig im Bereich des Affiliate Marketings (hierbei kooperieren der Websitebetreiber und ein E-Commerce-Unternehmen, um Werbung fĂĽr das Unternehmen inklusive Link auf einer fremden Webseite zu platzieren), da hier die Verlinkung wesentlich geringer ist.
Das Aussehen dieser Links wirkt fremdartig, wie von einer anderen Welt – daher hierfür idealerweise eine Linkmaskierung anwenden: Dadurch werden keine Sonderzeichen und Parameter mehr angezeigt, der Link wird kürzer und ist einfacher zu merken. Zusätzlich kann mittels der Maske die Beschreibung einer Landingpage eingefügt werden und der User weiß, was ihn auf der Zielseite erwartet (Tool ist auch auf direkte Backlinks anwendbar).

Linkkauf/Linkmiete und Linktausch
= Verfahrensweisen beim Linkbuilding, wobei Verlinkungen von anderen Webseiten genutzt werden, um weitere Backlinks zu generieren und die eigene Linkpopularität zu steigern – nützliche Ergänzung in der Backlink-Generierung.

o Linkkauf/Linkmiete:
= Künstlicher Linkaufbau und somit Gegenpol zu den natürlichen Backlinks. Dient der Steigerung unter Einsatz von finanziellen Mitteln – beim Erwerb von Backlinks erfolgt ein direktes Eingreifen des Linkbuilders.
Wichtig hierbei: Google bestraft diese Methode mit einem Rankingverlust, da diese Backlinks keine Aussage über die Qualität einer Webseite liefern.

o Linktausch:
= zählt ebenfalls zum künstlichen Linkaufbau, bietet allerdings die Möglichkeit bei trickreicher Anwendung ohne jeglichen Verlust beim Ranking zum Einsatz zu gelangen. Es lassen sich grundlegend zwei Arten des Linktausches unterscheiden:
• Reziproker Linktausch:
= Gegenseitiger Linktausch mit zwei Partnern – hierbei idealerweise keinen einfachen Linktausch vornehmen von Webseite zu einer anderen, sondern im Verbund von drei Seiten agieren, wobei ein Partner Schirmherrschaft über zwei Webseiten haben sollte.
• Nicht reziproker Linktausch:
= Netzwerk aus mehreren Partnern, welches durch die Verlinkung entstehen soll.

Ranking-Optimierung
= Suchmaschinenoptimierung im Hinblick auf die Platzierung bzw. Rangfolge bei den jeweiligen Suchmaschinen – dem Ranking, und nach der Beliebtheit des vom User eingegebenen Keywords (Suchbegriff) – das Suchvolumen.
o Backlinks stellen einen wichtigen Faktor fĂĽr erfolgreiches Ranking dar.
o Rentabel zeigt sich ebenfalls, bestimmte Artikel und Beiträge durch gezielte Verwendung der Keywords zu optimieren – aber: nicht überladen.
o Alternativ: Longtail-Keywords verwenden - Suchbegriffe mit vergleichbarem geringen Suchvolumen, die allerdings das Ranking auf Platz 1 vereinfachen, da sie weniger umkämpft sind.
o FĂĽr Blogs ist die Optimierung einzelner Rankings in ihrer Bedeutung weniger hoch angesiedelt, hingegen ist die Relevanz vom Ranking bei z. B. Affiliate Sites enorm hoch.
o MaĂźgebliche Rankings lassen sich mittels SEO-Tools wie beispielsweise SISTRIX oder XOVI gut im Blick behalten.

Social Web (Social Signs/Social Signals)
= Möglichkeit, um über die sozialen Netzwerke wie Facebook, Twitter, Google+ und Co. die eigenen Inhalte publik und somit auf sich aufmerksam zu machen – und aktiv daran zu teilnehmen.
o Hier zählt mehr als lediglich die Backlinks zu platzieren – sich „ins Gespräch“ zu bringen, kann für die Backlink-Generierung wertvoll sein.
o Interaktionen mit anderen Usern auf dieser viralen Ebene zu starten, kann mehr Traffic fĂĽr die eigene Webseite am Ende bedeuten.
• Rankingfaktor der Verweildauer wird z.B. durch einen Aufruf zur Interaktion wunderbar bedient.

Networking
= Kontakte knĂĽpfen und pflegen
o Mit anderen Webseiten-Betreibern und Bloggern oder einfach generell mit anderen Menschen aus der eigenen oder einer fremden Branche mit denen man sich Austauschen und Interagieren kann.
o Hierbei gilt: Nicht sofort den Aufruf der eigenen Website einfordern und sich bewerben, sondern auch andere Beiträge verlinken, um Interesse zu zeigen und präsent zu sein – die Backlinks kommen mit der Zeit von selbst.
o Kommentare zu anderen Blog-Beiträgen können gleichermaßen zum Kontaktaufbau hilfreich sein – ohne URL zu hinterlegen.

Am Ende bleibt festzustellen, dass das Thema der OffPage-Optimierung als Grundlage für die Suchmaschinenoptimierung stets im Blickfeld behalten, kontrolliert und verfeinert werden sollte, um eine perfekte Webpräsenz mit quantitativem, als auch qualitativem Traffic zu generieren. Um die Goldmedaille im Suchmaschinen-Ranking zu ergattern, gilt: Die richtige Komposition der Töne ergibt eine Symphonie!

Keyword Advertising – strategisch gut platzierte Werbung

21. Oktober 2015

Das Keyword Advertising versteht sich inzwischen als ein wichtiger Teil des Onlinemarketings/Suchmaschinenmarketings (SEM). Diese Suchwortwerbung (zu Deutsch) ermöglicht Unternehmen und Werbetreibenden kurze Anzeigentexte auf der Website eines Suchmaschinenanbieters zu schalten. Hierbei handelt es sich um die gezielte und erkaufte Platzierung von Anzeigen. Mittels dieser Werbeform wird die Sichtbarkeit der Inserenten erhöht, da durch die Suchanfrage eines Users, das Werbemittel neben den Ergebnissen - als Anzeige gekennzeichnet, oftmals auch andersfarbig - dargestellt wird. Auf Grund dessen gewinnt das Keyword Advertising schon seit Jahren wachsende Beliebtheit im Onlinemarketing.

Jeder Klick zählt
Beim Keyword-Advertising spielt die Aussage, dass jeder Klick zählt, eine doppelte Rolle: Zum einen hat es die Bedeutung, dass man als Werbetreibender Unternehmer im World Wide Web Aufmerksamkeit auf seine Internet-Domain erzeugen möchte und daher jeder User auf der eigenen Domain zählt. Zum anderen hat es die Bedeutung, in Bezug auf diese Werbeform, dass man nur zahlt, wenn der Link zur beworbenen Internet-Domain verfolgt wird – also geklickt wird.

Diese Abrechnungsform nennt sich „Cost-per-Click“, wodurch die Kosten dafür von der erreichten Klickrate abhängig sind. Der Erfolg der Werbeform lässt sich dadurch sehr gut für den Werbetreibenden ermitteln und ist durch ihre „Keywords“ äußerst zielgruppenorientiert vordefiniert. Allerdings wie (fast) überall verbergen sich auch hierbei Gefahren, wogegen man Schutzvorkehrungen treffen sollte:

Zu verhindern gilt es, dass Wettbewerber das Klicken missbräuchlich benutzen und somit beabsichtigen, dem vermeintlichen Konkurrenten Mehrkosten zu verursachen. Genauso sollte davor geschützt werden, dass die Textanzeigen des Keyword-Advertisings von den jeweiligen Suchmaschinenanbietern an Dritte weitergeleitet werden, die am Umsatz der Werbung beteiligt sind. Diese könnten durch gezielte Klicks lediglich ihre eigenen Erlöse erhöhen und nicht zielführend dienen.

Ein hilfreicher Schutz ist an dieser Stelle eine softwaregestützte Analyse und Korrektur der Abrechnungsdaten. Das wichtigste ist jedoch, fortwährende Kontrolle der vordefinierten Schlüsselwörter und deren Einsatz bei den Suchmaschinen.

Umstritten ist derzeit noch die Verwendung von Markennamen als Keyword. Die Gerichtsentscheidungen sind bislang nicht eindeutig, da den klagenden Marken bzw. Firmen sowohl in Urteilen Recht gegeben worden ist und wieder in anderen die Klage abgewiesen worden ist. Das Keyword-Targeting (zielgenaue Definition der positionierten Schlüsselwörter) sollte daher wohl überlegt stattfinden.

Ganz nach oben bitte
Um in den Ergebnislisten der Suchmaschinenanbieter wie beispielsweise Google, Yahoo! oder Bing so weit oben wie möglich zu erscheinen, muss man allerdings für das gewünschte Keyword mehr bieten als andere. Der Preis der Schlüsselwörter bei dieser Werbeform ist abhängig von der Beliebtheit des gewählten Wortes – je beliebter, je teurer.

Obwohl das Keyword-Advertising für die Suchmaschinenanbieter eine der markantesten Einnahmequellen darstellt, halten sie ihren eigenen Verwaltungsaufwand dabei gering – es wird in die Hände der Inserenten abgegeben. Google bietet für ihre Suchmaschine zum Beispiel das Programm „AdWords“ an, und Yahoo hat dafür ihr „Yahoo Search Marketing“ im Angebot. Der Vorteil ist hierbei, dass man mittels der eigenen Verwaltung mehr Kontrolle über das Keyword-Targeting besitzt. Der Nachteil ist der benötigte Aufwand für die Analyse und Korrektur der definierten Schlüsselwörter.

Mithilfe von Sistrix und Onpage.org begehrte Daten erhalten

01. September 2015

„Not Provided“ – für viele SEOs ein untragbarer Begriff. Das bedeutet nämlich, dass Google keinerlei Rankingdaten preisgibt. Mithilfe der deutschen SEO-Tools onpage.org und Sistrix ist es nun gelungen, vollen Zugriff auf wichtige Rankingpositionen und –entwicklungen zu erhalten. Einfacherer SEO-Analysen sind ab nun so möglich.

„Not Provided“ = Not good

Bislang wurde es Marketer nicht besonders einfach gemacht, zuverlässige und brauchbare Daten im Hinblick auf die wichtigsten Keywords Ihrer Website auszulesen. Dies ist aber insbesondere für den Traffic enorm wichtig, denn nur wer weiß, über welche Begriffe Nutzer auf die jeweilige Seite kommen, kann daraufhin auch optimieren. Das wurde bislang von Google streng geheim gehalten, Experten konnten nur Mutmaßungen und trial and error-Methoden anstellen. Lediglich die genaue Anzahl an Usern ist freigegeben worden – diese Einschränkung ist aber, zum ersten Mal wieder seit September 2013, nun wohl beendet.

Ein Aufatmen geht durch die Reihen

Es scheint endlich Rettung in Sicht, welche neben sehr viel Aufwand auch eine Menge Nerven und wertvolle Zeit im Kampf um die besten Plätze im Ranking spart: Innerhalb der Sistrix-Toolbox ist es Nutzern ab jetzt möglich, die Google Search-Console mit ihrem eigenen Account zu verbinden – die frei verfügbaren Rankingdaten der letzten 90 Tage sind damit einfach zu importieren. So sind auch längerfristige Vergleiche möglich.

Onpage.org wird eine zusätzliche Funktion freischalten: Mithilfe des „Modul Impact“ sind Nutzer zusätzlich dazu in der Lage, weitaus differenziertere Rankingdaten (sogar für einzelne Unterseiten, zudem ist eine Filterfunktion inbegriffen, die nach Zeiten und Dimensionen unterscheidet) der Search-Analytics-API zu übertragen und auszulesen. Interessanterweise umgeht man Google mit dieser Methode nicht, sondern die Suchmaschine stellt diese Daten frei zur Verfügung.

Einige Probleme bei der Benutzung der Daten

Dort, wo es viele Vorteile gibt, sind meistens auch die eher negativen Komponenten nicht weit: So kann die Performance verzerrt werden, da die Daten nur einen sehr geringen Teil der Keywords zeigen, die für die Website wichtig sind. Außerdem ist die zeitgenaue Erfassung keineswegs nur positiv zu sehen – ein Ranking ist nur sehr selten statisch, was aber durch die Datenerfassung so suggeriert wird. Zudem entstehen auch Fehler durch die Anzahl der geprüften Keywords und durch die Häufigkeit des Crawlens.

SEO fĂĽr Onlineshops: Das sollte man beachten

03. August 2015

Jeder Betreiber eines Shops im Netz möchte seinen Kunden, neben einer breiten Produktpalette, auch mit der besten Usability überzeugen. Nur wer das leisten kann, hat einen Vorsprung vor der Konkurrenz – und einen Pluspunkt bei den Suchmaschinen.

1. Ăśbersichtlichkeit schaffen
Es ist wichtig, dass sich der zukünftige Kunde auf der Seite wohlfühlt. Dafür muss der Shop übersichtlich gestaltet sein, der Inhalt ist aber ebenso wichtig. Um das gesamte Suchvolumen in den eigenen Shop zu locken, sind häufig genannte Begriffe als Keywords anzubringen. Diese ersetzen dabei meist die ebenso richtigen, aber weniger geläufigen Fachausdrücke.
Unbedingt gilt es auch, visuelle Effekte in Form von Fotos oder Videos zu präsentieren. So kann man zudem über die Bildersuche von Google erscheinen. Außerdem ist es logisch, nicht mit Produktdaten zu sparen. Das hilft dem User und kann in den Suchmaschinen besser ausgelesen werden.

2. Duplicate Content vermeiden
Individualisierte Texte, die nicht dem anderen gleichen: Das ist eigentlich eine Binsenweisheit. Die eigene Note ist aber nicht nur für die Auffindbarkeit entscheidend, sondern wird auch Kunden nach dem erstmaligen Besuch immer wieder in den Shop locken. Eigene Erfahrungsberichte und andere, wichtige Entscheidungshilfen bringen Traffic auf die Seite und hinterlassen zufriedene Kunden. So sollten auch diese selbst eine Funktion vorfinden, bei welcher sie bewerten können. Durch die erhaltenen Noten in Sternform erscheint man bei Google.

3. Auf das Warenangebot achten
Es gibt immer wieder Produkte, die vorübergehend ausverkauft sind und aus diesem Grund den Status ändern müssen, um Kunden nicht in die Irre zu führen. Auf gar keinen Fall darf es passieren, dass eine neue URL angelegt wird, sobald das jeweilige Stück wieder lieferbar ist – so verliert die alte Adresse ihren Wert. Des Weiteren kommt es insbesondere darauf an, wie lange Interessenten auf ein Produkt warten müssen: Wird dies dauerhaft aus dem Sortiment genommen, sollte der Fehlercode 404 erscheinen, sodass man weiß, dass die URL nicht mehr existiert. Ganz aus dem Shop ist das Produkt zu nehmen, wenn man nicht genau weiß, wann es wieder lieferbar ist. Darüber muss der Kunde jedoch informiert werden, mit einem sichtbaren Hinweis oder einer anderen Funktion. Um Frust vorzubeugen sowie die Vorfreude weiter aufrechtzuerhalten und damit Kundenbindung zu betreiben, ist bei einem Teil, welches ein bestimmtes Lieferdatum vorweist, kenntlich zu machen, dass der Artikel gerade nicht vorhanden ist, aber wiederkommt.

SEO in Zukunft

08. Juli 2015

Die Suchmaschinenoptimierung hat mittlerweile in sehr vielen Unternehmen Einzug gehalten. Im Netz gefunden zu werden, den Traffic auf seiner Seite zu erhöhen und dadurch in der „realen Welt“ mehr Umsätze machen: Das ist das Ziel. Auch die Suchmaschinen haben das erkannt und entwickeln sich immer weiter, um Betrügern oder fadenscheinigen Maßnahmen, welche in diese Richtung gehen, Einhalt zu gebieten. Diese Entwicklungen stehen uns möglicherweise im Jahr 2016 bevor:

1. Die mobile Nutzung steigt

Dieser Punkt ist wenig überraschend, hat nicht nahezu jede Person zwischen 14 und 60 Jahren (oder älter) ein Smartphone oder/und ein Tablet. Was jedoch in den folgenden Jahren auffallen wird, ist, dass die Suchanfragen in den Suchmaschinen öfter via mobiles Endgerät als über den Desktop oder das Notebook kommen werden. Aus diesem Grund muss man, wenn nicht schon geschehen, sein Responsive Design schleunigst an den gängigen Standard anpassen, um nicht negativ auf- oder im Ranking abzufallen. Wenn man diesen Schritt verschläft, wird einen die Konkurrenz schnell einholen. Der User muss das Gefühl haben, dass die aufgerufene Seite für ihn, für seine mobile Suchanfrage, geschaffen wurde. Es gibt dabei nicht Schlimmeres als eine unangepasste Website mit fehlenden Buttons oder übergroßen Anpassungen. Die Zielgruppe steigt, dessen sollte man sich auch für den Onlineshop oder den Blog bewusst sein.

Nicht zu vergessen: Local SEO. Das eigene Restaurant oder das Ladengeschäft muss Google bekannt sein, um es auf Google Maps anzeigen zu lassen. Nur so kann man aus Onlinenutzern echte Kunden vor Ort machen.

2. Direct Answers

Für viele Nutzer möglicherweise noch unbekannt ist das sogenannte direkte Antworten von Google. Der Suchmaschinenriese steigt in immer mehr Bereiche ein – das macht anderen Anbietern zu schaffen. Wer nutzt noch Wetterportale, wenn mir Google diese Ergebnisse direkt großflächig ganz oben in den Top-Platzierungen anbietet, inklusive Bild und Trend? Dies soll jedoch nur der Anfang sein, denn es werden immer mehr Fragen des täglichen Lebens so ganz einfach ohne langes Tippen beantwortet. Darauf darf man gespannt sein.

3. Sprechen statt schreiben

Die automatische Spracherkennung ist auf Mobiltelefonen bereits voll im Gange. Für Suchmaschinenoptimierer bedeutet diese einfache Art der Suche: Eine Fixierung auf Key-Fragen bzw. eine Anpassung an die aktuellen Trends (W-Fragen,…).