Google hat seine Suchmaschine im letzten Jahr radikaler verändert als je zuvor. Suchmaschinen-Optimierung als isolierte Technik hat damit ausgedient. Wer bei Google gut gerankt werden will, braucht eine gute Content-Strategie, nicht schwindlige SEO-Experten.
Auf dem PRCamp in Wien habe ich gestern über Panda berichtet. Panda interessiert mich nicht zuletzt, weil es gute Argumente für die Sinnhaftigkeit der Content-Strategie liefert, mit der wir uns am Grazer Web Literacy Lab vor allem beschäftigen, und die Brigitte Alice Radl und ich am Samstag auch auf dem PR Camp vorgestellt haben.
Hier eine Zusammenfassung meines Vortrags gestern. Vieles muss offen bleiben. Ich bin erst dabei, mich in dieses Thema einzuarbeiten.
Das Panda genannte Update ergänzt und ersetzt zum Teil die alten PageRank-Verfahren. Mit Panda hat Google Machine Learning im großen Stil in die Suchmaschinen-Technologie eingefüht; die Algorithmen optimieren sich also selbst. Als Futter für die selbstlernende Suchmaschine verwendet Google einerseits alle auswertbaren Daten, also z.B. auch die Informationen über die Chrome- und Android-Nutzer. Andererseits lernt die Suchmaschine, wie Inhalts- und User Experience-Fachleute Websites beurteilen.
Wie arbeitet Panda?
Google hat Panda im Februar 2011 eingeführt und mit einem Blogpost erklärt:
This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful. At the same time, it will provide better rankings for high-quality sites—sites with original content and information such as research, in-depth reports, thoughtful analysis and so on. … Google depends on the high-quality content created by wonderful websites around the world, and we do have a responsibility to encourage a healthy web ecosystem. Therefore, it is important for high-quality sites to be rewarded, and that’s exactly what this change does.
Panda ist benannt nach dem Google-Ingenieur Navneet Panda. Zunächst wurde es oft auch als »Farmer«-Update bezeichnet.
Panda wird kontinuierlich verbessert. Seit dem 25. Juni 2012 arbeitet Google mit der Version 3.8. Panda wurde außerdem nach einem Jahr durch Penguin ergänzt, das gegen Web Spam wie Keyword Stuffing gerichtet ist.
Welche Prinzipien liegen Panda zugrunde?
- Das wichtigste Ziel von Panda ist es, Angebote herauszufiltern, die gezielt optimiert wurden, um die Algorithmen der Suchmaschine zu täuschen. Umgekehrt sollen die Sites nach vorne kommen, die für die Benutzer am wertvollsten sind. Panda soll die »Black Hat SEO« aussschalten, die mit Tricks wie Linktausch und Kopieren von Content arbeitet und vor allem für »MFA-Sites« (von Made for Adsense) benutzt wird.
-
Das Verhalten der User auf Websites wird mit allen zur Verfügung stehenden Daten analysiert, um herauszufinden, wodurch sich für die User wertvolle Angebote von anderen unterscheiden. Dabei benutzt Google sowohl die Ergebnisse seiner verschiedenen Services und Produkte wie Beurteilungen durch Experten für Qualität der Inhalte und Usability. Außer Expertenmeinungen zu Usability und inhaltlicher Qualität werden z.B. auch Daten verwendet, die Chrome und Android über die Herkunft der Benutzer einer Site liefern.
-
Für das Ranking sorgt ein selbstlernender Algorithmus, der eine eins-zu-eins-Korrelation einer bestimmten Eigenschaft der Seite und der Position in der SERP weitgehend ausschließt (Search Engine Result Page=Seite mit den Suchergebnissen) . Der Algorithmus wird laufend optimiert. Vor allem in der Anfangsphase kam es auch zu vielen Fehleinschätzungen.
In dem folgenden Video wird beschrieben, wie Panda funktioniert. Ich empfehle es jedem, der noch glaubt, SEO im bisherigen Sinn wäre zu retten. Der zentrale Satz ist:
It is almost like the job of SEO has been upgraded from SEO to web strategist.
[Quelle: How Google's Panda Update Changed SEO Best Practices Forever – Whiteboard Friday | SEOmoz]; dort gibt es auch eine Transkription des Videos]
Wie optimiert man Seiten für Google nach Panda?
Die kurze Antwort auf diese Frage ist: Gar nicht! Die ausführliche Antwort lautet: Indem man seinen ganzen Webauftritt so gestaltet, wie es den Erkenntnissen der Content-Strategie und des User Experience Design entspricht, und indem man das Verhalten der User kontinuierlich und mit den richtigen Metriken beobachtet, also »monitort«.
Einzeländerungen bringen nicht viel. Wichtig ist, dass Google vor allem ganze Sites bewertet, nicht nur einzelne Seiten. Dabei werden übrigens mehrsprachige Angebote auf der gleichen Domain gleich bewertet. Panda vergibt mehr oder weniger Minuspunkte für komplette Sites.
Da komplette Sites bewertet werden—inklusive Assets wie Videos—reicht es nicht, nur die Top-Seiten innerhalb einer Site zu verbessern. Negative Erfahrungen auf Teilen einer Site (die von niemand benutzt werden oder die z.B. einfach von Verwaltungstools generierte Inhalte im Netz zeigen), führen zu Minuspunkten für die ganze Site.
Die Bewertung bezieht sich dabei auf die Gesamterfahrung der Site, also auch auf etwas wie eine positive »Brand Experience«. Es kann also vergleichsweise irrelevant sein, ob es auf Einzelseiten viele Links gibt oder ob zu jedem relevanten Suchstichwort irgendwelche Inhalte da sind. Getestet werden auch sehr spezifische Eigenschaften einer Site, z.B. ob Fragen, die man zu einem bestimmten medizinischen Problem hat, beantwortet werden.
Schädlich sind in jedem Fall große Mengen kopierter Inhalte, vor allem kopierter Kurznachrichten, und große Mengen von altem, nicht archiviertem Inhalt.
Herausgefiltert werden auch Sites, die User mit viel Werbung verschrecken. Bestraft werden insbesondere Angeboten, die im oberen Teil mehr Anzeigen als redaktionelle Inhalte haben.
Viel wichtiger als die Optimierung einzelner Seite ist die Optimierung der Informationsarchitektur. Systematische Content Analytics sind dafür eine Voraussetzung. In How to clean up a cluttered website? schreibt James Mathewson:
You do the keyword research. You use the research to build your content strategy and information architecture. You write compelling copy and complement it with relevant and engaging imagery, all with the best SEO practices in mind. You build the page and embed SEO-enhanced YouTube videos into it. You incorporate social rating and sharing throughout the page. You blog and tweet about the page as soon as it’s launched, using relevant keywords and hash tags. In short, you do everything right. So why is your page not ranking?
A common reason: there are other pages in your environment optimized for the same keywords. Especially in large corporate settings, the main culprit to SEO failure is duplicate content
In dem Zitat nennt Mathewson einige Maßnahmen, die für eine positive Bewertung wichtig sind: Auswertung von Suchstichwörtern, empirisch basierte Content-Strategie und Informationsarchitektur, Qualität der Texte, passende und aussagekräftige Illustrationen, Videos (und andere Medien) mit den richtigen Zusatzinformationen, Teilbarkeit in sozialen Medien, Verbreitung über soziale Kanäle mit den richtigen Keywords und Hashtags. Er betont aber auch, dass sie alle duch Negativerfahrungen wie redundante Inhalte zu bestimmten Themen wertlos gemacht werden können.
Ein wichtiges Mittel, um doppelte Inhalte zu vermeiden, ist ein intelligentes Content Inventory, das auf einen Content Audit zurückgeht. Content Audits sind eine der wichtigsten Arbeitsphasen bei der Entwicklung einer Content-Strategie.
Für die Suchergebnisse spielen z.B. auch geografische Links in der Navigation eine große Rolle. Sie werden u.a. auch verwendet, um Suchergebnisse so zu filtern, dass für User aus einem bestimmten Gebiet oder mit einem bestimmten Interesse geografisch wichtige Informationen nach oben kommen.
Positiv ist eine klare Angabe von Autoren durch Verknüpfung mit Google+-Profilen. Google stellt nicht nur einen Page Rank, sondern auch einen Author Rank fest, und zwar in Zusammenhang mit der Social Search. Siehe dazu Author Rank, SEO and Google Plus: What you need to know.
Generell spielen sauberes Markup und die Verwendung von Metadaten eine wichtige Rolle (siehe dazu schema.org).
Monitoring/Web Analytics müssen die richtigen Metriken verwenden. Wie lange bleiben Nutzer auf einer Site? Schauen sie mehr als eine Seite an? Teilen sie Inhalte? Verlinken sie auf Inhalte? Eine entscheidende Rolle spielt Analyse von User Queries. Was suchen die User bei Google und auf der Site selbst, wenn es dort eine Suchfunktion gibt?
Weitere Informationen
Ich bin auf das Thema durch eine Diskussion in der Google Group zur Content Strategy aufmerksam geworden. Darüber bin ich auf den schon erwähnten James Mathewson gestoßen, der bei IBM für Suchstrategien verantwortlich ist und eine Reihe guter Texte zum Thema verfasst hat, z.B. Content Strategy is the New SEO. Bei ihm würde ich mich zuerst weiterorientieren. Empfehlenswert scheinen mir auch Mike Moran (z.B. Search marketers battle Panda, Penguin, and other Google animals und Andrew Kaufman (z.B. Is Content Strategy the New SEO?). Instruktiv ist auch eine kleine Serie von Robin Good, der selbst nicht ohne Grund ein Opfer von Panda geworden ist. Sehr aufschlussreich zur Entwicklung der Suchtechnologie bei Google ist die Google Algorithm Change History. Generell bleibt SEOmoz neben dem Offiziellen Google Blog eine der wichtigsten Quellen zum Thema.
Congrats Heinz, toller Blogbeitrag!
Ich denke, der Hinweis auf die Notwendigkeit einer konsistenten „Web Strategy“ zur Verbesserung des Google-Rankings kann auch als schlagendes Argument für die Implementierung von Content Strategy in Organisationen dienen. Dass neben der Search Quality nun auch die User Hapiness von Google miteinbezogen wird, finde ich super.
Dass es nicht mehr genügt, „good unique“ Content zu haben, der nach SEO-Kriterien optimiert ist, ist beruhigend. Ich gebe dem hübschen Jungen im Video absolut recht, dass es darauf ankommt, Content zu haben, „that makes everyone who sees it want to share it and say wow“.
Hallo Heinz,
schöner Beitrag. Ich finde diese Entwicklung von Google sehr begrüßenswert.
Doch wie immer gibt es zahlreiche Gegenstrategien. Auf eine möchte ich gerne eingehen.
Schon heute gibt es Unternehmen, die freien Mitarbeitern ein paar Euro pro Beitrag zahlen, damit diese möglichst viele Beiträge mit den richtigen Keywords in kurzer Zeit schreiben, damit die eigene Site in Google gut gerankt wird.
Vor allem im Bereich der Stellenportale und Meta-Jobsuchmaschinen wird hier bereits einiges gemacht.
Es stellt sich mir nun die Frage, ob eine große Anzahl von Beiträgen der Schlüsselfaktor sein muss, um bei Google gut gerankt zu werden.
Denn damit werden sich in Zukunft viele Unternehmen freie „Redakteure“ leisten (Stichwort „mechanical turk“), die Textbeiträge – ja quasi Textfetzen – in kurzer Zeit erstellen (und damit wenig bis nichts verdienen). Es könnte somit quasi zur „Diskontierung“ von Menschen mit Schreibkompetenzen kommen.
LG
Alex
Danke! Wenn du die Beiträge liest und auch das Video anschaust, findest du eine Antwort speziell auf die "mechanical turk"-Frage. Genau diese Strategie funktioniert nicht mehr, weil Google sehr viel mehr Indikatoren für die Qualität einbezieht. Seiten, bei denen Keyword-bezogen Billigst-Content produziert wird, werden abgestraft. Das gilt sicher auch für den "Content on demand", den einige Firmen produzieren. Dabei wirkt noch unterstützend, dass auch Autoren gerankt werden. – Natürlich ist damit die Keyword-Optimierung nicht tot – aber ihre Hauptaufgabe ist es wohl dafür zu sorgen, dass die User etwas zu den Themen finden die sie suchen, und dass sich Inhalte nicht wiederholen.
PS: Ich meine die Beiträge, die ich verlinkt habe!
Hallo Heinz, das Video habe ich selbstverständlich angeschaut.
Ich dachte bei meinem Kommentar eher an Strategien vgl. http://www.karriere.at/blog/ – wo die Inhalte sicherlich eine gute Mindestqualität aufweisen.
Mit „Mechanical Turk“ bezeichne ich jetzt die „armen“ Kommunikationsexperten aus DACH, welche für wenig Geld solche Texte schreiben müssen. Bezahlt werden an Newsbies mit kommunikativen Hintergrund für solche Beiträge zwischen 2 und 10 Euro (soweit die Infos aus meinem Bekanntenkreis).
LG
Alex
Lieber Alex – die Frage bei solchen Sites ist wahrscheinlich: Wie groß ist die Konkurrenz, und wie spezifisch sind sie? Das Blog allein wirkt auf mich völlig unspezifisch, da kann ich mich aber täuschen. Vermutlich hängt die Gesamtqualität der Site eher von anderen Angeboten (Jobs) ab – schaffe es leider nicht so schnell, mir alles anzusehen.
Generell halte ich diesen Billig-Content für einen Irrweg. Schreiben und redaktionelle Arbeit sind einfach aufwändig, egal in welchem Medium. Im Web kann man sich auf die wenigen wirklichen guten Inhalte konzentrieren und sie sich zusammenpicken. Ich denke daher, dass dieses schnelle "Generieren von Content" wenig Zukunft hat – aber das ist natürlich auch wishful thinking.
Danke liebe Brigitte! Ich glaube auch, dass wir tiefer in dieses Thema eindringen müssen. Hier finden sich dabei einige der wichtigsten Argumente für die Content-Strategie, und umgekehrt ist das, was Google hier macht, für die Content-Strategie sehr wichtig.
Dass der Junge auf dem Video hübsch ist, habe ich natürlich nicht bemerkt 🙂
Ausgezeichnet! Das gibt Hoffnung für PR Leute. Endlich spricht etwas für guten Content und eine gute Architektur. Die PR Leute sollten da viel aktiver sein!
Danke! Ich glaube, die meisten PR-Leute haben noch nicht realisiert, dass wir schon längst in einer "Digital Public Sphere" leben und kommunizieren. Stattdessen sind sie froh, die selbsreferentielle massenmediale Öffentlichkeit noch etwas am Leben halten zu können.
Vielen Dank, das war wissenswert und gut-kompakt beschrieben. Jetzt folgt der schwierige Teil der Umsetzung in unserer Web Entwicklung .. 🙂
Erst Panda, dann Pinguin Was kommt als nächstes?
Da Google auf schwarz weiß steht haben wir vllt bald ein Google Zebra^^
Spaß bei Seite. Die Idee Google’s Algorithmen nach der Qualität des Contents einer Website anzupassen leuchtet ein. Das Google daraus ein endloses Spiel ständiger Veränderungen betreibt ist eine andere Sache. Man wird sich wohl immer wieder neu daran anpassen müssen.
Ich sehe gerade im Bereich von Social Media hier eine große Chance. Denn hier kann jede noch so kleine Firma ihre Website/Blog mittels Facebook/Twitter etc. (mit gutem Content) promoten und viele Kontakte aufbauen. Ganz gleich was Panda oder Pingu dazu sagen…
ich bin mit vielem hier absolut einer Meinung,
muss jedoch erkennen, dass die Änderung zum SEO Strategen => ganz viele Kunden nicht wahrhaben wollen => und ich daher noch mehr Anfragen schlichtweg ablehne, weil ich keine Lust habe sinnloses zu tun.
Was jedoch immer schwerer wird ist dies hier:
„Eine entscheidende Rolle spielt Analyse von User Queries. Was suchen die User bei Google und auf der Site selbst, wenn es dort eine Suchfunktion gibt?“
Ich kann die Suchanfragen auf der Seite selbst eruieren und darauf reagieren,
doch selbst meine nerdigste kleine Seite über WP hat bereits mehr als 22% „not provided“ Keywords.
d.h. jetzt wo auch dann Firefox bald nur mehr https Suche anbieten wird, wird genau dies fast unmöglich.
Daher verstehe ich Google nicht, wenn sie sagen, liefere das was die User bei Dir finden wollen => wenn sie mich genau das nicht mehr eruieren lassen.
Was ich jedoch beobachte ist die Tatsache, dass akut nicht der beste Inhalt rankt. Ich sehe Websites oben => manchmal 35 Ergebnisse von einer Domain auf einmal => die genau all diese Dinge machen, die Google verteufelt.
Keywortstuffing zum Umfallen,
im Footer an die 360 Keywords /Tags als interne Links und es wirkt, sie sind oben und das seit Panda.
Genau seit Panda.
Definitiv kann ich sagen, dass da was auf dieser Website steht schlicht schlechter Inhalt ist
Er ist fachlich zum Teil einfach falsch.
Genau das kann aber Google nicht erkennen. Und daher sind alle Aussagen von „besten Inhalt“ immer mißverständlich, weil viele davon ausgehen, damit wird „richtiger Inhalt“ gemeint, inhaltlich sinnvoller Inhalt gemeint.
Google kann nicht wissen, ob ein Fachartikel auch einer ist, sie können feststellen, ob man das eingehalten hat was sie fordern und ob Deutsch halbwegs Deutsch ist 😉
Google kann nicht feststellen,ob meine TuTs auf der Texto fachlich korrekt sind, sie können einfach nur feststellen, dass da mancher an die 20 Minuten bei einem Artikel hängen bleibt , weil er ihn gleich in seinem WP realisiert => aber ob ihm nachher die Fehler um die Ohren knallen oder nicht, das weiß Google einfach nicht.
[…] entwickelt. Neu fokussiert Google in seinem Algorithmus auf Autoren und deren Inhalte. Hier gibt es einen guten Artikel dazu, was das Panda Update für Webseitenbetreiber, Marken und […]
Toller Blog-Beitrag! Ja, es wird nicht einfacher und der Satz „It is almost like the job of SEO has been upgraded from SEO to web strategist.“ trifft es doch meiner Meinung nach besonders gut. Die Ansprüche steigen immer weiter!
[…] interessant ist das Panda Update von Google, über das Heinz schon im letzten Jahr referiert und gebloggt hat. Für Organisationen sind die Zeiten also vorbei, in denen Link-Building-Strategies bzw. das […]
[…] gute Qualität als Suchergebnis anzubieten. Heinz Wittenbrink weist in seinem Blogpost “Content-Strategie statt SEO: Die Folgen von ‘Panda’” darauf hin, dass seit diesem Update vor allem gute Content-Strategien gefragt sind. Gianluca […]
Hallo Heinz! Ein knackige Headline, allerdings würde ich sie andersherum formulieren: SEO beinhaltet künftig auch Content-Strategien, neben technischen Aspekten und vielen anderen mehr. Suchmaschinenoptimierung hat sicher nicht ausgedient und ich glaube du würdest staunen, wenn du wüsstest, mit was sich SEOs aktuell so beschäftigen.. Berufsbedingt müssen wir unserer Zeit und allen Google Updates voraus sein, und daran denken, was morgen kommt. Stichwort: Suche via Sprachinterfaces, Lokale Faktoren als Suchkriterium, Kontext & Personalisierung.. Etc. Content allein hilft hier nicht weiter, sondern auch Kontext etc.
Übrigens habe ich den Eindruck, dass sich viele Spezialdispziplinen im Online-Marketing noch zuwenig untereinander unterhalten: Social Media ExpertInnen sieht man nicht auf SEO Konferenzen, und SEOs gehen selten zu SEA Konferenzen. Dabei geht es bei allen 3 Disziplinen (SEA, SEA, SMO) meiner Meinung nach um das Gleiche: Interessierte Besucher abzuholen, auf eine Website zu bringen und dort eine Konversion anzustossen. Das ist der Sinn und Zweck des Online-Marketing. Und wir können alle voneinander mehr lernen, bzw sehe ich die gemeinsame Klammer, die alles ideal vereint im Bereich Inbound-Marketing.
Hallo! Wenn man für Texte recherchiert, findet man zu einem bestimmten Thema unzählige gleiche (bzw. sehr ähnliche) Artikel online – alle schreiben von allen ab. Auch die Printbranche macht das so – hat das übrigens schon immer gemacht, aber nicht so frech. Offensichtlich wird das von Usern wie Maschinen toleriert, weil ich noch nie irgendwo einen diesbezüglich bösen Kommentar gefunden habe. Und es machen ALLE so.
Das heißt: Offensichtlich funktioniert dieser billige Content immer noch, weshalb sich auch nur wenige guten Content leisten (wollen).
Ich denke, interessanten Content in guter Aufbereitung leisten sich vor allem jene, die es sich nicht leisten können, miesen Content anzubieten, weil sie ein IMAGE bei ihren Kundinnen und Kunden zu VERLIEREN haben. Aber nicht, weil sie deshalb besser gerankt werden…
Andersrum ausgedrückt: Mieser Content weist auf schlechte Qualität des Angebots und des Anbieters hin und warnt Kunden, dort zu kaufen bzw. sich dort zu engagieren – mit diesem Argument sind tatsächlich auch höhere Preise für die Contentgenerierung zu argumentieren.
So long!