German / Google Webmaster Central News-Publisher Sprechstunden-Hangout auf Deutsch

German / Google Webmaster Central News-Publisher Sprechstunden-Hangout auf Deutsch


Ok, herzlich willkommen beim heutigen
Webmaster Sprechstunden-Hangout. Heute speziell für News-Publisher. Speziell auch aus Deutschland oder
dem deutschen Sprachraum zumindest. Wir haben ja schon einige,
die ja schon eingewählt sind und es werden noch weitere dazustoßen. Das ist auch toll. Einige Fragen sind bereits eingereicht worden und ich denke, ich gehe einfach
eine Auswahl dieser Fragen durch, wenn ihr zwischendurch
Fragen oder Kommentare habt, zu den einzelnen Fragen oder Antworten
oder etwas genauer erläutern möchtet, einfach… einfach mal loslegen. Dann können wir das machen. Ja, fangen wir doch oben grade mal an. Eine Frage, die wir ab und zu gekriegt haben, habe ich mal am Anfang hingenommen. Wir haben oft das Problem,
das ein falsches Datum in den News oder in der Suche
dargestellt werden. Obwohl wir eigentlich
soweit alles richtig machen. Woran kann das liegen? Grundsätzlich ist es so,
dass wir versuchen das Datum auf diesen Seiten zu finden
und sauber herauszulesen. Manchmal klappt das gut, manchmal
klappt das nicht so besonders gut. Was man aber machen kann,
ist mit Structure Data, kann man jeweils angeben, wann
ein Artikel zuerst gepublished wurde und wann es vielleicht verändert wurde. Das heißt, man verwendet da
den Article Structure Data und nimmt Date published
und Date modified. Wichtig, was wir da ab und zu sehen, ist, dass teilweise die falschen Zeitzonen
angegeben werden bei diesen Daten oder das keine Zeitzone angegeben wird. Dann ist es natürlich schwierig für uns
zu erkennen, welches Datum wir da nehmen sollen. Was auch für uns wichtig ist,
ist das man nicht nur Structure Data nimmt für eine Datenzone, sondern,
dass es wirklich auch passend auf den Zeiten selbst im Text
oder halt zumindest im Artikel irgendwo erwähnt wird. Damit wir wirklich klar feststellen können,
das passt überein, das sieht so korrekt aus. Und wenn all das gegeben ist,
wenn das per Structure Data angegeben ist, wenn da kein Konflikt da ist,
das unterschiedliche Daten in Structure Data vorhanden sind,
wenn die Zeitzone richtig eingestellt ist, dann sollte das eigentlich soweit klappen. Wenn es trotzdem nicht klappt,
wäre ich froh, wenn ihr uns möglich schnell, solche Sachen
melden könntet, damit wir das auch hier nachstellen können, damit wir das direkt
mit dem Team anschauen können. Manchmal ist es ein bisschen schwierig,
dass man da quasi einen Bereich anschaut eine Stunde oder mehrere Stunden,
ob das jetzt eine Stunde… vor einer Stunde veröffentlicht wurde
oder vor zwei Stunden. Je nachdem wie das gerundet wird,
ist das ein bisschen schwierig, aber in der Regel sollte das eigentlich
relativ gut übereinstimmen. Wie seht ihr das?
Klappt das bei euch jeweils? Oder ist das, was mal funktioniert
und mal weniger gut klappt? Das ist bei uns in der Tat so,
das es überwiegend, würde ich mal sagen, funktioniert,
aber es gibt halt Fälle, wo es nicht funktioniert
mit dem Programmen und wir halt nicht dahinterkommen,
warum das so ist. Dann habe ich noch eine Frage,
wie geht eigentlich Google mit den Daten um, die in der News Sitemap
nochmal mitgegeben werden? Werden diese Zeitstempel
irgendwie verarbeitet oder verwertet? Meines Wissens verwenden wir die
hauptsächlich, um festzustellen, wann wir die Seiten crawlen müssen. Das heißt, wenn jetzt neue Seiten dabei sind,
dass wir das möglichst schnell merken und das wir die entsprechend
schneller crawlen. Ich weiß jetzt allerdings nicht,
ob bei der News Sitemap auch eine Art Date Published dabei ist oder, ob das nur quasi ein Änderungsdatum
von der Seite angegeben ist. Ja, ok, also wir haben
beide Zeitstempel drin. Sprecher 1: Ah, ok.
Sprecher 2: Aber das Datum, was auf der Seite selber steht,
ist sozusagen das Wichtigere für das Datum, was dann
in der Schlagzeilenbox angezeigt wird. Ja, also das muss wirklich
auf der Seite selber klar erkenntlich sein. Idealerweise, das es auch
bestätigt wird mit Structure Data, damit wir das wirklich
auch so bestätigen können und nicht das wir so eine Situation haben,
dass da verschiedene Daten auf einer Seite erwähnt werden,
weil ein Bericht vielleicht über verschiedene Ereignisse geschrieben wurde und das wir dann nachher nicht wissen, ja, welches Datum ist jetzt eigentlich
das wichtige für diese Seite? Bei den anderen klappt das soweit
mit dem Datum? Oder ist das auch
mal besser, mal schlechter? Bei uns ist es auch der Case,
das es in den meisten Fällen tatsächlich klappt, aber es gibt Fälle
und den laufen wir dann auch hinterher, weil wir grade, wenn wir Anpassungen
von Stories haben, wo was Neues dazugekommen ist an Info. Wenn wir Refills machen wollen,
dann wollen wir natürlich auch, dass das sichtbar ist
und das kann dauern und das geht dann auch soweit,
das nicht nur irgendwie die Zeit nicht korrekt angezeigt ist, sondern
es teilweise auch sehr lange dauert einen Seiten-Gateway-Crash zu bekommen. Also die Story sieht einfach alt aus. Und es ist tatsächlich,
zumindest nach meinem Wissen, alles, was jetzt angesprochen wurde, umgesetzt und sollte in der Theorie funktionieren. Wir geben es dann sogar nochmal
über die Search-Konsole zusätzlich ein für Recrawls. Aber das kann bis zu einem Tag dauern und dann ist die Story halt tot. Okay, das heißt, wenn ihr
bestehende Seiten anpasst, dann geht’s länger, als wenn man jetzt etwas Neues,
zum Beispiel, veröffentlicht. Das haben wir öfter gesehen. Ich schließ das andere nicht aus,
dann kann übrigens auch passieren, aber das sind die Fälle,
die uns besonders aufgefallen sind. Okay, gut, müssen wir mal
mit dem Team anschauen, ja. Also wir haben aktuell den Fall, dass, was meines Wissens nach,
auch ein Bug von Google News ist, wurde mir gesagt, was ein bisschen
mit den Indexierungsproblemen in der Mitte des Monats zu tun hat,
das Zeitstempel… Das scheinbar Google News Probleme
dabei hat die Zeit richtig nachzuvollziehen. Das kuriose ist, wir haben zum Beispiel Artikel,
die zum Beispiel heute rausgekommen sind und dann wird auf der Google Suche
und News angezeigt sie wären fünf Tage alt und wenn wir sie überprüfen
und in der Search-Konsole, sagt uns die Search-Konsole,
sie wäre noch gar nicht indexiert. Ok, das ist ein bisschen komisch. Wenn du mir solche Beispiele
mal zuschicken könntest, dann würde ich die gerne
mit dem Team anschauen. Gerade, wenn sie noch soweit frisch sind, dass wir das hier nachstellen können,
das hilft auf jeden Fall. Sehr gerne. Ok, dann schauen wir weitere Sachen an. Noch eine Frage? Ja. Und zwar, also, genau. Noch ein anderer Fall,
wir haben festgestellt, auch bei älteren Artikeln,
dass da nach gewissen Aktualisierungen, die wir machen, die wirklich
am Content sind sinnvollerweise, das dann auch manchmal auf
ein altes Datum zurückgesprungen wird. Also, ob das bei den anderen
auch schon einmal der Fall war. Aber das haben wir auch gesehen,
ich weiß nicht wie das kommt an der Stelle, weil wir machen auch
tatsächlich eine sinnvolle Aktualisierung, beim Artikel und stellen aber trotzdem fest,
dass das Datum eben nicht mit aktualisiert wird und sondern irgendwann wieder zurückgeht und es ist total schwer für uns
das nachzuvollziehen, warum das an der Stelle passiert. Ich vermute das es allgemein
ein bisschen schwierig für uns, wenn wir, sage ich mal,
das Ursprungsdatum haben und ein Änderungsdatum haben,
welches dieser Daten wir in der Suche darstellen sollen. Aber das müsste man vielleicht
grade bei Nachrichteninhalten ein bisschen schlauer machen,
das man da wirklich dann auch das Änderungsdatum
jeweils darstellen. Ok, gut. Fangen wir grad
mit den schwierigen Problemen an. Naja, kann passieren. Ok. Also, mal ein bisschen was anderes. Wir haben ein Inhaltsverzeichnis,
das per Default eingeklappt ist und die Frage ist, ob Google
das genauso gewichtet, wie etwas, was ausgeklappt ist
per Default. Aus unserer Sicht ist das total ok,
wenn man zum Beispiel ein Menu hat, welches standardmäßig eingeklappt ist
und die Links darin sind im ersten Moment unsichtbar. Wichtig ist einfach, dass die Links
auch auf der Seite selber sind. Das heißt nicht, dass wenn man
auf dieses Menu-Element klickt, das dann erst per Serverabfrage
diese Navigation geladen wird, sondern, dass die wirklich
von Anfang an schon sichtbar ist. Also nicht sichtbar,
aber zumindest im HTML dabei ist, damit wir diesen Link verfolgen können. Und dann ist das eigentlich
soweit kein Problem. Es ist nicht so, dass wir das dann
als Spam oder versteckte Inhalte, die problematisch sind,
irgendwie anschauen will, sondern was eigentlich eine normale Art ist
eine Navigation zu machen. Ok, genau die Frage kam nämlich von uns
und das heißt, es wird genauso gewichtet und beispielsweise diese Mini-Sitelinks
wird bei uns eben wunderbar auch oft gezogen werden, wär dann
die Wahrscheinlichkeit genauso groß, dass das bei uns funktioniert? Sprecher 1: Genau, ja.
Sprecher 2: Ok. Auf jeden Fall. Sprecher 1: Gut.
Sprecher 2: Sehr schön. Super. Dann eine Frage zu
Keyword Cannibalization. Das heißt, wenn man jetzt
verschiedene Seiten hat, die zum gleichen Thema sind,
dann ist das problematisch, wenn man zum Beispiel einmal
einen Artikel hat und einmal eine Bildergalarie oder erkennt Google hier
die unterschiedlichen Aufbereitungsformen und zeigt die zum Beispiel
nebeneinander an? Aus unserer Sicht ist das total ok. Es ist eigentlich normal,
dass man verschiedene Seiten hat, die zu den gleichen Keywords
vorhanden sind und wir versuchen da einfach jeweils da die relevantesten Seiten
für die einzelnen Suchen herauszuholen. Es kann sein, dass wir da
mehrere Seiten von einer Webseite zeigen. Es kann auch sein, das wir einfach
eine dieser Seiten nehmen und die darstellen in der Suche,
für diese Website. An für sich ist das bei normalen…
grade bei Nachrichtenseiten ist das ja eigentlich Gang und Gebe,
dass man verschiedene URLs hat, die Artikel haben über,
grob gesagt, das gleiche Thema oder vielleicht über die gleiche Person und normalerweise sollten wir damit
eigentlich relativ gut zurechtkommen. Das sollte eigentlich unproblematisch sein. Genau, da noch eine Nachfrage. Also das heißt, Google oder ihr
erkennt dann auch eben wirklich so ein bisschen die unterschiedliche,
mediale Aufbereitungsform. Also so das es eben hauptsächlich
vielleicht mit Bildern abgehandelt ist, weil es da dann vielleicht
automatisch irgendwie Sinn macht und das wird quasi dann schon
auch eben erkannt oder auch bei Google jetzt? Wir versuchen einfach die relevanteste
Seite jeweils zu finden und die Aufbereitungsform ist weniger,
sage ich mal, relevant für uns, sondern einfach welche Inhalte
sind jetzt auf dieser Seite? Das heißt, wenn ich ein Bild aussuche
bei Ihnen, dann versuchen wir natürlich eher Bilderseiten herauszuholen. In der normalen Websuche konzentrieren
wir uns einfach auf die Texte, die auf dieser Seite sind und wenn jetzt
auf einer Seite weniger Texte sind zu diesem Thema, müssen wir
halt schauen, das wir mit diesen wenigen Texten besser zurechtkommen
oder, dass wir das irgendwie einstufen können und sagen können, ja,
diese Seite ist jetzt relevanter für dieses Thema, weil vielleicht
sie neuer oder vielleicht ist sie kompletter, vielleicht sehen wir einfach sonst,
dass sie relevanter ist insgesamt im Web. Danke. Dann zum Thema Crawling und Indexing. Wir haben bei einigen unserer Titel
in der Google Search Console den Fall, das viele URLs nicht gefunden,
zur Zeit nicht indiziert oder gecrawlt, zur Zeit nicht indiziert markiert sind und daher nicht in Google zu finden sind. Hier stellt sich die Frage quasi,
was kann man da machen? Grundsätzlich ist es…
also ich glaube es sind zwei Sachen, die ein bisschen zeitlich zusammenfallend,
die das Ganze ein bisschen verwährend machen. Einerseits hatten wir, ich glaube,
in Mitte November Größenordnung und ein bisschen an Problemen,
dass wir Inhalte insgesamt nicht so schnell indizieren konnten
und das wir da die Inhalte quasi gecrawlt haben, aber nicht
so schnell im Index zeigen konnten, wie wir das eigentlich normalerweise
machen würden. Das ist mal die eine Sache
und die andere Sache ist, das wir diese beiden Status
in Search Console erst relativ neu haben. Das heißt, erst mit dem neuen
Search Console zeigen wir das und die neue Switch Console wird jetzt
immer mehr auch verlinkt intern. Das heißt, man findet eher den Weg
zur neuen Switch Console und findet, dann solche Meldungen. Und im Grunde genommen
sind die beiden Status eigentlich für uns normal. Das heißt, wir crawlen sehr viele Seiten,
wir sehen sehr viele URLs im Web und wir indexieren eigentlich
nur einen kleinen Teil davon. Das heißt auch innerhalb
von einer größeren Webseite ist es total normal, das wir
viele URLs kennen. Dass wir einfach einen Teil davon
indexiert haben und wenn man die beiden
Search Console gezielt jetzt diese herausholt und sich überlegt,
ja, ist das ein Fehler, machen wir da irgendwas falsch? Normalerweise sind das eigentlich
nur Sachen, die wir auch sonst nicht indexieren würden. Das heißt nicht, das ihr
irgendwas falsch macht, sondern heißt einfach, das wir
so viele URLs gesehen von eurer Website und wir denken,
dass wir das meiste eigentlich gut abgedeckt haben und müssen im Moment jetzt nicht
noch mehr indexieren von dieser Websíte. Das heißt, diese beiden Status, ich glaube, im Index-Abdeckungssupport
und Search Console sind aus unserer Sicht
in den meisten Fällen total normal. Was ich da einfach kontrollieren würde,
wenn man das anschaut, ist, wie weit die Seiten, die da
gemeldet werden wirklich wichtig für euch sind oder, ob das einfach
andere URLs sind, die halt gefunden worden sind
auf eurer Website nicht so kritisch sind. Ob das jetzt neuere,
aktuelle Artikel sind oder, ob das ältere Sachen sind,
wonach vielleicht niemand sowieso sucht und worauf man sich eigentlich…
wo man sich nicht so viel Sorgen machen muss,
wenn sie nicht indexiert werden. Wenn das Sachen sind, die eigentlich
indexiert werden sollten, die für euch wichtig sind,
dann würde ich einfach schauen, dass sie intern innerhalb der Website
auch wirklich klar und deutlich wirklich sichtbar verlinkt werden. Dass wir, wenn wir die Website anschauen
wirklich merken, das sind eigentlich schon wichtige Seiten, die wir
indizieren sollten, damit wir dann im nächsten Schritt
auch wieder wirklich indizieren. Nicht das wir die irgendwie im Archiv
mal in der hintersten Schublade gesehen haben und dann denken,
wenn sie soweit hinten vergraben sind im Archiv, dann sind sie vielleicht
nicht wahnsinnig wichtig. Aber ich denke, da müssen wir
wahrscheinlich in Search Console allgemein das Ganze mal ein bisschen
vielleicht überdenken oder überarbeiten, wie wir das zeigen,
weil ihr seid da nicht die Einzigen, die damit ein bisschen verwirrt sind
und wenn es aus unserer Sicht normaler Zustand ist, dann sollten wir
das nicht irgendwie als Fehler für euch melden und euch damit
quasi beauftragen, ihr sollt das für uns beheben,
weil in den meisten Fällen ist das total normal. Darf ich da noch was zu sagen? Ja. Genau, die Frage kam nämlich
von uns und es ging konkret, um ein Sportportal, wo quasi zu… Ja, von Kreisklasse sonst was
bis Bundesliga in einem bestimmten Verzeichnis
sehr automatisiert Live-Ticker, also die Verlinkung
zu einem Live-Ticker sind. Die sind aber gesperrt für Google und… Also sprich, die Daten,
die aus der Datenbank kommen und wo sich das automatisch generiert
ist quasi über die [Unverständlich] gesperrt oder über die [Unverständlich] gesperrt
und wir hatten dann den Fall, ich müsste mal zurückgehen im Datum,
vielleicht ist es in diesem Mitte November-Fall reingefallen. Das wir halt einfach ein Fußballspiel
redaktionell, live begleiten wollten, mit einem redaktionellen Live-Ticker
und wir haben es nicht geschafft, dass dieser Live-Ticker eben
in den Index gekommen ist. So das eben ein bisschen dieses,
naja, Mensch ok, anhand dieses einen URL-Patterns hat Google gesehen,
Live-Ticker ist über die robots.txt gesperrt, soll nicht rein und wir hatten,
dann halt so ein bisschen die Befürchtung das er halt dann eben, weil das Wort
Live-Ticker auch in dem redaktionellen Artikel
eben vorkam, dass er das eben per set ausgeschlossen hat. Wir haben dann quasi während des Spiels
versucht noch auf eine andere URL zu shiften, wir haben noch einen zweiten Artikel
dazu gemacht. Es war für uns nicht möglich
in diesem Moment in den Index reinzukommen und der Artikel ist halt jedes Mal in diesem Bericht
in der Search Konsole gelaufen. Ich prüfe das nochmal vom Datum. War auf jeden Fall
verwirrend und ärgerlich. Ja. Ja, also vom Datum her weiß ich nicht,
ob das vielleicht da reinpassen könnte, was natürlich auch auf unserer Seite
schon auch passiert, ist, das wir versuchen festzustellen,
welche URLs normalerweise gutgehen mit der Indexierung,
welche wir normalerweise indexieren können und, wenn wirklich alles andere
per robots.txt blockiert ist in diesem Verzeichnis, dann kann
es schon, das unsere Systeme denken, ja gut, wir haben da was gefunden,
aber erfahrungsgemäß ist alles in diesem Verzeichnis nicht etwas,
was wir brauchen können. Also nehmen wir das vielleicht
im zweiten Moment oder versuchen das
später mal aufzunehmen. Das heißt, wenn man das ein bisschen
trennen kann, das es wirklich Bereiche gibt, wo wir sagen können,
das sind Sachen, die wir indexieren sollen und das sind Sachen,
die wir nicht indexieren sollten. Dann geht das sicher
ein bisschen einfacher. Normalerweise wird…
in den meisten Fällen sollte das trotzdem klappen. Aber das sind so, sag ich mal,
kleine Elemente, die da so ein bisschen
mit hineinspielen, die das manchmal
ein bisschen schwieriger machen. Das passiert zum Teil
auch mit Duplicate content. Wenn wir zum Beispiel
erkennen können, das gewisse URL-Parameter
immer die gleichen Inhalte zurückgeben und einmal verwendet eben Parameter,
um etwas anderes zurückzugeben, dann kann es sein, das unsere
Algorithmen denken, ja, dieser Parameter ist irrelevant und dann hätten wir gar nicht,
das es einmal doch etwas Relevantes dabei gegeben hätte. Ok, danke dir. Also wir haben bei uns auf jeden Fall
auch festgestellt, das es immer mal Fälle gibt,
wo einzelne Artikel nicht indiziert werden und wir können es
tatsächlich auch nicht so richtig verstehen an der Stelle. Also nichts, was jetzt auf irgendwie
robots.txt etc, Sportdatenbank, die dieses Phänomen schließen würde. Weiß nicht, inwiefern, ich glaube,
das gibt es bei anderen auch ab und zu mal das Problem,
aber es ist halt auch total schwer festzustellen, welche davon jetzt
betroffen sind an der Stelle. Ich weiß nicht, inwiefern das
ein größeres Problem ist oder ob das wirklich
nur ganz selten auftritt. Wie merkt ihr das im ersten Moment
oder wie fällt das bei euch auf? Naja, das ist tatsächlich,
wo der allgemeine Redakteur sagt, hier, der Artikel ist nicht
indiziert worden und wir stellen wirklich fest,
dass er nicht da ist. Genau, solche Fälle jetzt. Jetzt nicht Einzelfälle, aber wo wir
es tatsächlich auch sehen können, dass sie nicht [Unveständlich]. Aber Artikel auf der Startseite,
also nichts, was sich wirklich versteckt. Also nichts von der Startseite
oder auch Sachen, die von der Startseite verlinkt sind? Sachen, die von
der Startseite verlinkt sind. Ja. Ja, es ist immer ein bisschen schwierig
solche Sachen anzuschauen, weil bis wir die Meldung gesehen haben,
sind die dann auch oft indexiert und ich mein gut,
es ist eigentlich alles ok, aber für euch ist es in der Zwischenzeit
ein bisschen schwieriger. Aber was sicher helfen würde ist,
wenn ihr solche Sachen uns oder vielleicht mir mal
zuschicken könntet, grade, wenn sie passieren,
damit wir das grad in dem Moment auch mal anschauen können
und überlegen können, darum ist das jetzt mit diesem Artikel,
mit dieser Seite so gelaufen. Wir geben unserer Redaktion
so als Anweisung, wenn sowas vorkommt, das diese in die Search Konsole gehen
und dort dann die Artikel manuell einreichen und wir haben
dann aber auch gestern, hat es leider nicht geklappt. Wir haben mit einem Artikel
[Unverständlich] Fußball den wir fünfmal eingereicht haben
und der Artikel war auch auf der Startseite,
es ist nicht durchgekommen und dann weiß ich nicht,
was ich der Redaktion erzählen soll. Ja, ich habe dann gesagt,
als Erstes prüfe ich, ist der Artikel in der News Sitemap?
Ja ist drin. Ist er gut verlinkt? Ja, ist er auch. Wenn es dann nicht geht,
über die Search Konsole einreichen. Ist auch passiert. So und dann bin ich am Ende. Ja, normalerweise die Sachen,
die über die Search Konsole eingereicht werden,
werden schon oder sollten schon relativ schnell indexiert werden. Wenn das nicht klappt,
dann gibt es wahrscheinlich Sachen, die wir da von unserer Seite aus
verbessern können. Ja, es ist immer etwas schwierig,
wenn man das so im Nachhinein erfährt oder,
wenn man das nicht rechtzeitig kontrollieren kann, dann ist
schon schwierig zu erkennen, wo ist es jetzt klemmen geblieben, wie kann man das ein bisschen
verhindern oder verbessern in Zukunft. Aber, wenn ihr solche Sachen
mir melden könntet, dann kann ich das sicherlich
einmal nachschauen mit dem Team. Ich kann nicht garantieren,
das wir die Sachen sofort indexieren, aber zumindest können wir dem
ein bisschen nachgehen und schauen was ist da passiert,
damit wir das in Zukunft ein bisschen besser machen können. Ok. Ich glaube, irgendjemand anderes
hatte noch eine Frage zwischendurch. Nicht? Ok. Vielleicht kommt sie ja noch. John, wir hätten da kurz
noch eine recht brennende Frage zum Mobile Index,
könntest du darauf eingehen? Das ist irgendwo direkt bei den Notizen
unter dem Hangout drin. Was war die Frage,
dann stell sie nochmal kurz. Ok, wir haben bei [Unverständlich]
für Mobile und für Gestrukt, zwei unterschiedliche [Unverständlich]. Momentan auf dem Inhalt und wir suchen jetzt den optimalen Weg,
wie wir Mobile indexmäßig uns dort, möglichst optimal aufstellen
und brauchen da noch ein bisschen Unterstützung, wie wir
da vorgehen sollen. Weil wir werden es nicht schaffen
kurzfristig auf einen Responsive-Ansatz zu gehen. Eine kurzfristige Lösung
und eine langfristige Lösung, wie wir da vorgehen sollten. Das war, wo mit Java Script
gearbeitet wird? Ja, genau. Die Mobile-Seite machen wir
mit Java Script, das heißt der Crawler
muss tatsächlich auch noch das Java Such-Script rendern und danach… Das bei einer kurzfristigen Lösung
eher Nachteile hätte. Ok, ich habe mir das kurz angeschaut. Ich hab da noch ein bisschen Echo. Perfekt. Ich hab das hier kurz mal angeschaut, also nicht speziell die Website,
aber grundsätzlich, was da passiert sind,
denke ich mal, zwei Sachen. Einerseits in vielen Fällen kann man
die mobile Version oder eine Java Script Website
auch rendern und da die Inhalte trotzdem sehen und ich könnte
mir vorstellen, das unsere Mobile First Indexing Algorithmen,
das dann anschauen und sagen, gut die mobile Version
ist komplett gleich, wie die Desktop-Version. Wir könnten das eigentlich umschalten
auf Mobile First Index. Ich denke, das wäre soweit
nicht wahnsinnig tragisch, wenn das auf Mobile First Indexing ist,
aber was dann passiert würde, wir müssen dann die Java Script-Version
wirklich regelmäßig rendern, um die Inhalte herauszuholen und,
weil das Rendering jeweils ein bisschen länger braucht,
bis das da alles passiert, ist das wahrscheinlich grade
bei Nachrichtenseiten nicht optimal. Das heißt, was ich da machen würde,
ist, einerseits Dynamic Rendering einzusetzen, zumindest für
die Java Script-Version. Mit Dynamic Rendering schaut man
den User Agent an, der diesen Request macht
und dann je nach dem, wenn das ein User Agent
von einer Suchmaschine ist oder von Social Media
oder was auch immer, dann schickt man eigentlich
eine gerenderte Version von dieser Seite zurück. Das heißt, technisch gesehen
hat man natürlich ein bisschen mehr Infrastruktur, die da halt
zusammenarbeiten muss, dass man die Seiten selber
rendern muss oder das man vielleicht mit einem Anbieter
zusammenarbeitet, der dieses Rendering für euch macht. Aber, wenn die per Dynamic Rendering
zurückgegeben werden an uns, dann sind das eigentlich normale
HTML-Seiten, wie andere HTML-Seiten und die können wir dann eigentlich
auch genauso schnell indexieren, wie normale HTML-Seiten. Ich denke, das wäre
sicher eine Variante, die ich anpeilen würde. Ich bin nicht sicher, ob wir jetzt
sowas auf Mobile First Index umschalten würden oder nicht. Es hängt ein bisschen davon ab,
wie gut wir die Seiten rendern können. weil für den Mobile First Indexing
schauen wir im ersten Moment einfach auch die Inhalte an,
ob die mobile Version mehr oder weniger
die gleichen Inhalte hat, wie die Desktop-Version
und wenn das der Fall ist, dann können wir das eher umschalten. Wir schauen auch solche Sachen an,
wie die interne Verlinkung. Das heißt, die mobile Version sollte
ähnliche interne Verlinkungen haben, wie die Desktop-Version. Ob Bilder oder auch Videos
sauber eingebunden sind oder Structure Data vorhanden ist
auf der mobilen Version. All diese Sachen kommen
ein bisschen zusammen und wenn wir das geprüft haben
und sehen, das es soweit Ok ist, dann können wir auf
Mobile First Index umschalten. Aber, wenn die mobile Version
mit dem Rendering nicht hundertprozentig klappt,
dann könnte ich mir vorstellen, dass wir das zumindest einmal
anfangen nicht für den Mobile First Index
verwenden würden. Eine Schwierigkeit da ist vielleicht,
das wenn wir eine Website auf Mobile First Indexing umschalten,
dann ist das quasi umgeschaltet. Es gibt dann nicht eine Option,
dass man das hin- und zurückschalten kann. Das heißt, aus meiner Sicht
würde ich einfach das vorbereiten, dass das wirklich auch klappt
mit dem Dynamic Rendering, damit falls das umgeschaltet wird
oder, wenn das halt umgeschaltet wird, das alles soweit klappt und das wir,
da die mobile Version sauber crawlen und rendern können
mit der gleichen Geschwindigkeit, wie mit der Desktop-Version. Ok, soweit verstanden, vielen Dank. Aber das heißt, wenn wir noch
nicht soweit sind, wird das nicht plötzlich umgestellt,
wenn irgendwie [Unverständlich], sondern Google guckt erstmal,
wie weit sind wir und wenn das dann optimal wäre,
dann würde man umstellen? Genau, ja. Und welchen Zeitraum kann man
von dieser Logik ausgehen? Wir haben ja schon viel
rumgeschaut [Unverständlich]. Das heißt, das wird bald
von meinen Informationen her, wird das eigentlich laufend
weiter gemacht. Das heißt, es werden laufend
neue Websites umgeschaltet auf Mobile First Index. Aber es ist im Moment zumindest
nicht so, das, wenn wir sehen, dass eine Webseite nicht bereit ist,
das wir sie irgendwie zwingen oder das wir es trotzdem umschalten, sondern wir sind da auch bereit
ein bisschen zu warten, wenn das ein Jahr geht oder länger geht, bis eine Website wirklich bereit ist,
dann müssen wir halt die Zeit auch nehmen,
um das sauber zu machen. Ok, letzte Nachfrage dazu. Die Desktopseite wird ja
auch noch mitbewertet in unserem Index. Würden die jetzt beide abweichen,
Mobile und Desktop, wie stark wird das negativ wirken? Wenn wir auf
Mobile First Index umschalten, dann nehmen wir nur
die mobile Version für das Indexing und für das Ranking da zusammen. Wir schauen die Desktopversion,
dann eigentlich nur an, um festzustellen welche Desktop URLs
passen zusammen zu diesen Mobile URLs. Das heißt, wenn jemand mal
mit dem Desktop sucht, das wir dann auch die richtigen
Desktopseiten zeigen können. Aber wir nehmen die Inhalte
von der Desktopversion und gar nicht mit dazu, wenn wir
die Webseite auf Mobile First Indexing umgeschaltet haben. Sprecher 1: John, hi.
Sprecher 2: Ja. Die Frage hier, dürfte ich? Ich habe eine Frage,
du hattest vorher einmal Duplicate Content angesprochen und es ist tatsächlich so
ein Themenbereich, der uns als UTC-Portal natürlich
einigermaßen beschäftigt. Wir haben viele Powernutzer,
die vor-formulierte Antworten, die sie im Word-Dokument
schon mal ausformuliert haben, dann einfach als, ich sag mal,
generisch passende Antwort auf eine Frage mit reinposten
und dann vielleicht fünf bis zehn Prozent des Inhalts tatsächlich adaptieren. Jetzt kann man natürlich
aus Google-Sicht sagen, ja, ja, Moment mal,
das ist eine Webseite, die mit Duplicate Content
rumschleudert am Werk, wenn man sich die einzelnen Fragen
natürlich anschaut und die Adaptionen dann nochmal
mit in das Tool mit reinnimmt, dann macht die jeweilige Ergänzung
von den jeweiligen Nutzern und auch das Reinkopieren
der Fragen tatsächlich Sinn. Jetzt stellt sich uns natürlich
die Frage, als diejenigen, die da die Strategien dafür,
dagegen überdenken sollen. Die Frage, wie seht ihr
das denn tatsächlich? Ja, Glücksgeld Content ist immer,
immer ein Thema. Was bei uns im ersten Moment
bezüglich Duplicate Content problematisch ist, ist wenn eine Website
nur aus Duplicate Content besteht, dann kann es sein, das wir im Zweifel
sagen, gut, wir wissen nicht, ob es sich wirklich lohnt
diese Website zu indexieren. In den meisten Fällen,
die zu den Hangouts kommen, die im Forum kommen,
ist das eigentlich nicht der Fall, sondern es sind dann nur
entweder Teile einer Seite oder Teile einzelner Seiten
innerhalb einer Website, die als Duplicate Content
da angesehen werden und das ist aus unserer Sicht
eigentlich vollkommen ok. Was normalerweise passiert,
ist, dass wir da versuchen zu unterscheiden, zwischen Seiten,
die wirklich eins zu eins kopiert sind. Das sind zum Beispiel Seiten,
die auf Http und Https vorhanden sind. Das sind ja, genau die gleichen Seiten. Die versuchen wir zusammenzuklappen
und indexieren jeweils nur eine Version und andererseits versuchen wir
innerhalb von den Seiten auch die Kopien zu finden. Das heißt, jetzt in so einem Fall,
verschiedene Fragen mit Teilen von den Antwortblöcken,
die gleich sind und was wir da machen, ist,
wenn jemand gezielt nach etwas sucht, das in diesem
duplizierten Bereich ist, zeigen wir einfach eines
dieser Seiten an in den Suchergebnissen und merken dann,
quasi im Snippet würden wir jetzt mehrmals das gleiche zeigen,
weil das in diesem Bereich ist der kopiert ist, dann wählen wir
eines dieser Seiten aus und zeigen die. Wenn jemand nach etwas anderem sucht
auf dieser Seite, zum Beispiel, nach der Frage, die gestellt wurde,
die ja dann auch unterschiedlich ist, dann kommt das gar nicht ins Spiel,
dann sehen wir da unterschiedliche Seiten. Wir hätten auch unterschiedliche
Snippets für diese Seiten. Wir können die alle eigentlich
soweit zeigen in den Suchergebnissen. Und von der Qualität her ist das
für uns wirklich weniger ein Problem, dass da einzelne Blöcke
innerhalb einer Seite kopiert sind, sondern das ist wirklich einfach
rein praktisch gesehen einfach eine Frage von,
wie sollen die Suchergebnisse aussehen, damit die Benutzer auch wirklich
die unterschiedlichen Snippets in den Suchergebnissen haben
und nicht immer den gleichen Block. Ok, vielen Dank. Ich hätte nochmal eine Rückfrage
zu dem Mobile Index. Ok. Wenn wir nicht responsive gehen,
also mit dem Mobile und dem Desktop HTML
unterschiedlich sind, wie stark wird sich das auf
SEO Sichtbarkeit auswirken? Du hattest vorhin schon gesagt,
dass der Mobile-Inhalt wird gecrawlt, aber für die SEO Sichtbarkeit
werden wahrscheinlich alle Signale ja, berücksichtigt. Für die Signale, die wir erstellen,
wenn eine Website auf Mobile First indexing
umgeschaltet ist, nehmen wir alles nur
von der mobilen Version. Das heißt, wir sehen die mobile Version
und dann als [Unverständlich] an. Das heißt, alles Links, die zum Beispiel
auf die Desktop-Version gehen, die nehmen wir an, würden
ebenfalls die mobile Version gelten. Vom Ranking her, alle Signale,
die wir von der Desktop-Version schon haben, können wir
auf die mobile Version übertragen. Aber es ist nicht so, dass wir
die Desktop-Version separat dann irgendwie behandeln würden,
sondern wir würden die einfach ansehen als eine Kopie
von der mobilen Version und fügen die Sachen einfach so zusammen. Das heißt, von der Sichtbarkeit her,
vom Ranking her, ist es wirklich beschränkt
nur auf die mobile Version. John, ich hab auch nochmal
eine Frage zu Mobile Index. Und zwar liegen unsere Sitemaps, sowie unsere Newsseite,
als auch alle Anderen, die Archive unter
der Haupt-Domain WWW. Müssen wir die Sitemaps,
wenn das irgendwann umgestellt wird, auch alle unter der mobile Version
zur Verfügung stellen? Zu Mobile im Moment nicht. Wir versuchen weiterhin
diese Verbindung zwischen dem Desktop und
der mobilen Version zu kennen und, wenn man der Sitemap Datei
die Desktop-Version einreicht, dann sehen wir ja
auch die Desktop-Version, sehen dann die Verbindung
zur mobilen Version und können das so
entsprechend aufnehmen. Längerfristig weiß ich noch nicht. Ich könnte mir vorstellen,
das man vielleicht sagt, in einem Jahr oder so, das…
eigentlich macht es mehr Sinn, wenn man nur die mobile Version
in der Sitemap sehen oder zumindest im Moment
ist es so, dass wir da einfach keine Veränderung erwarten und das man wirklich nur
die Sub-Version jeweils verlinkt in der Sitemap Datei. Auch mit dem [Unverständlich]
schlagen wir vor, dass man weiterhin so arbeitet,
das man die Desktop-Version als [Unverständlich] angibt
und das man mit [Unverständlich] eine Mobile-Version verlinkt. Es sind all so Sachen, die sind
wahrscheinlich ein bisschen verwirrender, wenn man wirklich eine separate,
mobile Website hat, weil man jetzt sagt, der [Unverständlich]
ist jetzt die Desktop-Version, Google verwendet aber als
[Unverständlich] die mobile Version. Für uns ist aber eigentlich nur
die Verbindung zwischen diesen beiden Seiten wichtig. Und das macht man halt mit dem
[Unverständlich] und Real Ultimate Version. Das heißt alle, die schon
auf Responsive umgestellt haben, haben natürlich jetzt
viel weniger zu tun. Ich würde auch nochmal was fragen. Wir haben ja bei Welt.de komplett auf
Respon… also nicht ganz komplett auf Responsive umgestellt,
das heißt, wir haben noch zum Beispiel, die Themenseiten,
die haben wir damals leider aus technischen Gründen
noch nicht umgestellt, die sind immer noch über
eine mwelt.de Adresse erreichbar. Ist das für Google in gewisser Weise
ein Problem oder kann es sogar, wenn du sagst, Mobile First Indexierung,
spielt das da eine Rolle für die Bewertung, wann wir
vielleicht umgestellt werden? Also, was hat das noch
für einen Einfluss? Wirkt sich das irgendwie negativ aus? Ja, wenn man eine saubere
m.-Version hat, ist das total ok,
damit können wir auch leben. Das ist für uns kein Problem. Also auch wenn wir beides haben? Also wir haben responsiv
und einen kleinen Teil in m.welt. Sprecher 1: Ok.
Sprecher 2: Genau, ja. Das schauen wir uns auf
einer Seitenebene an. Also nicht die ganze Website, sondern
für die einzelnen Unterseiten jeweils. Und dann sehen wir dann da für
diese URL ist da die mobile Version hier und für die andere URL ist
die mobile Version die gleiche, weil die Responsive ist. Ok, mal schauen, was wir sonst
noch bei den Fragen haben. Oder, wenn Sachen von euch noch sind,
könnt ihr gerne loslegen. Ich habe noch eine Frage aus
der user generated content Ecke und zwar, wir haben natürlich
gewisse Herausforderungen mit der Rechtschreibung
und Unterpunktion, wie bei uns im Content. Jetzt unterscheiden wir uns dadurch,
das wir [Unverständlich] heißen, natürlich von kuvertierten Inhalten
und da war die Frage, die wir im Team diskutiert haben,
inwiefern Google tatsächlich das erkennt und berücksichtigt
oder sagt Google, ja, Moment mal, das ist ja
gar kein Deutsch, deswegen erkennen wir da
automatisch low quality content. Was sagt ihr da dazu? Normalerweise, was da passiert, ist, das einerseits versuchen wir
zu erkennen, wo user generated content ist und wie wir das ein bisschen
besser einstufen können. Aber im Grunde genommen sehen wir
diese user-generated-contents-Sachen einfach als Inhalte, die ihr veröffentlicht
und denken, das sind halt die Inhalte, die ihr
so bereitstellen wollt und, wenn da Schreibfehler dabei sind,
sind ja auch bei normalen Webseiten Schreibfehler dabei, dann ist das
normalerweise kein Problem. Wenn im Großen und Ganzen,
aber die Qualität der Inhalte wirklich sehr minderwertig ist,
dann schauen wir die Webseite auch an und denken, gut, das sind die Inhalte,
die ihr veröffentlichen wollt, die Inhalte sind eigentlich
wirklich nicht gut.. Also müssen wir da die Website
insgesamt vielleicht ein bisschen anders einstufen, denken vielleicht
ist die Website insgesamt nicht so vertrauenswürdig
oder so gut für normaler Besucher in den Suchergebnissen. Normalerweise ist da die Rechtschreibung,
solche Sachen spielt da eher eine kleinere Rolle,
sondern wirklich auch, wie die Gesamtzahl… die Gesamtmenge,
der Inhalte, die da halt bereitgestellt werden. Und was man da natürlich machen kann, ist, zu versuchen, dass ein bisschen
selber zu steuern, wenn man da eine Möglichkeit hat
die Inhalte, sage ich mal, ein bisschen zu prüfen oder aufgrund
von technischen Signalen, die man selber sammelt,
zu merken, das sind gute Inhalte das sind weniger gute Inhalte. Dass man vielleicht die guten Inhalte
auf Index stellt und die schlechteren Inhalte
halt auf no index automatisch stellt, wenn man dann später sieht,
dass die Qualität diesen Inhalten sich verbessert hat, kann man das
natürlich wieder zurückstellen. Aber einfach das man zumindest
selber mal, das ein bisschen versucht in den Griff zu kriegen
und man selber versucht zu sagen, ich möchte wirklich
qualitativ hochwertige Inhalte zur Verfügung stellen in der Suche
und ich versuche, das selber ein bisschen zu steuern, indem ich da, je nachdem halt die Inhalte sehe,
die kontrolliere oder das ich da irgendwelche
Signale sammel und aufgrund von dem, das Ganze
selber etwas in die Hand nehmen. Ok, danke. Ich vermute,
grade bei user generated content, ich sage mal, die Rechtschreibung
automatisch zu verbessern. Das ist wahrscheinlich etwas schwierig, aber möglicherweise kann man
das so machen, dass man auch den Nutzern hilft,
während sie schreiben, dass da mit der Rechtschreibung
oder mit der Qualität der Inhalte ein bisschen nachgeholfen wird. Weiß ich nicht, muss man
vielleicht mal anschauen. Wir sind dran, keine Angst. Super. Sprecher 1: Ok, dann…
Sprecher 2: Ich hätte sonst auch noch eine Frage
zu den [Unverständlich]. Quasi zum M-Karussell. Wir haben beim Stern gemerkt,
dass wir auf der Desktop-Ansicht alles so verwenden,
in die Newsbox reinkommen. Alles gar kein Problem. Und unter Mobil, in dem M-Karussell,
quasi wie rausgefiltert sind. Wir haben uns mit Google-Mitarbeitern,
mit Entwicklern unterhalten, die haben uns mehrfach attestiert,
dass es alles technisch korrekt sei. Sieht man auch daran,
das es generell funktioniert. Also wir sehen
Publisher Karusselle bei uns, aber in der normalen Newsraum Blog
werden wir eben… M-Karussell sind wir nicht vertreten. Hast du irgendeine Idee, wie man
da noch Draufschauen könnte und woran das liegen könnte? Also die Entwickler sagen, ja,
das ist vielleicht eine Search-Frage oder ein Ranking und man sollte
diese Fragen mal öffentlich stellen, und insofern hiermit getan. Ja, ich hab mir das hier
auch mal ein bisschen angeschaut, bei eurem Fall. Und habe da auch
nichts Spezielles gesehen. Es sieht dann wirklich eher aus,
wie ein normales Ranking-Problem. Ich gebe das aber auch trotzdem mal
an das Team hier weiter, damit sie das ein bisschen
genauer kontrollieren können. Also ich denke auch vom technischen her
ist das unproblematisch. Es sind ja auch gewisse Seiten,
die werden ja als AMP-Version in den Suchergebnissen dargestellt. Von dem her, weiß ich nicht,
ob da irgendwas spezielles vielleicht noch im Spiel ist. Auf jeden Fall sehe ich da
nichts manuelles, wie manuelle Maßnahmen
auf unserer Seite. Sondern es wird wahrscheinlich
irgendetwas algorithmisches sein, wo wir vielleicht irgendetwas
falsch verstehen aus eurer Sicht oder wo wir
vielleicht irgendetwas sehen, was ihr dann nochmal
verbessern könntet. Das wir zurückgeben können. Ich hätte noch eine Frage
zum Thema Sub-Domains. Ok. Und zwar generell, weil wir haben
hier auch immer Partner-Inhalte. Das sind Gutscheine, Reisen, etc,
wo ist immer die Frage integrieren wir die
über eine Sub-Domain oder über ein Verzeichnis. Gibt es da von Google
an der Stelle eine Empfehlung, Also, ich weiß, Thema [Unverständlich]
sagt immer, das es egal ist an der Stelle, aber gibt es
sozusagen noch andere Faktoren, die vielleicht für ein Sub-Domain
oder Verzeichnis sprechen? Weil es ja manchmal auch
Partner-Inhalte sind, die natürlich nicht immer
direkten Nachrichtenbezug haben, sondern sich rund um dieses Thema
bewegen, aber nicht direkt mit News zu tun haben. Ja, ich würde solche Sachen, die vielleicht Richtung, ich sage mal,
eher themenfremd sind, würde ich eher
unter den Sub-Domain legen, damit wir das ein bisschen besser
unterscheiden können. Damit wir auch klarer sehen können,
das sind Inhalte, die zu eurem Kerngeschäft
quasi gehören, zu den Kerninhalten für die Webseite
und das sind andere Inhalte, die wir ebenfalls da sehen. Und dann kann man das ein bisschen
einfacher von unseren Algorithmen her, auch unterschiedlich behandeln. Ein Ort, wo das häufig vorkommt,
wahrscheinlich jetzt weniger, bei so Nachrichtenseiten aber,
wenn man adult content noch dabei hat, dann ist es für uns immer hilfreicher,
wenn wir wirklich feststellen können in diesem Sub-Domain ist adult content,
da können wir Safe Search anwenden und im Rest in der Website,
wissen wir, dass wir da Safe Search nicht unbedingt
gezielt arbeiten müssen. Und je einfacher wir eine solche
Unterscheidung machen können, wenn es wirklich etwas grobes ist,
was wir unterscheiden müssten, dann geht’s einfach so Hingegen, wenn wir wirklich alles
in einem Domain sehen, mit unterschiedlichen Verzeichnissen
einfach, dann kann es passieren, dass wir sagen, gut, all diese Inhalte
sind ein Teil von der Kern-Website und dann müssen wir die Qualität
von der gesamten Website quasi im Schnitt nehmen
von all diesen Inhalten. Ich hab noch eine Frage zu Mobile
und zwar, sind bei Mobile einige Titel in den letzten Wochen
das es nach oben geht, bei anderen eher nach unten
und von unserer Seite läuft da alles auch
auf der gleichen Infrastruktur und wir können das nicht so recht
nachvollziehen, warum das so bei uns ist. Ja, gab es irgendwelche
neuen Bewertungen? Gab es da irgendwas
im Mobile Index, was jetzt in den letzten zwei,
drei Wochen aktualisiert worden ist? Wo siehst du dann die Unterschiede? Also wir sehen die Unterschiede,
also grade auch mobile, bei den Abo-Titeln. Das ist also zum Beispiel
KSK und beim Z, da geht es ein Stückchen nach unten. Aber bei Boulevard-Titeln,
wie Express geht es dann nach oben. Und wir konnten das bisher
an nichts festmachen, weil inhaltlich haben wir
unsere Arbeit ja nicht verändert. Das ist ja wie bisher,
aber trotzdem sind Bewegungen irgendwie festzustellen. Und deswegen habt ihr das was
im Algorithmus in den letzten Wochen verändert oder gab es da keine? Also geändert haben wir
natürlich sicher was, aber, ob das jetzt gezielt
auf irgendwas zurückzuführen ist. Das ist immer schwierig,
weil Änderungen machen wir ja, ich weiß nicht,
tausend, zweitausend im Jahr. Und da ist eigentlich fast täglich
immer irgendwas dabei und manchmal bei den Änderungen
ist es so, das wir die anschauen und denken, gut, das verändert
relativ wenig, aber es betrifft dann halt einzelne Websites
trotzdem ein bisschen mehr. Also mehr an der Sichtbarkeit
als bei anderen. Aber mir fällt jetzt nicht
auf Anhieb irgendwas ein, was gezielt auf Mobile da… Eben Änderungen sind soweit
eigentlich normal. Es sollte eigentlich schon
regelmäßig Veränderungen geben, dass wir da versuchen,
das ein bisschen besser immer einzupendeln. Und das verändert sich natürlich
auch im gesamten Info-System, die Benutzererwartung
verändern sich halt auch teilweise und dann kann man nicht sagen,
nur, weil man jetzt in den letzten paar Jahren
so geranked hat, wird man weiterhin so geranked. Aber das kennt ihr
ja wahrscheinlich auch. Es ist eine Verschiebung
Richtung Boulevard, dass die Themen,
dass die bevorzugt werden. Ja. Die lokalen eher weniger. Das klingt allerdings komisch, ja. Könnte mir nicht vorstellen,
dass das absichtlich so ist. Das vielleicht hat sich das irgendwie
bei diesen Zeiten so ergeben. Aber, dass was für mich da
immer praktisch ist, ist, wenn ich einzeln Suchbegriffe
habe, wo man das gezielt auch feststellen kann,
wo man sagen kann, da ist eigentlich etwas
viel schlechter als vorher. Das heißt, wenn ihr so,
sage ich mal, allgemeinere Suchbegriffe habt. Vielleicht, sage ich mal,
zwei, drei Wörter maximal, die wahrscheinlich
häufig gesucht werden, wo man sagen kann, objektiv gesehen
sind die Suchergebnisse schlechter als vorher. Weil jetzt die Sachen eher
an erster Stelle ranken, als nachher, dann sind das Sachen, die wir
gerne an das Qualitätsteam weitergeben, damit sie da entsprechend auch die Algorithmen
ein bisschen verbessern können in dieser Richtung. Aber manchmal ist das auch
sehr schwierig, dass man sagt gut, erste und zweite Position
haben jetzt getauscht. Ist das jetzt besser oder schlechter? Darüber lässt sich dann streiten,
das ist dann schwieriger. Ok, danke. Ich hätte dazu vielleicht
noch eine kurze Anschlussfrage. Grade, wenn es um das Ranking
für Änderungen geht. Wir haben so ein
Entertainment News-Portal und haben im Vorabbild
ganz schön gelitten. Beim letzten im August. Es hat sich danach so ein bisschen
wieder gefangen. Wir konnten allerdings bis dato
keine wirkliche Erklärung finden. Das, was alles Public war,
sowas wie, ich weiß nicht, es ist ein Medic Update gewesen
oder es geht um Authority und in Relevanz, da hat sich
an unserer Art und Weise, wie wir die News schreiben
eigentlich nicht groß was verändert gehabt. Also wir machen immer
qualitätischen Journalismus und von daher fragen wir uns,
woran es vielleicht gelegen haben könnte. Du hast ja schon gesagt,
dass du dir die Seiten angeschaut hast,
vielleicht hast du zufällig irgendwas gesehen? An für sich nichts, nichts,
worauf ich jetzt irgendwie hinzeigen könnte. Ich denke grade mit den ganzen
Crawl-Updates ist es natürlich immer etwas schwierig,
weil halt zum Teil verändert sich da einfach die Art und Weise,
wie wir die Relevanz von Seiten versuchen festzustellen. Und das heißt nicht unbedingt,
dass die Seiten schlechter sind, sondern das wir einfach nachdenken,
die sind jetzt vielleicht nicht mehr so relevant
für diese einzelnen Suchen. Grade, wenn sie es früher mal waren. Was ich da noch immer, ja…
worauf ich da zurückzeigen kann, ist einerseits den
Quality Rater Guidelines, dass man die vielleicht mal durchgeht
und überlegt, was da passen würde. Andererseits, der ältere Blogpost
von [Unverständlich] mit 20 Fragen, die man sich stellen kann über die Qualität meiner Website. Dass man jemanden gibt,
der nicht direkt mit der Website verbunden ist. Einfach das man da ein bisschen
objektiver beurteilen kann, wo gibt es vielleicht Bereiche,
wo wir mit der Qualität her ein bisschen etwas verbessern können
oder, wo wir die Qualität ein bisschen besser
sichtbar machen können. Also, dass wenn ein Benutzer
auf die Seite kommt, dass man wirklich erkennt,
ah, das ist nicht von irgendwelchen Schülern
eine Zeitung geschrieben worden, sondern es ist wirklich auch
hochstehender Journalismus. Dahinter stecken, sage ich mal,
die Autorenprofile und diese weiteren,
anderen Informationen. Das ist wirklich auch möglichst
klar ist, von Anfang an, wenn man das anschaut. Eine Sache, die da vielleicht
auch immer ein bisschen ins Spiel kommt, ist,
das viele von diesen algorithmischen Anpassungen
werden in erster Linie in Amerika gemacht
und in Amerika zusammengestellt und getestet. Wir testen zwar schon auch
anderssprachige Inhalte, aber es kann manchmal sein,
das grade bei Sprachen, die nicht so häufig verwendet werden,
dass wir da das nicht so hundertprozentig hinkriegen. Das heißt, wenn ihr seht,
das eigentlich, sage ich mal, gute Websites schlechter wegkommen
mit solchen Qualitätsupdates oder allgemein Ranking-Updates,
dann sind solche Beispiele für uns sehr wichtig. Ich denke, Deutsch ist wahrscheinlich
eine Sprache, die häufig genug gesprochen wird, dass man da
das einigermaßen hinkriegen sollte. Aber grade, wenn die Inhalte
eben in irgendwelchen Sprachen sind, die nur in kleineren Ländern
gesprochen werden, dann könnte ich mir schon vorstellen,
dass wir da manchmal mit dem Ranking, mit den Algorithmen
Probleme haben, das zu beurteilen, ob wir das
richtig hinkriegen oder nicht richtig hinkriegen. John, in dem Kontext habe ich
tatsächlich auch nochmal eine Frage, weil wir uns jetzt weiterhin
um newly-generated-content-Bereich, aber trotzdem ein generelles Thema,
was wir beobachten ist, dass, wenn man ein horizontales
Themenportal ist, bedeutet das ich also
sehr, sehr viele Themenfelder habe, aber nicht wirklich so einen klar
erkennbaren Fokus auf irgendeinen Themenbereich hab. Ich immer mehr Schwierigkeiten habe
aktuell, um vielleicht auch in Zukunft mit Nischenportalen zu konkurrieren Nischenportal ist für mich
ein sehr, sehr spitzes Portal. Das sich thematisch sehr stark
fokussiert und wenn ich jetzt mal davon ausgehe, dass ich vielleicht
den Content in irgendwelcher Qualität habe und die Guideline
auch schön brav befolge, dann stellt sich uns grade
in der Diskussion die Frage hat dieses breit aufgefächerte Portal
im Vergleich zu diesen spitzen Nischenportalen überhaupt
noch eine Möglichkeit jetzt in der Zukunft ähnliche Rankings
und Trafficportale aufzubauen, wie wir es eben in der Vergangenheit
ja relativ, ich sag mal, einfacher, nun möglich war. Wie stellt ihr euch da auf? Und besonders, wenn man
die Core Updates so anschaut, dann könnte sich da, ja schon
eine Richtung abzeichnen. Ich würde sagen, dass beide Varianten
ihre Berechtigung haben. Manchmal macht es Sinn,
dass man wirklich auch ein, sage ich mal, ein Portal zeigen,
wo wir wirklich auch tiefes Fachwissen haben. Manchmal macht es aber auch Sinn,
dass wir eher auf ein breiter geflechtetes Portal zeigen. Je nachdem, wie der Benutzer
natürlich sucht. Wenn wir erkennen können,
dass jemand wirklich nach wissenschaftlichen Informationen
sucht, dann macht es vielleicht nicht Sinn, dass man ihn auf irgendein allgemeines
Frage-Antwort-Portal schickt, sondern vielleicht eher auf ein gezieltes, wenn das jedoch jemand ist,
der vielleicht nicht so viel tiefe Informationen zu diesem Thema
sucht, dann ist vielleicht ein breitgefächertes Portal
ein bisschen besser. Im Grunde genommen ist es
natürlich auch immer eine Frage davon, wie gut kann man quasi
diese einzelnen Portale auch unterstützen insgesamt. Das heißt, nicht unbedingt
von unserer Seite her, sondern vom ganzen
Info System her. Wenn viele auf ein allgemeines Portal
gehen, dann ist das natürlich für uns praktisch. Dann sehen wir natürlich
sehr schnell, dass da eigentlich viele gute Signale hingehen. Wenn man ein eingeschränktes Portal
macht, nur für ein einzelnes Thema, dann ist es manchmal etwas schwieriger
zu erkennen, dass da wirklich auch genügend Signale zusammenkommen,
um zu sagen, das macht es safe. Das heißt, es lohnt sich wahrscheinlich
in den meisten Fällen nicht, dass man sagt, ich nehme ein
allgemeines Portal und teile es in einzelne
Nischenportale auf, weil die einzelnen Nischenportale
dann einfach nicht einzeln nicht genug Unterstützung haben,
dass wir die auch sauber in unserer Suchergebnissen
zeigen können zum Beispiel. Aber irgendwo dazwischen
gibt es wahrscheinlich auch Berechtigungen für beide Varianten,
dass man sagt, das ist jetzt wirklich ein sehr tiefes Portal, wo sehr viele Informationen zu einem
ganz speziellen Thema vorhanden sind und das können wir dann auch zeigen,
wenn jemand gezielt nach diesen tieferen Informationen sucht. Wenn wir jedoch sehen, dass das
eher allgemeinere Suchen sind, dann zeigen wir eher auf ein Portal,
wo wir sagen können, da wird in der Sprache
vom Benutzer gesprochen, da verstehen sie auch die Antworten,
die gegeben werden. Danke dir. Hast du noch Zeit für eine oder… Machen wir doch. Eine ganz schnelle,
aber vielleicht ein bisschen tricky. Wir verteilen teilweise Content
an andere Webseiten und wir haben die Problematik dabei,
dass die Zielseite quasi ein [Unverständlich] als Quelle setzt,
das Google den [Unverständlich] aber komplett ignoriert. Ich könnte mir vorstellen,
dass das teilweise durch solche Faktoren,
wie die externe Seite wird vielleicht etwas schneller geladen
oder meinetwegen vielleicht ist sie sogar ein wenig älter,
I don’t know, ich weiß es nicht, aber wir haben das Problem halt
immer wieder und da stellt sich hier intern
halt so ein bisschen die Frage, wie geht man damit strategisch um. Das sind zwei Sachen,
die da zusammenkommen. Einerseits ist es so,
dass wir den [Unverständlich] erst im zweiten Moment
quasi verarbeiten. Das heißt, wenn wir die Seite
zum ersten Mal crawlen und indexieren, nehmen wir
die Inhalte erstmal, wie sie da sind und dann
haben wir noch quasi beide Varianten, bei uns,
im Index und können je nachdem wie gesucht wird, nehmen wir
die eine oder die andere Version. Wenn wir den [Unverständlich]-Link
gesehen haben und gesehen haben, dass die Seiten an für sich
äquivalent sind, dann gibt’s verschiedene Faktoren,
die da zusammenkommen bei der Wahl vom [Unverständlich]. Das heißt, wir sehen dann
im ersten Moment, diese beiden Seiten gehören eigentlich
zum gleichen [Unverständlich]. Also die quasi die eine Gruppe
von Seiten, die die gleichen Informationen haben. Wir nehmen dann
den [Unverständlich]-Link dazu, wir nehmen dann die interne,
externe Verlinkung dazu. Sitemap Dateien. [Unverständlich], wenn irgendwie
sowas vorhanden ist, nehmen wir dazu. All die, quasi Signale,
die wir sehen können, zwischen diesen beiden Seiten. Und versuchen dann aufgrund
von eines dieser beiden Seiten auszusuchen und die dann
als [Unverständlich] zu setzen. Weil, wenn man natürlich
innerhalb von einer, sage ich mal, einer ganz neuen Website
auch auf eine sehr starke, bestehende Website veröffentlicht,
dann kann es natürlich sein, dass die ganzen internen
und die ganzen link-basierten Signale, dann eher sagen, gut,
die bestehende Website sieht einfach viel stärker aus,
das ist wahrscheinlich eher der [Unverständlich]. Das wir dann eher
in die Richtung gehen. Auch, wenn ein [Unverständlich]
in die andere Richtung zeigt. Weil eins von diesen Problemen,
was wir immer wieder sehen, ist das, die [Unverständlich]
falsch eingesetzt wird und wir sehen dann diesen Link,
zwischen diesen beiden Seiten, aber wir wissen dann nicht genau, ja gut, ihr sagt die Seiten sind
äquivalent, aber soll man wirklich der Zielseite folgen
oder können wir auch die Ursprungsseite nehmen
als quasi [Unverständlich] für die Indexierung. Danke. Das heißt, ich denke
praktisch gesehen ist es für euch halt eine Frage, wie wollt ihr da vorgehen. Ich denke mal, du musst immer
ein bisschen damit rechnen, das manchmal der [Unverständlich]
nicht genommen wird. Und manchmal ist das trotzdem ok,
wenn zum Beispiel im Bericht dann steht,
gemäß dieser und dieser Website bitte das und das und das,
dann ist das vielleicht trotzdem noch für euch wertvoll
genug, das ihr sagt, das funktioniert für uns. Wenn ihr wirklich nur eure Seite
indexiert haben wollt, dann macht es vielleicht Sinn,
die Inhalte nicht weiterzugeben. Wenn Google hier den [Unverständlich]
als Fehler sozusagen betrachtet, macht es dann vielleicht Sinn
zu sagen dann indexieren wir die Inhalte einfach auf beiden zeitgleich? Kann man auch machen. Was mit dem [Unverständlich]
passieren wird, also, wenn wir die zusammenklappen,
dann können wir auch die Signale zusammenklappen. Das heißt, die Signale werden dann
auch ein bisschen stärker für uns. Das heißt vom Ranking her
hat man schon ein bisschen Vorteil, wenn man sagen kann,
diese verschiedenen Seiten, kann ich als eine Seite betrachten. Die müssen dann nicht
gegeneinander konkurrieren, sondern wir können dann wirklich sagen,
da sind jetzt mehr Signale für diese Seite, wir können hier
Ranking auch ein bisschen besser zeigen. Danke. Ok, machen wir vielleicht
noch eine Frage. Ja, wir vom Tagesspiegel
hatten noch eine Sache. Ok. Und zwar bezüglich Google News. Wir publizieren unveränderte
Agenturmeldungen. Die publizieren wir manuell
und automatisch und die werden in der Regel
echt nie bei Google News angezeigt. Hingegen bei anderen Publishern,
die auch Original, unveränderte Agenturmeldungen haben, angezeigt werden. Da fragt man sich ein bisschen, warum? Liegt es nur daran, das wir
zu langsam sind oder… Vielleicht, weiß ich jetzt nicht,
also einerseits, weiß ich nicht, wie das
bei Google News gehandhabt wird, weil in der Websuche
wird das wahrscheinlich in Richtung Duplicate content laufen. Dass wir sagen wir sehen die Inhalte,
wir erkennen, dass das eigentlich gleichen sind, die wir schon kennen und das wir die dann nicht
nochmal indexieren müssen. Ich weiß nicht wie das bei
Google News gehandhabt wird, ob das da vielleicht ein bisschen
anders gemacht wird. Ok, danke. Ok. Dann machen wir doch vielleicht
hier eine Pause. Vielen Dank für’s kommen. So zahlreich, das ist super. Ich hoffe, das war hilfreich für euch
und hoffe, dass wir die meisten Fragen mal durchgehen konnten. Wenn da weitere Sachen kommen,
könnt ihr natürlich gerne auch im Webmaster Hilfeforum nachfragen
oder in dem normalen Webmaster Hangouts, die wir auch ab und zu machen. Die stelle ich, glaube ich,
für die nächste Woche demnächst ein. Dann könnt ihr die Fragen
dort auch rein kopieren. Ok, vielen Dank nochmal. Vielen Dank. Dankeschön. Danke, tschau.

Author:

3 thoughts on “German / Google Webmaster Central News-Publisher Sprechstunden-Hangout auf Deutsch”

Leave a Reply

Your email address will not be published. Required fields are marked *