So funktioniert die Suche

Aus Algorithmen werden Antworten

Teil 1 von 3

Crawling und Indexierung

Search starts with the web. It's made up of over 130  trillion individual pages and it's constantly growing.


Google crawlt das Web.

Wir folgen Verlinkungen von einer Seite zur nächsten.

Website-Inhaber können festlegen, ob ihre Websites gecrawlt werden.

Wir sortieren die Seiten
nach Inhalt und
anderen Faktoren.

Der Index enthält Text aus Millionen von Büchern verschiedener Bibliotheken und anderer Partner.

"Die perfekte Suchmaschine würde genau verstehen, was man wissen will, und genau das gewünschte
Ergebnis liefern." Larry Page
Mitgründer und CEO

Sie möchten sich lieber ein Video über die Suche ansehen? Hier ist eins.

Dank Street View können wir auch Informationen aus der physischen Welt einschließen.

Der Knowledge Graph bietet zusätzliche Informationen aus umfassenden Sammlungen und Listen zu Menschen, Orten und Dingen aus der realen Welt.

Das sind mehr als
100 Millionen Gigabyte.

All das wird festgehalten im Index

Teil 2 von 3

Algorithmen

Wir schreiben Programme und Formeln, um optimale Ergebnisse zu liefern.


Während Sie suchen

Algorithmen suchen nach Anhaltspunkten,
um besser zu verstehen, was
Sie meinen.

Basierend auf diesen Anhaltspunkten ziehen wir die relevanten Dokumente aus dem Index.

Danach erfolgt das Ranking der Ergebnisse.

Ein besseres Ranking kann nicht durch Bezahlung erreicht werden.
Die relevantesten Ergebnisse erscheinen ganz oben.

Mehr als 200 Faktoren werden einbezogen.

Das Suchtestlabor

Unsere Entwickler arbeiten beständig an einer Verbesserung der Algorithmen. Sie führen Experimente durch, analysieren und optimieren die Ergebnisse und wiederholen sie immer und immer wieder.

Suchtestlaborerkunden
Das alles geschieht in einer
Achtelsekunde.

Ergebnisse können unterschiedlich aussehen:

  1. 1

    Knowledge Graph

    Ergebnisse auf der Basis einer Datenbank, die Personen, Orte und Dinge aus der realen Welt sowie deren Verbindungen untereinander enthält.

  2. 2

    Snippets

    Zu jedem Suchergebnis werden kleine Vorschaubilder mit Informationen angezeigt, z. B. der Seitentitel und eine kurze Beschreibung.

  3. 3

    Nachrichten

    Ergebnisse aus Online-Zeitungen und Blogs aus der ganzen Welt.

  1. 1

    Knowledge Graph

    Ergebnisse auf der Basis einer Datenbank, die Personen, Orte und Dinge aus der realen Welt sowie deren Verbindungen untereinander enthält.

  2. 8

    Sprachsuche

    Mit der Google Suche App sagen Sie einfach, was Sie wissen möchten, und erhalten sofort eine gesprochene Antwort.

  3. 9

    Mobile Suche

    Optimierte Suchfunktionen speziell für Mobilgeräte wie Tablets und Smartphones.

  1. 4

    Antworten

    Unmittelbare Antworten und Informationen zu verschiedenen Suchanfragen wie Wetter, Sportergebnissen und Fakten.

  2. 5

    Videos

    Suchergebnisse zu Videos werden mit Miniaturansichten angezeigt, sodass Sie sich schnell und bequem für ein Video entscheiden können.

  3. 6

    Bilder

    Bildbasierte Ergebnisse mit Miniaturansichten, sodass Sie auf einen Blick entscheiden können, welche Seite Sie aufrufen möchten.

  4. 7

    Optimierungen

    "Erweiterte Suche", Alternativ-Vorschläge und andere Suchfunktionen, mit denen Sie Ihre Suche optimieren können.

Während Sie suchen

  1. Rechtschreibprüfung

    Erkennt und korrigiert mögliche Rechtschreibfehler und bietet Alternativen.

  2. Automatische Vervollständigung

    Vervollständigung Ihrer möglichen Suchbegriffe.
    Dabei werden auch Begriffe mit
    mehreren Bedeutungen berücksichtigt.

  3. Synonyme

    Erkennung von Wörtern mit ähnlicher Bedeutung.

  4. Interpretation von Suchanfragen

    Intelligente Interpretation der eingegebenen Begriffe.

  5. Suchmethoden

    Neue Suchmöglichkeiten wie z. B. Bildersuche oder Sprachsuche.

  6. Google Instant

    Ergebnisse für Suchanfragen werden bereits beim Eintippen angezeigt.

Ranking

  1. Website- und Seitenqualität

    Anhand einer Reihe von Indikatoren wird geprüft, wie vertrauenswürdig, seriös oder maßgebend eine Quelle ist. Einer dieser Indikatoren ist PageRank, einer der ersten Algorithmen von Google, der die Relevanz von Seiten anhand der Verlinkungen zwischen Seiten ermittelt.

  2. Aktualität

    Es werden die neuesten Nachrichten und Informationen angezeigt. Dazu gehören auch zeitgemäße Ergebnisse, wenn Sie nach bestimmten Zeitangaben suchen.

  3. SafeSearch

    Mit Filtern können Sie Ihre Browsereinstellungen so ändern, dass anstößige Inhalte und nicht jugendfreie Webseiten, Fotos und Videos nicht weiter in den Suchergebnissen angezeigt werden.

  4. Nutzerbezogene Ergebnisse

    Anhand Ihres
    Standorts, des Webprotokollsund anderer Faktoren werden Ergebnisse noch relevanter.

  5. Übersetzung und Lokalisierung

    Ergebnisse werden auf Ihre Sprache und Ihr Land maßgeschneidert.

  6. Universelle Suche

    Alle relevanten Inhalte wie Bilder, Nachrichten, Karten, Videos und für Sie persönlich relevante Inhalte werden auf einer Suchergebnisseite zusammengeführt.

Das Suchtestlabor

  1. Präzisionsauswertung

    Bei einer Präzisionsauswertung schätzen Suchbewerter (also Personen, die darin geübt sind, die Suchqualität zu bewerten) den Nutzen einzelner Ergebnisse für eine bestimmte Suche ab.

    In einem Jahr führen wir normalerweise über 40.000 Präzisionsauswertungen durch.
    Interessiert es Sie, wonach unsere Bewerter suchen?
    Laden Sie sich die Richtlinien herunter.

  2. Paralleltests

    Bei einem Paralleltest überprüfen die Bewerter zwei separate Suchergebnissätze. Der erste Satz wurde mithilfe des alten Algorithmus ermittelt, der andere mit einem Algorithmus im Probestadium.
    Dann analysieren sie die Ergebnisse und geben uns Rückmeldung zu den Unterschieden.

    In einem Jahr führen wir normalerweise über 9000 Paralleltests durch.

  3. Echtzeitdatentests

    Bei Echtzeitdatentests verändern wir die Suche für einen geringen Anteil tatsächlicher Google-Nutzer und versuchen herauszufinden, wie sich dies auf ihre Nutzererfahrung auswirkt. Wir analysieren die Ergebnisse sorgfältig, um zu erkennen, ob die
    vorgenommene Änderung zu einer Verbesserung führt.

    In einem Jahr führen wir normalerweise über 7000 Echtzeitdatentests durch.

  4. Einführung

    Unsere leitenden Ingenieure überprüfen die mit den Experimenten gewonnenen Daten und entscheiden, ob die Änderung für alle Google-Nutzer eingeführt werden soll.

    Auf der Basis aller derartigen Experimente implementieren wir pro Jahr normalerweise mehr als 500 Verbesserungen an der Suche.

  5. Alles über das Suchtestlabor

    Hier finden Sie ein kurzes Video, das zeigt, was wir alles tun, um die Suche zu verbessern.

Teil 3 von 3

Weniger Spam

Wir bekämpfen Spam rund um die Uhr, um Ihnen ausschließlich relevante Ergebnisse zu liefern.


Der größte Teil des Spams wird automatisch entfernt. Weitere verdächtige Seiten untersuchen wir manuell. Wenn wir Spam finden, ergreifen wir manuelle Maßnahmen.

Was wir in letzter Zeit entfernt haben

Welche Maßnahmen wir im Laufe der Zeit ergriffen haben

Arten von Spam

Wenn wir Maßnahmen ergreifen, versuchen wir zunächst, die Website-Inhaber zu benachrichtigen.So hat die Zahl der Spam-Benachrichtigungen zugenommen

Die Website-Inhaber können ihre Websites dann korrigieren und uns dies nachfolgend mitteilen.So oft geschieht das

Nachrichten pro Monat

Kommunikation mit Webmastern

Mai 2007

Früher haben wir Benachrichtigungen nur als E-Mail versandt. 2007 jedoch meldeten uns Webmaster, sie hätten gefälschte Benachrichtigungen über Verstöße gegen die Richtlinien für Webmaster erhalten. Daraufhin unterbrachen wir den Versand von Benachrichtigungen vorübergehend und entwickelten ein neues Benachrichtigungssystem.

Juli 2007

Nach der Unterbrechung des Benachrichtigungsversands aufgrund der gefälschten E-Mails starteten wir im Juli 2007 das Nachrichten-Center in den Webmaster-Tools und konnten den Versand von Benachrichtigungen wieder aufnehmen.

März 2010

Zu diesem Zeitpunkt begannen wir mit dem Einsatz eines neuen Benachrichtigungssystems. Dieses ermöglichte uns bei Spam-Funden den einfacheren Versand von Nachrichten an das Nachrichten-Center in den Webmaster-Tools. Die erste Spam-Kategorie, bei der wir dieses neue System einsetzten, waren gehackte Websites.

Juli 2010

Durch einen Fehler in unserem Benachrichtigungssystem für gehackte Websites wurden weniger Nachrichten zu gehackten Websites versendet.

November 2010

Wir führten ein Upgrade unseres Benachrichtigungssystems durch. Hierdurch konnten wir den Fehler bei Benachrichtigungen zu gehackten Websites beheben und probeweise damit beginnen, Nachrichten zu weiteren Spam-Arten wie etwa unnatürlichen Links von einer Website zu versenden.

Februar 2011

Wir erweiterten Benachrichtigungen auf zusätzliche Arten unnatürlicher Links.

eine Website

März 2011

Wir erweiterten Benachrichtigungen auf noch mehr Arten unnatürlicher Links auf eine Website.

Juni 2011

Wir erhöhten die Anzahl der Sprachen, in denen wir Nachrichten versenden.

September 2011

Wir änderten unser Klassifizierungssystem für Spam. Während wir Meldungen für neue Kategorien erstellten und übersetzten, wurden Nachrichten für einige Spam-Kategorien nicht gesendet.

November 2011

Durch einen Fehler in unserem Benachrichtigungssystem für gehackte Websites wurden weniger Nachrichten zu gehackten Websites versendet.

Dezember 2011

Wir erweiterten die Kategorien für Spam-Benachrichtigungen um reinen Spam und Inhalte minderer Qualität.

Februar 2012

Der Fehler bei den Benachrichtigungen zu gehackten Websites wurde behoben.

Anträge auf erneute Überprüfung pro Woche

Wichtige Ereignisse bei Anträgen auf erneute Überprüfung

Dezember 2006

Aufgrund eines Fehlers konnten wir Anträge auf erneute Überprüfung etwa eine Woche lang nicht ordnungsgemäß speichern. Am 25. Dezember sendeten wir Anträge zu Websites, die von dem Fehler betroffen waren. Deswegen kam es zu Jahresende zu einem geringfügigen Mehraufkommen.

Mai/Juni 2007

Viele Webmaster erhielten gefälschte Benachrichtigungen über Verstöße gegen die Richtlinien für Webmaster. Dies führte zu einer ungewöhnlich hohen Zahl von Anträgen auf erneute Überprüfung.

Dezember 2007

Die Anzahl der von Webmastern zum Jahresende gesendeten Anträge auf erneute Überprüfung sinkt von Jahr zu Jahr.

April 2009

Wir veröffentlichten ein Video mit Tipps für Anträge auf erneute Überprüfung.

Juni 2009

Wir begannen damit, Anträge auf erneute Überprüfung zu beantworten. So teilten wir den Webmastern mit, dass ihre Anträge bearbeitet wurden.

Oktober 2010

Wir aktualisierten unser Benachrichtigungssystem und begannen, mehr Nachrichten zu versenden.

April 2011

Wir führen den Panda-Algorithmus weltweit ein. Zuvor reichten Websites Anträge auf erneute Überprüfung oft bei Traffic-Änderungen ein, die nicht mit manuellen Maßnahmen zusammenhingen.

April bis September 2011

Unsere Antworten auf Anträge auf erneute Überprüfung enthielten nun ausführlichere Informationen zu den Überprüfungsergebnissen.

Juni 2012

Wir begannen mit dem Senden von Nachrichten für ein breiteres Spektrum von Problemen mit Webspam. Nun senden wir Benachrichtigungen bei allen manuellen Maßnahmen des Webspam-Teams, die das Ranking einer Website in den Websuchergebnissen direkt beeinflussen können.

Manuelle Maßnahmen pro Monat

Meilensteine bei der manuellen Spam-Bekämpfung

Februar 2005

Wir erweiterten unser Team zur Spam-Bekämpfung mit einem neuen Google-Büro in Hyderabad, Indien.

März 2005

Wir erweiterten unser Team zur Spam-Bekämpfung mit einem neuen Google-Büro in Dublin.

April 2006

Wir erweiterten unser Team zur Spam-Bekämpfung mit einem neuen Google-Büro in Tokio.

Juni 2006

Wir erweiterten unser Team zur Spam-Bekämpfung mit einem neuen Google-Büro in Peking.

Oktober 2007 – Alt

Wir änderten unser Klassifizierungssystem so ab, dass Daten in einem besser strukturierten Format basierend auf dem Webspam-Typ abgelegt wurden. So konnten wir auch dieses Diagramm erstellen. Maßnahmen, die im neuen System nicht angemessen kategorisiert werden konnten, befinden sich in der Kategorie "Alt". Die Aufschlüsselung nach Spam-Typ steht für ältere Daten nicht direkt zur Verfügung.

Oktober 2009 – Unnatürliche Links von Ihrer Website

Dank Verbesserungen unseres Systems konnten wir die Anzahl der Maßnahmen bei Websites mit unnatürlichen ausgehenden Links verringern.

November 2009 – Gehackte Websites

Wir verzeichneten einen Anstieg bei den gehackten Websites und leiteten deswegen zusätzliche Schritte ein, um Auswirkungen auf die Suchergebnisse zu vermeiden.

Februar 2011 – Spam von kostenlosen Hosting- und Dynamic DNS-Anbietern

Wir verschärften die Durchsetzung einer Richtlinie für Maßnahmen gegen kostenlose Hosting-Dienste und Dynamic DNS-Anbieter, bei denen ein Großteil der Websites oder Seiten gegen die Richtlinien für Webmaster verstieß. So konnten wir unsere Nutzer auch in solchen Fällen vor Spam schützen, in denen Maßnahmen gegen einzelne Spam-Konten nicht praktikabel gewesen wären.

Oktober 2011 – Cloaking und/oder irreführende Weiterleitungen

Wir änderten unser Klassifizierungssystem dahingehend, dass die meisten Cloaking-Vorgänge oder irreführenden Weiterleitungen jetzt als "echter Spam" gewertet werden. Maßnahmen im Zusammenhang mit weniger schwerwiegenden Verstößen werden weiterhin separat gekennzeichnet.

Oktober 2011 – Geparkte Domains

Wir schränkten unsere Bemühungen zur manuellen Identifizierung geparkter Domains aufgrund von verbesserten Algorithmen zur Erkennung dieser Websites ein.

April 2012

Wir führten eine Aktualisierung von Algorithmen unter dem Codenamen "Penguin" durch. Hierdurch wird das Ranking von Websites herabgesetzt, die Webspam-Techniken verwenden.

So funktioniert die Suche

Hinter einer einfach aufgebauten Seite, auf der Sie Ihre Suchergebnisse sehen, steht ein komplexes, sorgfältig
entwickeltes und getestetes System, über das tagtäglich mehr als 3 Mrd. Suchvorgänge ausgeführt werden.

Möchten Sie etwas Interessantes erfahren?
Übrigens: Während der 0 Sekunden, die Sie auf dieser Seite verbracht haben, wurden ungefähr
0 Suchanfragen ausgeführt.

Arten von Spam

  1. Echter Spam

    Die Website verwendet offenbar aggressive Spam-Techniken wie automatisch generierte unsinnige Inhalte, Cloaking und von anderen Websites kopierte Inhalte bzw. andere Praktiken, die wiederholt oder massiv gegen die Google-Richtlinien für Webmaster verstoßen.

  2. Verborgener Text
    bzw. überflüssige Keywords

    Einige Seiten enthalten möglicherweise verborgenen
    Text und/oder überflüssige Keywords.

  3. Nutzergenerierter Spam

    Die Website enthält offenbar durch den Nutzer generierten Spam. Die problematischen Inhalte können auf Forenseiten, in Gästebucheinträgen oder Nutzerprofilen erscheinen.

  4. Geparkte Domains

    Geparkte Domains sind Platzhalter-Websites mit wenig Inhalt. Sie werden von Google in der Regel nicht in die Suchergebnisse aufgenommen.

  5. Inhalte minderer Qualität mit
    geringem oder ohne Mehrwert

    Die Website scheint aus Seiten minderer Qualität ohne nützliche Inhalte zu bestehen, die Nutzern keinen großen Mehrwert bieten. Hierzu gehören etwa Partnerseiten ohne eigene Inhalte, Brückenseiten, vorgefertigte Websites und automatisch generierte oder kopierte Inhalte.

  6. Unnatürliche Links zu einer Website

    Google hat unnatürliche, betrügerische oder manipulative Links erkannt, die auf die Website verweisen. Dies ist möglicherweise auf den Kauf von Links, die PageRank weitergeben, oder eine Teilnahme an Linktauschprogrammen zurückzuführen.

  7. Spam von kostenlosen Hosting- und Dynamic DNS-Anbietern

    Die Website wird von einem kostenlosen Hosting-Dienst
    oder einem Dynamic DNS-Anbieter betrieben, dessen
    Inhalte zu einem großen Teil aus Spam bestehen.

  8. Cloaking bzw. irreführende
    Weiterleitungen

    Die Website scheint entweder Cloaking einzusetzen (d. h. Nutzern und Suchmaschinen werden jeweils unterschiedliche Inhalte angezeigt) oder sie leitet Nutzer nicht zu der Seite weiter, die Google erkannt hat.

  9. Gehackte Website

    Einige Seiten auf dieser Website wurden eventuell von Dritten gehackt, um Spam oder Links anzuzeigen. Website-Inhaber sollten unverzüglich Maßnahmen ergreifen, um Spam zu entfernen und alle Sicherheitslücken zu beheben.

  10. Unnatürliche Links von einer Website

    Google hat auf dieser Website künstliche, betrügerische oder manipulative externe Links entdeckt. Dies ist möglicherweise auf den Verkauf von Links, die PageRank weitergeben, oder eine Teilnahme an Linktauschprogrammen zurückzuführen.

Weiter zum nächsten Abschnitt