Produziert | 51CTO Technology Stack (WeChat ID: blog51cto)
Google hat ein etwas schlechtes Jahr.
In den letzten zwei Tagen lieferte die Funktion „KI-Übersichten“ der Suchmaschine häufig äußerst ungenaue Suchergebnisse, wie etwa die absurde Andeutung, dass Benutzer Klebstoff verwenden sollten, um zu verhindern, dass Käse von der Pizza rutscht. In diesem Zusammenhang musste CEO Pichai auch zugeben, dass dies durch die Illusion des großen Sprachmodells verursacht wurde und es derzeit keine Lösung gibt.
Ein internes Dokument der Google-Suchmaschine ist kürzlich durchgesickert, das der Öffentlichkeit möglicherweise zum ersten Mal den Funktionsmechanismus der Google-Suchmaschine zeigt. Dieser Artikel wurde erstmals hier veröffentlicht. Google hat noch keine offizielle Antwort auf das Leck herausgegeben und die Echtheit der Dokumente nicht bestritten.
Die Einzelheiten darüber, wie Google, die heute bekannteste Suchmaschine im Internet, Websites einordnet, sind seit langem ein Rätsel. Diese Enthüllung bietet eine neue Perspektive und gibt uns einen Einblick in das streng vertrauliche Suchalgorithmussystem von Google und wie seine Betriebsmechanismen die früheren öffentlichen Äußerungen von Google ergänzen.
Der Suchalgorithmus von Google ist vielleicht das einflussreichste System im Internet. Er bestimmt das Überleben von Websites und die Darstellung von Online-Inhalten. Die genauen Einzelheiten darüber, wie Google Websites einordnet, waren jedoch schon immer eine „Blackbox“. Obwohl es in den Medien, Forschern und Leuten, die sich mit Suchmaschinenoptimierung befassen, verschiedene Spekulationen gab, handelt es sich dabei lediglich um Blinde, die versuchen, den Elefanten herauszufinden . Wir sehen nie das vollständige Puzzle.
Nach Angaben der ausländischen Medien The Verge scheint dieses explosive Leck erstmals das Geheimnis hinter der Suchfunktion gelüftet zu haben und deutet darauf hin, dass Google seit vielen Jahren nicht mehr ganz ehrlich darüber ist, wie sie funktioniert. Google hat bisher nicht auf mehrere Anfragen nach einer Stellungnahme zur Echtheit der Dokumente geantwortet.
Rand Fishkin, der seit mehr als zehn Jahren im SEO-Bereich arbeitet, ist der Protagonist dieses Vorfalls. Er enthüllte, dass eine Quelle 2.500 Seiten mit Dokumenten mit ihm geteilt hatte, in der Hoffnung, Googles externe „Lügen“ über die Funktionsweise seines Suchalgorithmus aufzudecken.
Laut Fishkin beschreiben diese Dokumente die Such-API von Google und schlüsseln den Inhalt der den Mitarbeitern bereitgestellten Informationen auf. Die Details, die Fishkin mitteilt, sind komplex und technisch und für Entwickler und SEO-Experten möglicherweise leichter zu verstehen als für den Durchschnittsbürger.
Leaks allein beweisen nicht unbedingt, dass Google bestimmte Daten und Signale für Suchrankings verwendet. Stattdessen beschreiben die durchgesickerten Dokumente, welche Daten Google von Webseiten, Websites und Suchern sammelt, und liefern SEO-Experten indirekt Hinweise auf den Fokus von Google.
„Es ist vielleicht zu ernst, ‚lügen‘ zu sagen, aber in diesem Fall ist es das passendste Wort“, drückte Mike King es so aus: „Ich verstehe die Bemühungen der PR-Leute von Google, Unternehmensgeheimnisse zu schützen, Was ich jedoch nicht akzeptieren kann, ist, dass sie diejenigen aus den Bereichen Marketing, Technologie und Journalismus herabwürdigen, die Fragen zu den Dokumenten stellen.“ die Echtheit von Dokumenten widerlegen. Fishkin sagte in einer E-Mail an The Verge, dass Google die Echtheit des Lecks nicht bestritt, ein Mitarbeiter ihn jedoch gebeten habe, einige Formulierungen in seinem Beitrag über einen Vorfall zu ändern.
Der geheime Suchalgorithmus von Google hat eine Branche von Vermarktern hervorgebracht, die den öffentlichen Richtlinien von Google folgen und SEO-Strategien für Millionen von Unternehmen auf der ganzen Welt anwenden. Diese weit verbreiteten Methoden haben jedoch allmählich dazu geführt, dass die Menschen allgemein das Gefühl haben, dass die Suchergebnisse von Google schlechter werden und voller Spam-Informationen sind.
Website-Betreiber sehen sich gezwungen, solche Inhalte zu produzieren, um ihre Seiten sichtbar zu machen. Doch angesichts solcher Zweifel wird der externe Google-Sprecher stets mit der bekannten Rhetorik aufwarten: Unsere Richtlinien deuten darauf nicht hin.
Aber einige Details in den durchgesickerten Dokumenten lassen Zweifel an der Richtigkeit der öffentlichen Aussagen von Google über die Funktionsweise seiner Suchfunktion aufkommen.
Ein von Fishkin und Mike King angeführtes Beispiel ist die Frage, ob Google Chrome-Daten in Rankings verwendet. Vertreter von Google haben wiederholt erklärt, dass Chrome-Daten nicht zum Ranking von Seiten verwendet werden, Chrome wird jedoch in einem Abschnitt darüber, wie Websites in Suchanfragen angezeigt werden, ausdrücklich erwähnt.
Bild
Im Screenshot oben wurde den Dokumenten zufolge der Link, der unter der Haupt-URL von vogue.com angezeigt wird, möglicherweise mithilfe von Chrome-Daten erstellt.
Ein weiteres Problem ist die Rolle, die E-A-T (Expertise, Autorität und Vertrauenswürdigkeit) in Rankings spielt. Wie wir alle wissen, ist E-A-T seit vielen Jahren der Eckpfeiler der Richtlinien zur Bewertung der Suchqualität von Google.
Google-Vertreter haben zuvor erklärt, dass E-A-T kein Rankingfaktor ist. Fishkin bemerkte, dass er in den Dokumenten nicht viele direkte Hinweise auf E-A-T fand.
Außerdem haben Google-Vertreter zuvor darauf bestanden, dass die Namensnennung etwas ist, was Websitebesitzer für ihre Leser tun sollten, nicht für Google, da sie keinen Einfluss auf das Ranking hat. Aber das scheint nicht der Fall zu sein.
Mike King erläuterte ausführlich, wie Google Autorendaten für Seiten sammelt, und wies darauf hin, dass es in der Datei ein Feld gibt, mit dem ermittelt werden kann, ob eine Entität ein Autor ist. Dieses Feld ist zwar hauptsächlich für Nachrichtenartikel gedacht, deckt aber auch andere ab wie zum Beispiel wissenschaftliche Artikel. Dies bestätigt zwar nicht, dass die Attribution ein expliziter Ranking-Faktor ist, deutet aber darauf hin, dass Google dieses Attribut zumindest genau verfolgt.
Obwohl diese Dokumente keine schlüssigen Beweise sind, bieten sie eine detaillierte und ungefilterte Perspektive, die uns einen Einblick in dieses streng vertrauliche Black-Box-System ermöglicht .
Tatsächlich hat die Google-Suche in den letzten zwei Jahren eine Reihe wichtiger Updates erlebt, von denen einige sogar beispiellose, störende Updates waren. Zu den repräsentativsten Neuerungen zählt beispielsweise die eingangs erwähnte, viel kritisierte Funktion „KI-Übersicht“.
Zu Beginn der Änderung sagte Pichai, der Leiter von Google, dass die Google-Suche in Zukunft selbst generierte KI-Antworten auf viele Ihrer Fragen liefern wird, und zeigte sich stark von dieser Produktfunktion überzeugt.
Ein Google-Sprecher teilte der BBC mit, dass das Unternehmen Suchänderungen erst nach strengen Tests einführen wird, um zu bestätigen, dass die Änderungen den Nutzern zugute kommen, und dass das Unternehmen Website-Eigentümern Hilfe, Ressourcen und Feedback zu ihren Suchrankings bietet.
Aber die Realität weicht immer vom Ideal ab.
Ob es sich um die „tödliche Halluzination“ über die KI-Übersichtsfunktion oder die „inkonsistenten“ Informationen handelt, die in diesem mutmaßlich durchgesickerten Dokument übermittelt werden, es weckt bei den Menschen Misstrauen und Wachsamkeit gegenüber der Google-Suche.
Wenn man auf die gesamte Entwicklungsgeschichte des Internets zurückblickt, hat kein Unternehmen wie Google nicht nur die Art und Weise verändert, wie die meisten Menschen auf diesem blauen Stern Informationen erhalten, sondern auch das Muster der Erstellung und Verbreitung von Inhalten neu gestaltet.
Nehmen Sie als Beispiel die generative KI-gestützte Suche. Google scheint darauf abzuzielen, diese technologischen Innovationen zu nutzen, um Benutzer und Informationen effizienter zu verbinden und die Gesamtqualität des Sucherlebnisses zu verbessern.
Aber tatsächlich könnte diese Verschiebung, wie Kritiker sagen, die Informationshomogenität verschärfen und die Tiefe und Breite der Erkundung des Webs durch die Nutzer verringern, da sie sich zunehmend auf kurze Antworten verlassen, die direkt von Google bereitgestellt werden, anstatt die Quelle persönlich zu besuchen Webseite. Dies schwächt möglicherweise nicht nur die Sichtbarkeit und das Gewinnmodell unabhängiger Websites und Blogs, sondern kann sich auch auf die Gesundheit und Vielfalt des Online-Ökosystems auswirken und die Möglichkeiten der Benutzer einschränken, sich mit unterschiedlichen Standpunkten und eingehenden Analysen auseinanderzusetzen.
Für Suchmaschinen, die so mächtig sind wie Google, kann es der Schlüssel zur langfristigen Entwicklung sein, sicherzustellen, dass die Optimierung des Suchalgorithmus der Öffentlichkeit dienen kann, ohne die ökologischen Eckpfeiler zu zerstören, die hochwertige Inhalte ins Internet bringen.
https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
https://www .php.cn/link/c30ca4400db3c72274c8ad819f688c21
Um mehr über AIGC zu erfahren, besuchen Sie bitte:
51CTO AI.x Community
https://www.51cto.com/aigc/
Das obige ist der detaillierte Inhalt von2.500 Seiten Algorithmusdokumente geleakt! Die mächtigste Black Box im Suchverlauf ist aufgedeckt. Wird Google umstürzen und erneut upgraden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!