Nachrichten vom 12. Mai, am Mittwoch Ortszeit, gab Google bekannt, dass es generative künstliche Intelligenz in seine Suchmaschine einführen wird. Dies könnte eine der größten Veränderungen in der Geschichte der Google-Suchmaschine sein. Unter Online-Publishern herrscht weitverbreitete Sorge, dass die neuen Suchanfragen von Google Auswirkungen auf den Traffic auf ihren Websites haben könnten.
Auf der jährlichen Entwicklerkonferenz kündigte Google an, dass es Modelle der künstlichen Intelligenz verwenden werde, um Informationen überall im Internet zu integrieren und zusammenzufassen. Google sagte, dass dieses sogenannte generative Sucherlebnisprodukt besser auf Suchanfragen von Nutzern reagieren könne.
Google zeigt einigen Nutzern KI-generierte Textabsätze an und priorisiert mehrere relevante Links auf der Suchergebnisseite anstelle der „zehn blauen Links“, die in den Google-Suchergebnissen normalerweise angezeigt werden.
Die neue KI-gestützte Google-Suche wird mit ausgewählten Nutzern getestet und ist noch nicht allgemein verfügbar. Viele Online-Publisher befürchten jedoch, dass mehr Nutzer auf der Google-Website bleiben, wenn dies zur Standardmethode für die Anzeige von Suchergebnissen wird, was möglicherweise weniger Traffic auf ihre Websites bringt und sich auf die Einnahmen aus dem Online-Publishing auswirkt.
Die Kontroverse verdeutlicht auch die seit langem bestehende Spannung zwischen Google und den von ihm indizierten Websites, eine Situation, die zweifellos durch das Aufkommen neuer Tools für künstliche Intelligenz verschärft wird. Web-Publisher befürchten seit langem, dass Google selbst Inhaltsausschnitte ihrer Websites neu mischen würde, doch nun nutzt Google offenbar fortschrittliche Modelle des maschinellen Lernens, um künstliche Intelligenz zu „trainieren“, um ähnliche Texte und reaktionsfähige Ergebnisse zu produzieren.
Rutledge Daugette, CEO von TechRaptor, einer Website, die sich auf Gaming-News und Rezensionsinhalte konzentriert, sagte, dass Googles Schritt die Interessen von Online-Publishern überhaupt nicht berücksichtigt und dass Googles Suche mit künstlicher Intelligenz dem Inhalt von Plagiats-Websites gleichkommt.
„Ihr Fokus liegt auf der Zero-Click-Suche, bei der Online-Verleger und -Autoren hochwertige Inhalte verwenden, die sie mit viel Zeit und Mühe erstellt haben. Im Gegensatz zu Benutzern, die möglicherweise auf eine Website klicken, bietet dies keinen Vorteil für Online-Verleger und -Autoren. „Bisher hat künstliche Intelligenz die Informationen anderer Personen schnell wiederverwendet, ohne dass der Inhaltseigentümer davon profitierte, und im Fall von Google wird der Chatbot Bard nicht einmal die Quelle der verwendeten Informationen angeben“, sagte Doggett Luther Lowe, Direktor für öffentliche Ordnung bei Yelp, kritisiert seit langem die Suchrichtlinien von Google. Er sagte, die Aktualisierungen der Google-Suche seien Teil einer jahrzehntelangen Strategie, um Nutzer länger auf Google-Websites zu halten, anstatt sie auf die Website zu leiten, auf der die Informationen ursprünglich bereitgestellt wurden.
Lowe sagte in einem Interview: „Die durch Googles Einführung des ChatGPT-Klons in das Suchfeld geschaffene Exklusivität ist das letzte Kapitel des Blutvergießens für das gesamte Netzwerk.“ verfolgt Veränderungen in der Suchmaschine von Google“ (Search Engine Land) ergab, dass bisher in Tests KI-generierte Inhalte über organischen Suchergebnissen (kostenlose Listing-Links, die für die Suche relevant und wertvoll sind) angezeigt werden. Es gab bereits Berichte darüber, dass Google plant, seine Suchergebnisseite neu zu gestalten, um durch künstliche Intelligenz generierte Inhalte zu fördern.
Basierend auf Tests des generativen Sucherlebnisses werden KI-generierte Inhalte im grünen Feld oben auf der Google-Suchergebnisseite priorisiert, wobei drei Felder rechts relevante Website-Links anzeigen. Im ersten Beispiel zu den Google-Suchergebnissen wurden die Titel von Informationen von drei Websites nicht vollständig angezeigt.
Google gibt an, dass diese Informationen nicht von der Website entfernt werden und nur zur Überprüfung des Links verwendet werden. Search Engine Land sagt, dass die generative Sucherfahrung eine Verbesserung und eine „gesündere“ Art der Verlinkung im Vergleich zum Bard-Chatbot von Google darstellt, der selten direkt auf die Websites von Web-Publishern verlinkt.
Einige Online-Publisher fragen sich, ob sie KI-Unternehmen wie Google davon abhalten können, Inhalte auf ihren Websites zu extrahieren, um KI-Modelle zu trainieren. Unternehmen für künstliche Intelligenz wie Stable Diffusion wurden von Dateneigentümern mit Klagen konfrontiert, es gibt jedoch immer noch keine klare Schlussfolgerung darüber, wie das Verhalten künstlicher Intelligenz beim Crawlen von Netzwerkdaten definiert werden soll. Andere Unternehmen wie Reddit kündigten Pläne an, für den Zugriff auf ihre Daten Gebühren zu erheben.
IAC besitzt mehrere Websites wie All Recipe, People Magazine und Daily Beast. Der Vorstandsvorsitzende des Unternehmens, Barry Diller, ist eine führende Persönlichkeit der Verlagsbranche. „Wenn alle Informationen der Welt in diesen Kessel gesaugt und in einer sogenannten Chat-Funktion in Aussagesätze verpackt werden könnten, könnte man so viel davon haben, wie man möchte“, sagte er letzten Monat auf einer Konferenz, dann wäre das der Fall Sei keine Verlagsbranche, weil es unmöglich ist.“
Diller fuhr fort: „Sie müssen die Branche nur dazu bringen, zuzustimmen, dass Sie unsere Inhalte nicht stehlen können, es sei denn, Sie können ein System entwickeln, das es Online-Publishern ermöglicht, kostenpflichtige Kanäle zu erhalten.“ Er sagte, Google werde mit diesem Problem konfrontiert sein.
Diller sagte, er glaube, dass Online-Publisher Unternehmen im Bereich der künstlichen Intelligenz nach dem Urheberrecht verklagen können und dass der Umfang der „Fair Use“-Beschränkungen neu definiert werden müsse. Am Mittwoch wurde berichtet, dass eine Gruppe von Online-Publishern unter der Leitung von Diller sagte: „Wenn nötig, werden wir das Urheberrecht ändern.“
Die größte Herausforderung für Online-Publisher besteht darin, festzustellen, ob die Inhalte auf ihren Websites verwendet werden Einsatz künstlicher Intelligenz. Google hat die Trainingsquelle von PaLM 2, dem großen Sprachmodell hinter dem generativen Sucherlebnis, nicht offengelegt. Doggett sagte, dass er zwar Beispiele dafür gesehen habe, dass Inhalte von anderen Websites ohne Quellenangabe auf dem Chatbot Bard umgeschrieben wurden, es aber schwierig sei zu sagen, ob die Informationen von einer bestimmten Website ohne direkten Link zur Quelle stammten.
Google hat keinen relevanten Kommentar. „PaLM 2 wurde anhand riesiger Mengen öffentlich verfügbarer Daten aus dem Internet trainiert, und wir nehmen die Gesundheit des Web-Ökosystems eindeutig ernst“, sagte Zoubin Ghahramani, Googles Vizepräsident für Forschung, Anfang dieser Woche in einer Medienbesprechung „Ein gesundes Ökosystem ist in der Tat ein wesentlicher Bestandteil unserer Denkweise bei der Entwicklung von Produkten, und die Entwickler sind Teil dieses florierenden Ökosystems“, sagten sie auf dem Treffen.
Doggart sagte, dass Googles Schritt unabhängige Online-Publisher in eine schwierige Lage bringen werde.
„Ich finde es wirklich frustrierend für unsere Branche, wenn viele unserer Kollegen entlassen werden und wir uns Sorgen machen müssen, dass unsere harte Arbeit plagiiert wird“, sagte Docter
Das obige ist der detaillierte Inhalt vonOnline-Publisher befürchten, dass die KI-Suche von Google Inhalte freigibt und die Einnahmen aus dem Website-Traffic beeinträchtigt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!