Seit OpenAI inhaltsgenerierende Modelle für künstliche Intelligenz eingeführt hat, werden Daten im Internet in großem Umfang zum Trainieren und Verbessern dieser Modelle genutzt. Laut einer Umfrage des Reuters-Instituts äußern jedoch immer mehr Nachrichtenmedien Zweifel an der Datenerfassung durch OpenAI, und sogar mehr als 50 % der traditionellen Medien sind dagegen. Dies zeigt wachsende Bedenken hinsichtlich des Datenschutzes und der Datennutzung und erinnert an die Notwendigkeit von mehr Transparenz und Compliance im Zuge der Entwicklung der KI.
Das Reuters Institute hat viele Mainstream-Nachrichtenmedien wie die New York Times, das Wall Street Journal, die Washington Post, CNN und NPR analysiert, die 10 Länder abdecken, darunter die Vereinigten Staaten, das Vereinigte Königreich, Deutschland und Indien, und sie verglichen werden in drei Kategorien eingeteilt: traditionelle Printmedien (Papiermedien), Radio- und Fernsehmedien sowie digitale Medien. Die Studie ergab, dass 57 % der traditionellen Printmedien die Crawler von OpenAI blockierten und der Anteil der Rundfunk- und Fernsehmedien sowie der digitalen Medien 48 % bzw. 31 % betrug.
Die Studie wies auch darauf hin, dass es in verschiedenen Ländern und Regionen erhebliche Unterschiede im Anteil der Nachrichten-Websites gibt, die OpenAI blockieren. In den USA liegt dieser Anteil sogar bei 79 %, während er in Mexiko und Polen nur 20 % beträgt.
Der Unterschied im Anteil der Nachrichtenmedien in den 10 untersuchten Ländern, die Blockierungsmaßnahmen gegen OpenAI-Crawler ergriffen haben
Darüber hinaus haben 97 % der Nachrichtenmedien, die OpenAI-Crawler blockiert haben, auch Google AI-Crawler blockiert.
Einige Studien zeigen, dass Nachrichtenmedien dem Einsatz künstlicher Intelligenz in ihren Inhalten gegenüber zurückhaltend sind. Sie befürchten, dass die Verbreitung von Nachrichten durch künstliche Intelligenz dazu führen könnte, dass Medien an den Rand gedrängt oder ersetzt werden. Andrew Frank, Vizepräsident und angesehener Analyst bei Gartner, sagte: „Die Forschung von Reuters zeigt eine zentrale Herausforderung für generative KI auf: Ihr Betrieb basiert auf echten Inhalten, die von echten Personen erstellt wurden, die sie möglicherweise als unangemessen ansehen. Eine potenzielle Bedrohung für ihren Lebensunterhalt.“
Kürzlich stellte eine Studie der Cornell University fest, dass „Modelle dazu neigen, sich zu entwickeln, wenn neue Modelle der künstlichen Intelligenz in erster Linie auf Daten basieren, die von früheren Modellen bereitgestellt werden, und nicht von Menschen während des Trainings.“ Dies führt zu mehr Fehlern in den von KI-Systemen generierten Informationen. Dieses Phänomen verdeutlicht die potenziellen Risiken und Herausforderungen im Bereich der künstlichen Intelligenz, die einer eingehenderen Forschung und Diskussion bedürfen. Die Ergebnisse dieser Studie erinnern uns daran, bei der Entwicklung von Technologien für künstliche Intelligenz vorsichtig mit Datenquellen und Trainingsmethoden umzugehen. Anfang August letzten Jahres brachte OpenAI einen Crawler für künstliche Intelligenz auf den Markt, und Google brachte daraufhin im September ein ähnliches Produkt auf den Markt. Die Studie stellt fest, dass es schwierig sein könnte, diese Haltung umzukehren und die Blockade aufzuheben, wenn diese Verkaufsstellen die Entscheidung treffen, sie zu blockieren.
Das obige ist der detaillierte Inhalt vonViele große Nachrichtenagenturen blockieren OpenAI-Crawler. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!