Im neuen Zeitalter der generativen KI verfolgen große Technologieunternehmen bei der Nutzung von Online-Inhalten die Strategie „Tu, was ich sage, nicht tu, was ich tue“. In gewisser Weise kann man von dieser Strategie eine Doppelmoral und einen Missbrauch des Rederechts sprechen.
Da sich gleichzeitig große Sprachmodelle (LLM) zum Mainstream-Trend in der KI-Entwicklung entwickeln, scheuen sowohl große als auch Start-up-Unternehmen keine Mühen, um ihre Modelle zu entwickeln eigene große Modelle. Unter ihnen sind Trainingsdaten eine wichtige Voraussetzung für die Leistungsfähigkeit großer Modelle.
In letzter Zeit haben das von Microsoft unterstützte OpenAI, Google und das von Microsoft unterstützte Unternehmen Anthropic laut Insider-Berichten andere Websites oder das Internet des Unternehmens genutzt Inhalte, um ihre generativen KI-Modelle zu trainieren . Dies geschah alles ohne Einholung einer besonderen Genehmigung und wird Teil eines sich anbahnenden Rechtsstreits sein, bei dem es um die Zukunft des Webs und die Anwendung des Urheberrechts in dieser neuen Ära geht.
Diese großen Technologieunternehmen können argumentieren, dass sie fair genutzt werden oder nicht Ob das wirklich so ist, darüber lässt sich streiten. Sie lassen jedoch nicht zu, dass ihre Inhalte zum Trainieren anderer KI-Modelle verwendet werden. Wir kommen also nicht umhin zu fragen: Warum können diese großen Technologieunternehmen beim Training großer Modelle die Online-Inhalte anderer Unternehmen nutzen?
Schauen wir uns zunächst Claude an, einen von Anthropic eingeführten KI-Assistenten ähnlich wie ChatGPT. Das System kann Aufgaben wie Zusammenfassung, Suche, Unterstützung bei der Erstellung, Fragen und Antworten sowie Codierung erledigen. Vor einiger Zeit wurde erneut ein Upgrade durchgeführt und der Kontext-Token auf 100.000 erweitert, was die Verarbeitungsgeschwindigkeit erheblich beschleunigte.
Claudes Nutzungsbedingungen lauten wie folgt. Sie dürfen auf die folgenden Arten nicht auf den Dienst zugreifen oder ihn nutzen (von denen einige hier aufgeführt sind) Wenn eine dieser Einschränkungen mit der Richtlinie zur akzeptablen Nutzung unvereinbar ist oder unklar ist, hat letztere Vorrang:
# 🎜🎜#Entwickeln Sie alle Produkte oder Dienstleistungen, die mit unseren Dienstleistungen konkurrieren, einschließlich der Entwicklung oder Schulung von KI- oder maschinellen Lernalgorithmen oder -modellen
#🎜🎜 #Ähnlich, In den Nutzungsbedingungen für generative KI von Google heißt es: „Sie dürfen den Dienst nicht zur Entwicklung von Modellen für maschinelles Lernen oder verwandten Technologien nutzen.“ 🎜🎜#Nutzungsbedingungen von Google Generative AI Adresse: https://policies.google.com/terms/generative-ai
#🎜🎜 #Was ist mit den Nutzungsbedingungen von OpenAI? Ähnlich wie bei Google: „Sie dürfen die Ausgabe des Dienstes nicht verwenden, um Modelle zu entwickeln, die mit OpenAI konkurrieren.“ 🎜🎜#
Adresse der Nutzungsbedingungen von OpenAI: https://openai.com/policies/ Nutzungsbedingungen
Diese Unternehmen sind klug, sie wissen, dass qualitativ hochwertige Inhalte für das Training neuer KI-Modelle von entscheidender Bedeutung sind. Daher ist es sinnvoll, anderen nicht zu erlauben, ihre Ergebnisse auf diese Weise zu nutzen. Aber sie haben keine Skrupel, die Daten anderer Leute zu nutzen, um ihre eigenen Modelle zu trainieren.
OpenAI, Google und Anthropic lehnten Insider-Anfragen nach Kommentaren ab und antworteten nicht.
Tatsächlich waren andere Unternehmen nicht glücklich, als ihnen klar wurde, was passierte. Im April will Reddit, das seit Jahren zum Trainieren von KI-Modellen genutzt wird, damit beginnen, Gebühren für den Zugriff auf seine Daten zu erheben.
Steve Huffman, CEO von Reddit, sagte: „Der Datenbestand von Reddit ist sehr wertvoll, daher können wir diesen Wert den größten Unternehmen der Welt nicht kostenlos zur Verfügung stellen.“
Ebenfalls im April dieses Jahres beschuldigte Musk OpenAI Microsoft, Einer der Hauptbefürworter der Klage nutzte Twitter-Daten illegal zum Trainieren von KI-Modellen. „Zeit für einen Rechtsstreit“, twitterte er.
Als Antwort auf den Kommentar von Insider erklärte Microsoft jedoch, dass „diese Prämisse so viele Fehler enthält, dass ich nicht einmal weiß, wo ich anfangen soll.“
OpenAI-CEO Sam Altman hat versucht, dies zu untersuchen Ein neues KI-Modell, das das Urheberrecht respektiert, um dieses Problem zu verschärfen. Laut Axios sagte er kürzlich: „Wir versuchen, ein neues Modell zu entwickeln. Wenn das KI-System Ihre Inhalte verwendet oder Ihren Stil verwendet, werden Sie dafür bezahlt.“
Verleger (einschließlich Insider) werden alle eigene Interessen haben. Darüber hinaus drängen einige Verlage, darunter U.S. News Corp., bereits darauf, dass Technologieunternehmen dafür bezahlen, ihre Inhalte zum Trainieren von KI-Modellen zu nutzen.Die aktuelle Trainingsmethode von KI-Modellen hat das Netzwerk „zerbrochen“
Ein ehemaliger Microsoft-Manager sagte, dass es dabei ein Problem geben muss. Der Microsoft-Veteran und berühmte Softwareentwickler Steven Sinofsky glaubt, dass die aktuelle Trainingsmethode von KI-Modellen das Netzwerk „zerstört“.
Steven Sinofsky Er schrieb auf Twitter: „In der Vergangenheit wurden Crawling-Daten im Austausch für Klickraten verwendet. Aber jetzt werden sie nur noch verwendet, um ein Modell zu trainieren und.“ ist nicht gegeben. Urheber und Urheberrechtsinhaber bringen irgendeinen Mehrwert.“
Das obige ist der detaillierte Inhalt vonOpenAI und Google haben eine Doppelmoral: Sie nutzen die Daten anderer Leute, um große Modelle zu trainieren, lassen aber niemals zu, dass ihre eigenen Daten nach außen dringen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!