


OpenAI kündigt eine offene API an, damit Entwickler ChatGPT in ihre Produkte integrieren können
Am 2. März gab OpenAI bekannt, dass es Drittentwicklern nun ermöglicht, ChatGPT über eine API in ihre Anwendungen und Dienste zu integrieren. Dies wird viel kostengünstiger sein als die Verwendung vorhandener Sprachmodelle.
Darüber hinaus gab das Unternehmen bekannt, dass es die API für Whisper, ein KI-gestütztes Speech-to-Text-Modell, öffnet und einige wichtige Änderungen an den Nutzungsbedingungen für Entwickler vornimmt.
OpenAI gibt an, dass seine ChatGPT-API für mehr als nur die Erstellung einer KI-gestützten Chat-Schnittstelle verwendet werden kann, gab jedoch auch zu, dass mehrere Unternehmen sie für ähnliche Zwecke verwendet haben, darunter Anfang dieser Woche die My AI-Funktion von Snap angekündigt, ebenso wie die zuvor von Microsoft eingeführte Chat-Funktion für Bing.
Es ist erwähnenswert, dass dieses von OpenAI geöffnete Modell möglicherweise nicht das von Bing verwendete ist, da Microsoft es ein „neues OpenAI-Großsprachenmodell der nächsten Generation“ nennt, das besser ist als ChatGPT und GPT- 3,5" Schneller, genauer, leistungsstärker“.
Angesichts der Tatsache, dass Microsoft stark in OpenAI investiert hat, ist es natürlich nicht verwunderlich, dass das Unternehmen Zugriff auf Technologien hat, die über den Zuständigkeitsbereich gewöhnlicher Entwickler hinausgehen, und Microsoft verwendet in Bing auch seine eigene Technologie.
Natürlich verbessert OpenAI auch ständig das öffentliche ChatGPT-Modell, und Entwickler haben auch die Flexibilität, bestimmte Versionen auszuwählen, wie zum Beispiel gpt-3.5-turbo-0301, das heute veröffentlicht wurde. Es wird mindestens bis zum 1. Juni unterstützt, wobei gpt-3.5-turbo im April auf eine stabile Version aktualisiert wird.
Berichten zufolge wird OpenAI 1.000 Token zu einem Preis von 0,002 US-Dollar anbieten, „was 90 % günstiger ist als unser bestehendes GPT-3.5-Modell“, was teilweise auf „eine Reihe systemweiter Optimierungen“ zurückzuführen ist. .
▲Anfrage
▲Antwort
▲ Bindung von Python
Obwohl 1000 Token klingen wie eine Menge, aber normalerweise kann das Senden eines Textausschnitts mehrere Token erfordern . (Der hier erwähnte „Token“ bezieht sich auf die Textblöcke, in die das System Sätze und Wörter zerlegt, um vorherzusagen, welcher Text als nächstes ausgegeben werden soll.)
Laut der offiziellen OpenAI-Dokumentation ist der Wortsatz „ChatGPT“ großartig !" erfordert ein Token mit sechs Wörtern – die API unterteilt es in „Chat“, „G“, „PT“, „is“, „great“ und „!“.
Natürlich stellt das Unternehmen Entwicklern auch ein Tool zur Verfügung, mit dem sie überprüfen können, wie viele Token zur Interpretation einer Textzeichenfolge benötigt werden. Als allgemeine Faustregel gilt: „Ein Token entspricht normalerweise etwa 4 Zeichen“ im Englischen, sagten sie.
Entwickler können auch eine dedizierte ChatGPT-Instanz erhalten, wenn sie große Datenmengen über die API ausführen, so das Unternehmen. Dadurch haben Sie angeblich eine bessere Kontrolle über Parameter, etwa wie lange es dauert, auf eine Anfrage zu antworten und wie lange eine Konversation mit dem Bot dauern kann.
Das obige ist der detaillierte Inhalt vonOpenAI kündigt eine offene API an, damit Entwickler ChatGPT in ihre Produkte integrieren können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen





DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

Im Jahr 2023 ist die KI-Technologie zu einem heißen Thema geworden und hat enorme Auswirkungen auf verschiedene Branchen, insbesondere im Programmierbereich. Die Bedeutung der KI-Technologie wird den Menschen zunehmend bewusst, und die Spring-Community bildet da keine Ausnahme. Mit der kontinuierlichen Weiterentwicklung der GenAI-Technologie (General Artificial Intelligence) ist es entscheidend und dringend geworden, die Erstellung von Anwendungen mit KI-Funktionen zu vereinfachen. Vor diesem Hintergrund entstand „SpringAI“ mit dem Ziel, den Prozess der Entwicklung von KI-Funktionsanwendungen zu vereinfachen, ihn einfach und intuitiv zu gestalten und unnötige Komplexität zu vermeiden. Durch „SpringAI“ können Entwickler einfacher Anwendungen mit KI-Funktionen erstellen, wodurch diese einfacher zu verwenden und zu bedienen sind.

OpenAI kündigte kürzlich die Einführung seines Einbettungsmodells embeddingv3 der neuesten Generation an, das seiner Meinung nach das leistungsstärkste Einbettungsmodell mit höherer Mehrsprachenleistung ist. Diese Reihe von Modellen ist in zwei Typen unterteilt: das kleinere Text-Embeddings-3-Small und das leistungsfähigere und größere Text-Embeddings-3-Large. Es werden nur wenige Informationen darüber offengelegt, wie diese Modelle entworfen und trainiert werden, und auf die Modelle kann nur über kostenpflichtige APIs zugegriffen werden. Es gab also viele Open-Source-Einbettungsmodelle. Aber wie schneiden diese Open-Source-Modelle im Vergleich zum Closed-Source-Modell von OpenAI ab? In diesem Artikel wird die Leistung dieser neuen Modelle empirisch mit Open-Source-Modellen verglichen. Wir planen, Daten zu erstellen

Installationsschritte: 1. Laden Sie die ChatGTP-Software von der offiziellen ChatGTP-Website oder dem mobilen Store herunter. 2. Wählen Sie nach dem Öffnen in der Einstellungsoberfläche die Sprache aus. 3. Wählen Sie in der Spieloberfläche das Mensch-Maschine-Spiel aus 4. Geben Sie nach dem Start Befehle in das Chatfenster ein, um mit der Software zu interagieren.

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Autor丨Zusammengestellt von TimAnderson丨Produziert von Noah|51CTO Technology Stack (WeChat-ID: blog51cto) Das Zed-Editor-Projekt befindet sich noch in der Vorabversionsphase und wurde unter AGPL-, GPL- und Apache-Lizenzen als Open Source bereitgestellt. Der Editor zeichnet sich durch hohe Leistung und mehrere KI-gestützte Optionen aus, ist jedoch derzeit nur auf der Mac-Plattform verfügbar. Nathan Sobo erklärte in einem Beitrag, dass in der Codebasis des Zed-Projekts auf GitHub der Editor-Teil unter der GPL lizenziert ist, die serverseitigen Komponenten unter der AGPL lizenziert sind und der GPUI-Teil (GPU Accelerated User) die Schnittstelle übernimmt Apache2.0-Lizenz. GPUI ist ein vom Zed-Team entwickeltes Produkt

Vor nicht allzu langer Zeit wurde OpenAISora mit seinen erstaunlichen Videogenerierungseffekten schnell populär und stach aus der Masse der literarischen Videomodelle hervor und rückte in den Mittelpunkt der weltweiten Aufmerksamkeit. Nach der Einführung des Sora-Trainings-Inferenzreproduktionsprozesses mit einer Kostenreduzierung von 46 % vor zwei Wochen hat das Colossal-AI-Team das weltweit erste Sora-ähnliche Architektur-Videogenerierungsmodell „Open-Sora1.0“ vollständig als Open-Source-Lösung bereitgestellt, das das gesamte Spektrum abdeckt Lernen Sie den Trainingsprozess, einschließlich der Datenverarbeitung, aller Trainingsdetails und Modellgewichte, kennen und schließen Sie sich mit globalen KI-Enthusiasten zusammen, um eine neue Ära der Videoerstellung voranzutreiben. Schauen wir uns für einen kleinen Vorgeschmack ein Video einer geschäftigen Stadt an, das mit dem vom Colossal-AI-Team veröffentlichten Modell „Open-Sora1.0“ erstellt wurde. Open-Sora1.0

Ollama ist ein superpraktisches Tool, mit dem Sie Open-Source-Modelle wie Llama2, Mistral und Gemma problemlos lokal ausführen können. In diesem Artikel werde ich vorstellen, wie man Ollama zum Vektorisieren von Text verwendet. Wenn Sie Ollama nicht lokal installiert haben, können Sie diesen Artikel lesen. In diesem Artikel verwenden wir das Modell nomic-embed-text[2]. Es handelt sich um einen Text-Encoder, der OpenAI text-embedding-ada-002 und text-embedding-3-small bei kurzen und langen Kontextaufgaben übertrifft. Starten Sie den nomic-embed-text-Dienst, wenn Sie o erfolgreich installiert haben
