Inhaltsverzeichnis
Was ist ChatGPT?
1. Sicherheitsbedrohungen und Datenschutzprobleme
2. Bedenken hinsichtlich der ChatGPT-Schulung und Datenschutzproblemen
ChatGPT ist nicht gut in grundlegender Mathematik, kann einfache Logikfragen nicht beantworten und argumentiert sogar völlig falsche Fakten. Wie Menschen in den sozialen Medien bestätigen können, kann ChatGPT bei vielen Gelegenheiten schief gehen.
4. Das System von ChatGPT ist voreingenommen.
5. Chat-Technologie kann menschliche Arbeitsplätze ersetzen
6. Chat-Technologie ist zu einer Herausforderung für die Bildungsbranche geworden
7. ChatGPT könnte realen Schaden anrichten
8. Das Unternehmen OpenAI hat die Macht, alles zu kontrollieren.
Lösung der größten Probleme der künstlichen Intelligenz
Heim Technologie-Peripheriegeräte KI Acht große Probleme, die durch ChatGPT von OpenAI verursacht werden

Acht große Probleme, die durch ChatGPT von OpenAI verursacht werden

May 16, 2023 am 10:34 AM
openai 聊天机器人

Acht große Probleme, die durch ChatGPT von OpenAI verursacht werden

ChatGPT ist ein leistungsstarker Chatbot mit künstlicher Intelligenz, der die Menschen nach seiner Einführung schnell beeindruckte, aber viele Leute wiesen darauf hin, dass er einige schwerwiegende Mängel aufweist.

Von Sicherheitslücken über Datenschutzbedenken bis hin zu nicht offengelegten Trainingsdaten gibt es viele Bedenken hinsichtlich des Einsatzes von Chatbots mit künstlicher Intelligenz, aber die Technologie wird bereits in Apps integriert und von einer großen Anzahl von Benutzern genutzt , vom Studenten bis zum Firmenangestellten.

Da die Entwicklung der künstlichen Intelligenz keine Anzeichen einer Verlangsamung zeigt, ist es umso wichtiger, die Probleme mit ChatGPT zu verstehen. Da ChatGPT die Zukunft der Menschen verändern wird, sind hier einige der wichtigsten Probleme mit ChatGPT.

Was ist ChatGPT?

ChatGPT ist ein groß angelegtes Sprachmodell zur Erzeugung natürlicher menschlicher Sprache. So wie man mit jemandem spricht, können Menschen mit ChatGPT sprechen und es merkt sich, was andere in der Vergangenheit gesagt haben, und ist gleichzeitig in der Lage, sich selbst zu korrigieren, wenn es herausgefordert wird.

Es wird auf eine Vielzahl von Texten aus dem Internet trainiert, wie z. B. Wikipedia, Blogbeiträge, Bücher und wissenschaftliche Artikel. Es reagiert nicht nur menschenähnlich, sondern kann auch Informationen über die heutige Welt abrufen und historische Informationen aus der Vergangenheit extrahieren.

Es ist leicht zu erlernen, wie man ChatGPT verwendet, und man lässt sich leicht täuschen und glauben, das KI-System habe keine Probleme. In den Monaten seit seiner Veröffentlichung sind jedoch wichtige Fragen zu Privatsphäre, Sicherheit und deren weitreichenderen Auswirkungen auf das Leben der Menschen, von der Arbeit bis zur Bildung, aufgetaucht.

1. Sicherheitsbedrohungen und Datenschutzprobleme

Im März 2023 trat eine Sicherheitslücke in ChatGPT auf und einige Benutzer sahen die Konversationstitel anderer Personen in ihrer Seitenleiste. Das versehentliche Teilen des Chat-Verlaufs eines Benutzers ist für jedes Technologieunternehmen ein ernstes Problem und besonders schlimm, wenn man bedenkt, wie viele Menschen diesen beliebten Chatbot verwenden.

Laut Reuters erreichten allein im Januar 2023 die monatlichen aktiven Nutzer von ChatGPT 100 Millionen. Obwohl die Schwachstelle, die zum Datenleck führte, schnell behoben wurde, forderte die italienische Datenaufsichtsbehörde OpenAI auf, alle Vorgänge zur Verarbeitung italienischer Benutzerdaten einzustellen.

Die Agentur vermutet, dass ChatGPT gegen europäische Datenschutzbestimmungen verstoßen hat. Nach der Untersuchung des Problems wurde OpenAI gebeten, mehrere Anforderungen zu erfüllen, bevor der Chatbot wieder eingesetzt werden konnte.

OpenAI hat das Problem schließlich durch mehrere große Änderungen gelöst. Erstens wurden Altersbeschränkungen hinzugefügt, sodass nur Personen über 18 oder über 13 Jahren die Anwendung mit Erlaubnis ihres Erziehungsberechtigten nutzen können. Darüber hinaus wurden die Datenschutzrichtlinien besser sichtbar gemacht und Benutzern ein Opt-out-Formular zur Verfügung gestellt, mit dem sie ihre Daten von der Verwendung zum Trainieren von ChatGPT ausschließen oder sie auf Wunsch vollständig löschen können.

Diese Änderungen sind ein guter Anfang, aber diese Verbesserungen sollten auf alle ChatGPT-Benutzer ausgeweitet werden.

Das ist nicht die einzige Art und Weise, wie ChatGPT eine Sicherheitsbedrohung darstellt. Ebenso wie Benutzer ist es für Mitarbeiter leicht, versehentlich vertrauliche Informationen weiterzugeben. Ein gutes Beispiel ist, dass Samsung-Mitarbeiter mehrfach Unternehmensinformationen mit ChatGPT geteilt haben.

2. Bedenken hinsichtlich der ChatGPT-Schulung und Datenschutzproblemen

Nach der Popularität von ChatGPT stellten viele Menschen die Frage, wie OpenAI sein Modell überhaupt trainierte.

Selbst nach der Datenschutzverletzung in Italien verbesserte sich die Datenschutzrichtlinie des Unternehmens OpenAI, es hatte jedoch Schwierigkeiten, die Anforderungen der Datenschutz-Grundverordnung, einem europaweiten Datenschutzgesetz, zu erfüllen. Wie TechCrunch berichtet: „Es ist unklar, ob das GPT-Modell auf die persönlichen Daten der Italiener trainiert wurde, d Die Daten, die zuvor zum Trainieren des Modells verwendet wurden, werden gelöscht oder können gelöscht werden. Während die US-Gesetze weniger eindeutig sind, konzentrieren sich die europäischen Datenschutzvorschriften immer noch auf den Schutz personenbezogener Daten, unabhängig davon, ob diese Informationen öffentlich oder privat veröffentlicht werden.

Künstler haben ähnliche Argumente gegen die Verwendung als Trainingsdaten vorgebracht und erklärt, sie hätten nie zugestimmt, dass ihre Arbeit an KI-Modellen trainiert wird. Unterdessen verklagte Getty Images das Unternehmen Stability.AI, weil es seine urheberrechtlich geschützten Bilder zum Trainieren seines Modells für künstliche Intelligenz verwendet hatte.

Solange das OpenAI-Unternehmen seine Trainingsdaten nicht veröffentlicht, mangelt es an Transparenz und es ist schwierig zu wissen, ob es legal ist. Beispielsweise wissen die Leute einfach nicht die Details des ChatGPT-Trainings, welche Daten verwendet wurden, woher die Daten kamen oder wie die Details der Systemarchitektur aussehen.

3. ChatGPT generiert falsche Antworten

ChatGPT ist nicht gut in grundlegender Mathematik, kann einfache Logikfragen nicht beantworten und argumentiert sogar völlig falsche Fakten. Wie Menschen in den sozialen Medien bestätigen können, kann ChatGPT bei vielen Gelegenheiten schief gehen.

OpenAI Corporation ist sich dieser Einschränkungen bewusst. „ChatGPT schreibt manchmal Antworten, die vernünftig klingen, aber falsch sind oder keinen Sinn ergeben“, sagte das Unternehmen. Diese Illusion von Fakten und Fiktionen kann, wie das Unternehmen feststellt, für medizinische Ratschläge oder Interpretationen wichtiger historischer Ereignisse nützlich sein besonders gefährlich für Dinge wie das richtige Verständnis von Sachverhalten.

Im Gegensatz zu anderen künstlichen Intelligenzassistenten wie Siri oder Alexa nutzt ChatGPT nicht das Internet, um nach Antworten zu suchen. Stattdessen baut es Sätze Wort für Wort auf und wählt basierend auf dem Training die wahrscheinlichsten „Tokens“ aus. Mit anderen Worten: ChatGPT leitet seine Antworten durch eine Reihe von Vermutungen ab, weshalb es falsche Antworten so argumentieren kann, als ob sie völlig richtig wären.

Obwohl es sich hervorragend zum Erklären komplexer Konzepte eignet und es zu einem leistungsstarken Lernwerkzeug macht, ist es wichtig, nicht alles zu glauben, was darin steht. ChatGPT ist nicht immer korrekt, zumindest noch nicht.

4. Das System von ChatGPT ist voreingenommen.

ChatGPT ist auf vergangene und gegenwärtige Schriften von Menschen auf der ganzen Welt spezialisiert. Leider bedeutet dies, dass Vorurteile, die in der realen Welt bestehen, auch in KI-Modellen auftauchen können.

ChatGPT liefert nachweislich einige schlechte Antworten, die Geschlecht, Rasse und Minderheiten diskriminieren, und das Unternehmen arbeitet daran, diese Probleme zu reduzieren.

Eine Möglichkeit, dies zu erklären, besteht darin, auf Daten als Problem hinzuweisen und den Menschen die Schuld für Voreingenommenheit im und außerhalb des Internets zuzuschieben. Ein Teil der Schuld liegt aber auch bei der Firma OpenAI, deren Forscher und Entwickler die Daten ausgewählt haben, die zum Trainieren von ChatGPT verwendet wurden.

OpenAI ist sich wieder einmal bewusst, dass es sich hier um ein Problem handelt und gibt an, „voreingenommenes Verhalten“ anzugehen, indem es Feedback von Benutzern sammelt und sie dazu ermutigt, ChatGPT-Ausgaben zu kennzeichnen, die schlecht, anstößig oder einfach falsch sind.

Aufgrund des Potenzials von ChatGPT, Menschen Schaden zuzufügen, könnte man argumentieren, dass ChatGPT nicht der Öffentlichkeit zugänglich gemacht werden sollte, bis diese Probleme untersucht und gelöst sind. Aber der Drang, das erste Unternehmen zu sein, das das leistungsstärkste Modell der künstlichen Intelligenz entwickelt, reichte für OpenAI aus, alle Vorsichtsmaßnahmen in den Wind zu schlagen.

Im Gegensatz dazu veröffentlichte der Google-Mutterkonzern Aalphabet im September 2022 einen ähnlichen Chatbot mit künstlicher Intelligenz namens „Sparrow“. Der Roboter wurde jedoch aufgrund ähnlicher Sicherheitsbedenken aufgegeben.

Etwa zur gleichen Zeit veröffentlichte Facebook ein Sprachmodell für künstliche Intelligenz namens Galactica, das die akademische Forschung unterstützen soll. Es wurde jedoch schnell zurückgerufen, nachdem viele kritisiert hatten, dass es fehlerhafte und voreingenommene Ergebnisse im Zusammenhang mit der wissenschaftlichen Forschung lieferte.

5. Chat-Technologie kann menschliche Arbeitsplätze ersetzen

Die schnelle Entwicklung und Bereitstellung von ChatGPT hat sich noch nicht eingependelt, aber das hat die Integration der zugrunde liegenden Technologie in viele kommerzielle Anwendungen nicht verhindert Bewerbungen in Bearbeitung. Zu den Apps, die GPT-4 integriert haben, gehören Duolingo und Khan Academy.

Ersteres ist eine Sprachlernanwendung, während letzteres ein vielfältiges pädagogisches Lernwerkzeug ist. Beide bieten im Wesentlichen KI-Tutoren oder in Form von KI-gesteuerten Charakteren an, mit denen sich Benutzer in der Sprache unterhalten können, die sie lernen. Oder als KI-Tutor, der maßgeschneidertes Feedback zu ihrem Lernen geben kann.

Dies ist möglicherweise erst der Anfang dafür, dass künstliche Intelligenz menschliche Arbeitsplätze ersetzt. Zu den weiteren Arbeitsplätzen in der Branche, die von Störungen betroffen sind, gehören Rechtsanwaltsgehilfen, Anwälte, Texter, Journalisten und Programmierer.

Einerseits kann künstliche Intelligenz die Art und Weise verändern, wie Menschen lernen. Sie kann es einfacher machen, Bildung und Ausbildung zu erhalten, und der Lernprozess wird einfacher. Andererseits werden aber auch zahlreiche menschliche Arbeitsplätze verschwinden.

Laut dem britischen „Guardian“-Bericht erlitten Bildungseinrichtungen an den Börsen in London und New York enorme Verluste, was die Störungen durch künstliche Intelligenz in einigen Märkten nur 6 Monate nach der Einführung von ChatGPT verdeutlicht.

Technologischer Fortschritt wird immer dazu führen, dass einige Menschen ihren Arbeitsplatz verlieren, aber die Geschwindigkeit der Entwicklung künstlicher Intelligenz führt dazu, dass mehrere Branchen gleichzeitig mit schnellen Veränderungen konfrontiert sind. Es ist unbestreitbar, dass ChatGPT und die zugrunde liegende Technologie die moderne Welt der Menschen völlig verändern werden.

6. Chat-Technologie ist zu einer Herausforderung für die Bildungsbranche geworden

Benutzer können ChatGPT bitten, ihre Artikel Korrektur zu lesen oder Hinweise zur Verbesserung von Absätzen zu geben. Oder Benutzer können sich völlig frei machen und ChatGPT das gesamte Schreiben für sie erledigen lassen.

Viele Lehrer haben versucht, Aufgaben auf ChatGPT zu geben und haben bessere Antworten erhalten als viele Schüler. Vom Schreiben eines Anschreibens bis hin zur Beschreibung der Hauptthemen berühmter literarischer Werke kann ChatGPT alle Aufgaben ohne zu zögern erledigen.

Das wirft die Frage auf: Wenn ChatGPT für Menschen schreiben kann, müssen Studenten dann auch in Zukunft das Schreiben lernen? Es scheint eine existenzielle Frage zu sein, aber wenn Studenten anfangen, ChatGPT zu verwenden, um ihnen beim Schreiben von Arbeiten zu helfen Wenn die Situation eintritt, muss die Schule so schnell wie möglich Reaktionsmaßnahmen ergreifen.

Es sind nicht nur englischsprachige Fächer, die gefährdet sind, ChatGPT kann Menschen bei jeder Aufgabe helfen, die Brainstorming, Zusammenfassungen oder das Ziehen kluger Schlussfolgerungen beinhaltet.

Es überrascht nicht, dass einige Studierende bereits mit künstlicher Intelligenz experimentieren. Laut Stanford Daily zeigen erste Umfragen, dass viele Studenten künstliche Intelligenz nutzen, um Aufgaben und Prüfungen zu erledigen. Als Reaktion darauf schreiben einige Pädagogen Kurse um, um mit Schülern umzugehen, die künstliche Intelligenz nutzen, um Kurse zu navigieren oder bei Tests zu betrügen.

7. ChatGPT könnte realen Schaden anrichten

Kurz nach seiner Veröffentlichung versuchte jemand, ChatGPT zu hacken, was zu einem künstlichen Intelligenzmodell führte, das die Sicherheitsvorkehrungen von OpenAI umgehen konnte, um zu verhindern, dass es anstößigen und gefährlichen Text generiert.

ChatGPT Eine Gruppe von Benutzern auf Reddit nannte ihr uneingeschränktes KI-Modell DAN, kurz für „Do Anything Now“. Leider hat das Tun, was einem gefällt, zu einer Zunahme von Online-Betrügereien durch Hacker geführt. Laut einem Bericht von Ars Technica verkaufen Hacker widerspenstige ChatGPT-Dienste, die Malware erstellen und Phishing-E-Mails generieren können.

Der Versuch, Phishing-E-Mails zu erkennen, die darauf abzielen, vertrauliche Informationen von Personen abzugreifen, ist mit KI-generiertem Text viel schwieriger. Früher waren Grammatikfehler ein eklatantes Warnsignal, aber jetzt ist das vielleicht nicht mehr der Fall, denn ChatGPT kann eine Vielzahl von Texten fließend schreiben, von Prosa über Gedichte bis hin zu E-Mails.

Auch die Verbreitung falscher Informationen ist ein ernstes Problem. Der Umfang des von ChatGPT generierten Texts in Kombination mit der Fähigkeit, Fehlinformationen überzeugend klingen zu lassen, macht alles im Internet verdächtig und verschärft die Gefahren der Deepfake-Technologie.

Die Geschwindigkeit, mit der ChatGPT Informationen generiert, hat Stack Exchange, einer Website, die sich der Bereitstellung der richtigen Antworten auf alltägliche Fragen widmet, Probleme bereitet. Kurz nach der Veröffentlichung von ChatGPT baten viele Benutzer ChatGPT, Antworten zu generieren.

Ohne genügend menschliche Freiwillige, die diese Informationen sortieren, ist es unmöglich, qualitativ hochwertige Antworten zu liefern. Ganz zu schweigen davon, dass einige der Antworten einfach nicht korrekt sind. Um eine Beschädigung der Website zu vermeiden, deaktiviert Stack Exchange die Verwendung von ChatGPT zum Generieren aller Antworten.

8. Das Unternehmen OpenAI hat die Macht, alles zu kontrollieren.

Mit größerer Macht geht auch größere Verantwortung einher, und das Unternehmen OpenAI hat viel Macht. Es ist einer der ersten KI-Entwickler, der tatsächlich KI-Modelle mit mehreren Modellen generiert, darunter Dall-E 2, GPT-3 und GPT-4.

Als privates Unternehmen wählt OpenAI die Daten aus, die zum Trainieren von ChatGPT verwendet werden, und entscheidet, wie schnell neue Entwicklungen eingeführt werden können. Daher warnen viele Experten vor den Gefahren, die von künstlicher Intelligenz ausgehen, es gibt jedoch kaum Anzeichen dafür, dass die Gefahren nachlassen werden.

Stattdessen hat die Popularität von ChatGPT den Wettbewerb zwischen großen Technologieunternehmen angespornt, das nächste große KI-Modell auf den Markt zu bringen, darunter Microsofts Bing AI und Googles Bard. Eine Reihe von Technologieführern auf der ganzen Welt haben einen Brief unterzeichnet, in dem sie eine Verzögerung bei der Entwicklung von Modellen für künstliche Intelligenz fordern, da sie befürchten, dass eine schnelle Entwicklung zu ernsthaften Sicherheitsproblemen führen könnte.

Obwohl OpenAI davon überzeugt ist, dass Sicherheit höchste Priorität hat, wissen die Menschen immer noch nicht viel darüber, wie das Modell selbst funktioniert – im Guten wie im Schlechten. Letztendlich vertrauen die meisten Menschen möglicherweise blind darauf, dass OpenAI ChatGPT verantwortungsvoll erforscht, entwickelt und nutzt.

Ob man mit seinen Methoden einverstanden ist oder nicht, sollte man bedenken, dass OpenAI ein privates Unternehmen ist und das Unternehmen ChatGPT gemäß seinen eigenen Zielen und ethischen Standards weiterentwickeln wird.

Lösung der größten Probleme der künstlichen Intelligenz

Bei ChatGPT gibt es viel Grund zur Freude, aber über seinen unmittelbaren Nutzen hinaus gibt es einige ernsthafte Probleme.

OpenAI erkennt an, dass ChatGPT möglicherweise schädliche, voreingenommene Antworten liefert, und hofft, dieses Problem durch das Sammeln von Benutzerfeedback entschärfen zu können. Aber selbst wenn das nicht der Fall ist, kann es zu überzeugenden Texten kommen, die leicht von schlechten Schauspielern ausgenutzt werden könnten.

Datenschutz- und Sicherheitslücken haben gezeigt, dass die Systeme von OpenAI anfällig sein können, wodurch die persönlichen Daten der Benutzer gefährdet werden. Um die Sache noch besorgniserregender zu machen, knacken einige Leute ChatGPT und verwenden uneingeschränkte Versionen, um Malware und Betrug in beispiellosem Ausmaß zu erstellen.

Bedrohung von Arbeitsplätzen und mögliche Störungen in der Bildungsbranche sind zunehmende Probleme. Angesichts der brandneuen Technologie ist es schwer vorherzusagen, welche Probleme in Zukunft auftreten werden, und leider hat ChatGPT bereits eine Menge Herausforderungen mit sich gebracht.

Das obige ist der detaillierte Inhalt vonAcht große Probleme, die durch ChatGPT von OpenAI verursacht werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Wählen Sie das Einbettungsmodell, das am besten zu Ihren Daten passt: Ein Vergleichstest von OpenAI und mehrsprachigen Open-Source-Einbettungen Wählen Sie das Einbettungsmodell, das am besten zu Ihren Daten passt: Ein Vergleichstest von OpenAI und mehrsprachigen Open-Source-Einbettungen Feb 26, 2024 pm 06:10 PM

OpenAI kündigte kürzlich die Einführung seines Einbettungsmodells embeddingv3 der neuesten Generation an, das seiner Meinung nach das leistungsstärkste Einbettungsmodell mit höherer Mehrsprachenleistung ist. Diese Reihe von Modellen ist in zwei Typen unterteilt: das kleinere Text-Embeddings-3-Small und das leistungsfähigere und größere Text-Embeddings-3-Large. Es werden nur wenige Informationen darüber offengelegt, wie diese Modelle entworfen und trainiert werden, und auf die Modelle kann nur über kostenpflichtige APIs zugegriffen werden. Es gab also viele Open-Source-Einbettungsmodelle. Aber wie schneiden diese Open-Source-Modelle im Vergleich zum Closed-Source-Modell von OpenAI ab? In diesem Artikel wird die Leistung dieser neuen Modelle empirisch mit Open-Source-Modellen verglichen. Wir planen, Daten zu erstellen

Ein neues Programmierparadigma, wenn Spring Boot auf OpenAI trifft Ein neues Programmierparadigma, wenn Spring Boot auf OpenAI trifft Feb 01, 2024 pm 09:18 PM

Im Jahr 2023 ist die KI-Technologie zu einem heißen Thema geworden und hat enorme Auswirkungen auf verschiedene Branchen, insbesondere im Programmierbereich. Die Bedeutung der KI-Technologie wird den Menschen zunehmend bewusst, und die Spring-Community bildet da keine Ausnahme. Mit der kontinuierlichen Weiterentwicklung der GenAI-Technologie (General Artificial Intelligence) ist es entscheidend und dringend geworden, die Erstellung von Anwendungen mit KI-Funktionen zu vereinfachen. Vor diesem Hintergrund entstand „SpringAI“ mit dem Ziel, den Prozess der Entwicklung von KI-Funktionsanwendungen zu vereinfachen, ihn einfach und intuitiv zu gestalten und unnötige Komplexität zu vermeiden. Durch „SpringAI“ können Entwickler einfacher Anwendungen mit KI-Funktionen erstellen, wodurch diese einfacher zu verwenden und zu bedienen sind.

Der Rust-basierte Zed-Editor ist Open Source und bietet integrierte Unterstützung für OpenAI und GitHub Copilot Der Rust-basierte Zed-Editor ist Open Source und bietet integrierte Unterstützung für OpenAI und GitHub Copilot Feb 01, 2024 pm 02:51 PM

Autor丨Zusammengestellt von TimAnderson丨Produziert von Noah|51CTO Technology Stack (WeChat-ID: blog51cto) Das Zed-Editor-Projekt befindet sich noch in der Vorabversionsphase und wurde unter AGPL-, GPL- und Apache-Lizenzen als Open Source bereitgestellt. Der Editor zeichnet sich durch hohe Leistung und mehrere KI-gestützte Optionen aus, ist jedoch derzeit nur auf der Mac-Plattform verfügbar. Nathan Sobo erklärte in einem Beitrag, dass in der Codebasis des Zed-Projekts auf GitHub der Editor-Teil unter der GPL lizenziert ist, die serverseitigen Komponenten unter der AGPL lizenziert sind und der GPUI-Teil (GPU Accelerated User) die Schnittstelle übernimmt Apache2.0-Lizenz. GPUI ist ein vom Zed-Team entwickeltes Produkt

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Xiaohongshu beginnt mit dem Testen des KI-Chatbots „Da Vinci' Xiaohongshu beginnt mit dem Testen des KI-Chatbots „Da Vinci' Jan 15, 2024 pm 12:42 PM

Xiaohongshu arbeitet daran, seine Produkte durch das Hinzufügen weiterer Funktionen für künstliche Intelligenz zu bereichern. Inländischen Medienberichten zufolge testet Xiaohongshu intern eine KI-Anwendung namens „Davinci“ in seiner Haupt-App. Es wird berichtet, dass die Anwendung Benutzern KI-Chat-Dienste wie intelligente Fragen und Antworten bieten kann, darunter Reiseführer, Lebensmittelführer, geografisches und kulturelles Wissen, Lebenskompetenzen, persönliches Wachstum und psychologische Konstruktion usw. Berichten zufolge „Davinci“ Verwendet das LLAMA-Modell unter Meta A für Schulungen. Das Produkt wurde seit September dieses Jahres getestet. Es gibt Gerüchte, dass Xiaohongshu auch einen internen Test einer Gruppen-KI-Konversationsfunktion durchführte. Mit dieser Funktion können Benutzer KI-Charaktere in Gruppenchats erstellen oder vorstellen und mit ihnen Gespräche und Interaktionen führen. Bildquelle: T

Warten Sie nicht auf OpenAI, sondern darauf, dass Open-Sora vollständig Open Source ist Warten Sie nicht auf OpenAI, sondern darauf, dass Open-Sora vollständig Open Source ist Mar 18, 2024 pm 08:40 PM

Vor nicht allzu langer Zeit wurde OpenAISora mit seinen erstaunlichen Videogenerierungseffekten schnell populär und stach aus der Masse der literarischen Videomodelle hervor und rückte in den Mittelpunkt der weltweiten Aufmerksamkeit. Nach der Einführung des Sora-Trainings-Inferenzreproduktionsprozesses mit einer Kostenreduzierung von 46 % vor zwei Wochen hat das Colossal-AI-Team das weltweit erste Sora-ähnliche Architektur-Videogenerierungsmodell „Open-Sora1.0“ vollständig als Open-Source-Lösung bereitgestellt, das das gesamte Spektrum abdeckt Lernen Sie den Trainingsprozess, einschließlich der Datenverarbeitung, aller Trainingsdetails und Modellgewichte, kennen und schließen Sie sich mit globalen KI-Enthusiasten zusammen, um eine neue Ära der Videoerstellung voranzutreiben. Schauen wir uns für einen kleinen Vorgeschmack ein Video einer geschäftigen Stadt an, das mit dem vom Colossal-AI-Team veröffentlichten Modell „Open-Sora1.0“ erstellt wurde. Open-Sora1.0

Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Apr 15, 2024 am 09:01 AM

Ollama ist ein superpraktisches Tool, mit dem Sie Open-Source-Modelle wie Llama2, Mistral und Gemma problemlos lokal ausführen können. In diesem Artikel werde ich vorstellen, wie man Ollama zum Vektorisieren von Text verwendet. Wenn Sie Ollama nicht lokal installiert haben, können Sie diesen Artikel lesen. In diesem Artikel verwenden wir das Modell nomic-embed-text[2]. Es handelt sich um einen Text-Encoder, der OpenAI text-embedding-ada-002 und text-embedding-3-small bei kurzen und langen Kontextaufgaben übertrifft. Starten Sie den nomic-embed-text-Dienst, wenn Sie o erfolgreich installiert haben

Microsoft und OpenAI planen, 100 Millionen US-Dollar in humanoide Roboter zu investieren! Internetnutzer rufen Musk an Microsoft und OpenAI planen, 100 Millionen US-Dollar in humanoide Roboter zu investieren! Internetnutzer rufen Musk an Feb 01, 2024 am 11:18 AM

Anfang des Jahres wurde bekannt, dass Microsoft und OpenAI große Geldsummen in ein Startup für humanoide Roboter investieren. Unter anderem plant Microsoft, 95 Millionen US-Dollar zu investieren, und OpenAI wird 5 Millionen US-Dollar investieren. Laut Bloomberg wird das Unternehmen in dieser Runde voraussichtlich insgesamt 500 Millionen US-Dollar einsammeln, und seine Pre-Money-Bewertung könnte 1,9 Milliarden US-Dollar erreichen. Was zieht sie an? Werfen wir zunächst einen Blick auf die Robotik-Erfolge dieses Unternehmens. Dieser Roboter ist ganz in Silber und Schwarz gehalten und ähnelt in seinem Aussehen dem Abbild eines Roboters in einem Hollywood-Science-Fiction-Blockbuster: Jetzt steckt er eine Kaffeekapsel in die Kaffeemaschine: Wenn sie nicht richtig platziert ist, passt sie sich von selbst an menschliche Fernbedienung: Nach einer Weile kann jedoch eine Tasse Kaffee mitgenommen und genossen werden: Haben Sie Familienmitglieder, die es erkannt haben? Ja, dieser Roboter wurde vor einiger Zeit erstellt.

See all articles