Heim > Technologie-Peripheriegeräte > KI > Was ChatGPT und generative KI in der digitalen Transformation bedeuten

Was ChatGPT und generative KI in der digitalen Transformation bedeuten

PHPz
Freigeben: 2023-05-15 10:19:12
nach vorne
1170 Leute haben es durchsucht

Was ChatGPT und generative KI in der digitalen Transformation bedeuten

OpenAI, das Unternehmen, das ChatGPT entwickelt hat, zeigt auf seiner Website eine von Morgan Stanley durchgeführte Fallstudie. Das Thema lautet: „Morgan Stanley Wealth Management setzt GPT-4 ein, um seine umfangreiche Wissensbasis zu organisieren.“ In der Fallstudie wird Jeff McMillan, Leiter für Analytik, Daten und Innovation bei Morgan Stanley, mit den Worten zitiert: „Das Modell wird eine interne Grundlage bieten.“ Chatbot, der eine umfassende Suche nach Vermögensverwaltungsinhalten durchführt und das gesammelte Wissen von Morgan Stanley Wealth Management effektiv erschließt.“

McMillan betonte weiter: „Mit GPT-4 verfügen Sie im Grunde sofort über das Wissen der sachkundigsten Person in der Vermögensverwaltung … Stellen Sie sich das wie unseren Chef-Investmentstrategen, Chef-Globalökonomen, globale Aktienstrategen und jeden anderen Analysten vor.“ Wir sind davon überzeugt, dass dies eine transformative Fähigkeit für unser Unternehmen ist.“

Dies ist das ultimative Ziel des Wissensmanagements – Wissen in das Unternehmen zu bringen Tools, die mit Kunden interagieren.

Ist generative KI also die Antwort auf Wissenszugang, -abruf und -anwendung? Bevor der Sieg über das Informationschaos verkündet wird, ist es wichtig, einige grundlegende Elemente und Überlegungen zu berücksichtigen.

Erstens steckt hinter der Wahrnehmung, dass generative KI die Herausforderungen des Wissensmanagements bewältigen kann, die Annahme, dass Wissen in einer expliziten, dokumentierten Form vorliegt. In den meisten Unternehmen ist das Wissen jedoch in den Köpfen der Mitarbeiter verankert, und wenn es in digitaler Form gespeichert wird, ist es in Silos innerhalb eines Ökosystems aus Abteilungen, Technologien und Repositories verteilt. OpenAI weist auf seiner Website außerdem darauf hin, dass Morgan Stanley jedes Jahr Tausende von Artikeln zu Kapitalmärkten, Anlageklassen, Branchenanalysen und globalen Wirtschaftsregionen veröffentlicht. Dieser Wissensschatz schafft ein einzigartiges Erlebnis für Morgan Stanley können mit GPT-4 verarbeitet und geparst sowie intern gesteuert werden. Morgan Stanley verfügt über Kenntnisse, die die Grundlage für die Nutzung des groß angelegten Sprachmodells von ChatGPT bilden könnten. Wenn Unternehmensinhalte und Wissensressourcen nicht zugänglich, von schlechter Qualität oder nicht mit den Bedürfnissen von Kunden und Mitarbeitern vereinbar sind, hat ChatGPT keinen Zugriff auf das spezifische Wissen, das diesen Bedürfnissen entspricht.

Zweitens erstellt generative künstliche Intelligenz Inhalte. Es handelt sich nicht um einen Abrufmechanismus. Wie wird also die ursprüngliche Wissensbasis genutzt? Dies ist ein heikler Bereich. ChatGPT sucht nach Mustern in Inhalts- und Konzeptbeziehungen, um anhand der Eingabeaufforderungen vorhersagen zu können, welcher Text angezeigt werden soll. Die Eingabeaufforderung ist ein Signal, genau wie der Suchbegriff ein Signal ist. Suchmaschinen sagen nicht nur anhand von Begriffen voraus, welche Informationen angezeigt werden sollen, sondern auch anhand anderer für das Abfrageszenario relevanter Signale, etwa der Branche oder der Rolle des Suchenden. Szenarien können ChatGPT in Form von Fakten oder Dokumenten in einer Eingabeaufforderung oder programmgesteuert bereitgestellt werden, indem auf bestimmte Informationen verwiesen wird, auf denen die Antwort basieren soll.

Groß angelegtes Sprachmodell – Thesaurus

Groß angelegtes Sprachmodell ist eine mathematische Darstellung von Begriffen, Konzepten und Beziehungen, die in einem Informationsbestand enthalten sind. Die Stärke großer Sprachmodelle liegt in ihrer Fähigkeit, die Absicht des Benutzers zu verstehen – was der Benutzer sucht, unabhängig davon, wie die Anfrage ausgedrückt wird – und die Wortmuster vorherzusagen, die am wahrscheinlichsten auf die Absicht des Benutzers reagieren. Das Modell „versteht“ die Anfrage des Benutzers und trifft Vorhersagen darüber, was zurückgegeben werden soll. Suchmaschinen treffen auch Vorhersagen auf der Grundlage von Benutzeranfragen, wenn auch über unterschiedliche Mechanismen. Suchmaschinen können zur Generierung von Suchanfragen in Szenarien der künstlichen Intelligenz eingesetzt werden. Rufen Sie Inhalte mit semantischer Suche oder neuronalen Suchmaschinen ab und verwenden Sie große Sprachmodelle, um Antworten für Benutzer zu formatieren.

Thesaurus ordnet nicht bevorzugte Begriffe bevorzugten Begriffen zu (z. B. „SOW“ und „Statement of Work“ werden „Proposal“ zugeordnet, dem bevorzugten Begriff, der das Dokument kennzeichnet). Stellen Sie sich einen Aspekt eines großen Sprachmodells als „Thesaurus“ vor, aber nicht nur Wörter, sondern auch Phrasen und Konzepte. Benutzer können dieselbe Frage auf viele verschiedene Arten stellen. Diese Absichtsklassifizierung ist nicht neu und bildet die Grundlage für Chatbots, die Phrasenänderungen in spezifische Aktionen umwandeln. Sprachmodelle sind die Grundlage für Absichtsanalyse- und Klassifizierungsfunktionen.

Große Sprachmodelle verstehen auch Wortmuster, wenn sie Aufforderungen befolgen. So aktivieren Sie die ChatGPT-Sitzungsflüssigkeit. Der Schlüssel dazu, sie für das Unternehmen nützlich zu machen, besteht darin, die Modelle auf bestimmte Inhalte oder Wissensbestände zuzuschneiden (was Morgan Stanley bei der Implementierung von ChatGPT getan hat) und eine unternehmensspezifische Terminologie zu integrieren.

Es gibt viele Tutorials mit Beispielcode, die veranschaulichen, wie man große Sprachmodelle mit spezifischen Inhalten verwendet. Die Videos führen Entwickler beispielsweise durch den Prozess der Verwendung von Sprachmodellen wie GPT-4 und der Vermittlung von Chatbots an spezifisches Wissen und Inhalte.

Wissensspezifische Bots für Unternehmen

Nach Durchsicht dieser Tutorials gibt es einige Beobachtungen:

Maßgeschneiderte, wissensspezifische Chatbots können ein großes Sprachmodell zum Verstehen verwenden Benutzeranforderungen und geben dann Ergebnisse aus bestimmten Wissensquellen zurück. Die Entwickler erkannten die Notwendigkeit, Inhalte in „semantisch sinnvolle“ Abschnitte zu „unterteilen“. Komponierter Inhalt, der eine bestimmte Frage beantworten soll, muss vollständig und kontextbezogen sein. Es ist wichtig zu beachten, dass in diesem Zustand normalerweise kein Wissen vorhanden ist. Zur Komponentisierung müssen große Dokumente und Textkörper in Blöcke zerlegt werden. Beispielsweise kann ein Benutzerhandbuch durch Kapitel, Abschnitte, Absätze und Sätze in Teile unterteilt werden. In der Welt der technischen Dokumentation ist dies bereits geschehen – Standards wie DITA (Darwin Information Classification Architecture) verwenden einen themenbasierten Ansatz, der sich ideal für die Beantwortung von Fragen eignet.

Entwickler sprechen über „Semantik“ und wie wichtig sie ist. Was bedeutet das? Bei der Semantik geht es um Bedeutung. Semantisch umfangreiche Inhalte werden mit Metadaten versehen, die das präzise Abrufen der erforderlichen Informationen und des Kontexts der Informationen erleichtern. Wenn ein Benutzer beispielsweise ein bestimmtes Routermodell verwendet und dieser Router einen Fehlercode ausgibt, können mit diesen Kennungen gekennzeichnete Inhalte abgerufen werden, wenn er Hilfe von einem Support-Bot anfordert. Dieser Vorgang wird in der Chatbot-Welt auch als „Interpolation“ bezeichnet.

Benutzerdefinierter Inhalt wird in einen sogenannten „Vektorraum“ aufgenommen, ein weiteres mathematisches Informationsmodell, das Dokumente in einem mehrdimensionalen Raum platziert (ein mathematisches Konstrukt), das es ermöglicht, ähnliche Dokumente zu gruppieren und abzurufen. Dies wird als „Einbettung“ bezeichnet. Einbettungen können Metadaten und Identifikatoren (z. B. Referenzquellen) enthalten, die dabei helfen, die Gründe zu dokumentieren, warum dem Benutzer eine bestimmte Antwort bereitgestellt wurde. Dies ist wichtig für rechtliche Haftungs- und Regulierungszwecke sowie für die Gewährleistung, dass den Benutzern korrekte und verlässlichste Informationen bereitgestellt werden.

Definition von Training künstlicher Intelligenz

Zum Thema „Training“ gibt es mehrere Ansichten. ChatGPT und große Sprachmodelle werden auf große Mengen an Inhalten trainiert, sodass sie Benutzeranfragen verstehen und mit optimalen Antworten antworten können, die wohlgeformt und gesprächig sind. Eine Möglichkeit, das Tool zu trainieren, besteht darin, in die Eingabeaufforderung Folgendes aufzunehmen: „Beantworten Sie diese Frage anhand der folgenden Informationen …“ , kann ChatGPT nur eine bestimmte Menge an Inhalten in seiner Eingabeaufforderung verarbeiten und diese Art, Fragen zu stellen, wird sehr eingeschränkt sein. Inhalte können in das Tool aufgenommen werden, was zusätzliche Schulungen unterstützt. Durch das Hinzufügen von Inhalten zu ChatGPT werden diese Inhalte jedoch auch in das öffentliche Modell integriert. Dadurch werden die geistigen Eigentumsrechte des Unternehmens gefährdet. Dieses Risiko hat viele Unternehmen dazu veranlasst, die Verwendung von ChatGPT und anderen KI-Tools zu verbieten, die durch das versehentliche Hochladen von Unternehmensgeheimnissen geistiges Eigentum verloren haben.

Außerdem gibt es eine andere Möglichkeit, Inhalte zu trainieren. Große Sprachmodelle können unternehmensspezifisches Wissen als Teil des Trainingskorpus nutzen, dies erfordert jedoch die Bereitstellung einer Version hinter einer Firewall. Glücklicherweise werden große Sprachmodelle schnell zur Massenware, und einige können sogar nativ auf einem Laptop ausgeführt werden. Diese Art des Trainings ist auch rechenintensiv. Ein anderer Mechanismus besteht darin, große Sprachmodelle zu verwenden, um die Ziele (ihre Absichten) des Benutzers zu interpretieren und dann Vektoreinbettungen zu verwenden, um programmgesteuert Szenarien aus bestimmten Daten- oder Inhaltsquellen bereitzustellen.

Das Sprachmodell verarbeitet und formatiert dann die Antwort, um sie gesprächig und vollständig zu machen. Auf diese Weise wird Wissen von großen Sprachmodellen getrennt, sodass Geschäftsgeheimnisse und geistiges Eigentum eines Unternehmens nicht gefährdet werden.

Alle diese Faktoren weisen darauf hin, dass Wissensmanagement und Wissensarchitektur erforderlich sind, um Informationen in Komponenten zu organisieren, damit Benutzer Antworten auf spezifische Fragen erhalten. Das große Sprachmodell und der revolutionäre Charakter von ChatGPT sorgen für die Konversationsflüssigkeit, die erforderlich ist, um ein positives Kundenerlebnis mit nahezu menschlichem Interaktionsniveau zu unterstützen. Der Schlüsselfaktor ist der Zugang zu gut strukturiertem Wissen im Unternehmen. ChatGPT sieht fantastisch aus, basiert jedoch auf der statistischen Verarbeitung von Informationen und der Mustervorhersage. Wenn Informationen richtig organisiert und integriert werden, können sie ein wichtiger Teil der digitalen Transformation eines Unternehmens sein.

Das obige ist der detaillierte Inhalt vonWas ChatGPT und generative KI in der digitalen Transformation bedeuten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage