Inhaltsverzeichnis
Bitte stellen Sie das Geschäft von Intercom vor. Warum haben Sie das Bedürfnis, bestehende Produkte zu aktualisieren? Wir haben einen Messenger entwickelt, sodass jemand, der eine Frage zum Kundensupport oder Service stellte, auf die Website eines Unternehmens ging und die Frage in den Messenger eingab, genau wie bei einem WhatsApp-Chat.
Das ist ein weiterer Grund für die Testphase , lernen immer noch über die Kosten dieser Technologie, die den Menschen mehr Zeit in Bezug auf die Computerverarbeitungskosten spart, aber es muss untersucht werden, wie die Wirtschaftlichkeit erreicht werden kann
Was ist der Unterschied zwischen ChatGPT und dem großen Sprachmodell GPT 3.5? Werden die Produkte von Intercom in Zusammenarbeit mit ihnen entwickelt?
Wird ChatGPT für die gleichen Aufgaben wie das Resolution Bot-Produkt von Intercom verwendet?
Wenn dieses Tool nur Antworten erfindet, welchen Nutzen hat es dann für die Mitarbeiter des Kundensupports?
Gibt es in ChatGPT noch weitere tolle Funktionen für Kundenbetreuer?
Wie haben Sie die ChatGPT-Software an Ihre Bedürfnisse angepasst?
Reid: Wie jedes andere Software- und Technologieunternehmen leite ich das Team für maschinelles Lernen der Leute im Team, darunter auch ich, verfügen über umfangreiche Erfahrung in der Schulung und Arbeit mit Modellen des maschinellen Lernens.
Reid: Intercom hat mehr als 25.000 Kunden. Wir würden den Kunden sagen: „Wir haben einige Beta-Produkte.“ Werden Sie teilnehmen? Einige Kunden haben sich angemeldet und erklärt, dass sie die frühe Software gerne nutzen würden, andere jedoch nicht. Einige Kunden sind risikoscheue Unternehmen (z. B. Banken), die nicht Teil des Testprojekts sein möchten.
Heim Technologie-Peripheriegeräte KI Was passiert, wenn das Kundendienstunternehmen bestimmte Funktionen auf ChatGPT aktualisiert?

Was passiert, wenn das Kundendienstunternehmen bestimmte Funktionen auf ChatGPT aktualisiert?

Apr 12, 2023 am 09:07 AM
机器学习 chatgpt

Was passiert, wenn das Kundendienstunternehmen bestimmte Funktionen auf ChatGPT aktualisiert?

ChatGPT ist mittlerweile ein weltweit beliebter Chatbot und fast alle Unternehmen denken darüber nach, ihn zur Verbesserung der Geschäftseffizienz einzusetzen. Fünf Tage nachdem er im November letzten Jahres online ging, hatte er 1 Million Nutzer. In den folgenden zwei Monaten hatte dieser Chatbot mit künstlicher Intelligenz mehr als 200 Millionen Nutzer.

Dieses vom in San Francisco ansässigen Entwickler für künstliche Intelligenz OpenAI entwickelte Sprachprogramm für maschinelles Lernen kann menschenähnliche Textantworten liefern. Es kann lange Artikel oder Textgespräche zusammenfassen, Ratschläge zum Schreiben geben, Marketingkampagnen planen, Geschäftspläne entwickeln und sogar erstellen oder Computercode ändern, alles mit einer begrenzten Investition.

Microsoft, das 49 % von OpenAI besitzt, hat Milliarden von Dollar in das Unternehmen investiert. Microsoft hat außerdem eine Bing-Suchmaschine auf Basis der neuesten Version des großen Sprachmodells GPT-4 von OpenAI auf den Markt gebracht Modell. Um nicht zu übertreffen, hat Google kürzlich seinen eigenen experimentellen Chatbot für künstliche Intelligenz veröffentlicht.

Intercom ist ein Anbieter von Kundensupport-Software, dessen Produkte von 25.000 Unternehmen auf der ganzen Welt verwendet werden, darunter Atlassian, Amazon und Lyft Business, und der derzeit an der Spitze der ChatGPT-Nutzung steht. Die Software des Unternehmens nutzt einfach Funktionen des großen Sprachmodells von ChatGPT (GPT3.5), um seiner Plattform KI-gestützte Funktionalität hinzuzufügen.

Fergal Reid, Direktor für maschinelles Lernen bei Intercom, sagte, dass das Hinzufügen der ChatGPT-Funktionalität zur Kundendienstsoftware des Unternehmens mit künstlicher Intelligenz unbestreitbare Vorteile habe. Die Software von Intercom wird verwendet, um Kundendienstmitarbeiter bei der Beantwortung von Kundenfragen zu unterstützen. Intercom verkauft außerdem einen Support-Chatbot namens „Resolution Bot“, den Unternehmen in ihre Websites einbetten können, um Endbenutzerfragen automatisch zu beantworten.

Aber Reid warnte, dass ChatGPT auch einige Probleme hat, die nicht ignoriert werden können. Aufgrund von Preisproblemen befindet sich die neue Kundenservice-Software für Hunderte von Intercom-Kunden noch in der Betaphase.

Kunden, die die Software von Intercom getestet haben, haben jedoch die aktualisierte Software (basierend auf dem GPT-3.5-Sprachmodell von OpenAI) gelobt und behaupten, dass sie ihre Arbeit erleichtern wird.

In einem Interview mit Branchenmedien erläuterte Reid den Prozess der Anpassung der ChatGPT-Software für die kommerzielle Nutzung von Intercom, wie sie einen geschäftlichen Mehrwert bietet und welche Herausforderungen er und sein Team für maschinelles Lernen hatten und immer noch bewältigen müssen.

Das Folgende ist ein Auszug aus dem Interview:

Bitte stellen Sie das Geschäft von Intercom vor. Warum haben Sie das Bedürfnis, bestehende Produkte zu aktualisieren? Wir haben einen Messenger entwickelt, sodass jemand, der eine Frage zum Kundensupport oder Service stellte, auf die Website eines Unternehmens ging und die Frage in den Messenger eingab, genau wie bei einem WhatsApp-Chat.

Intercom ist einer der Marktführer in der Kundensupportbranche und eines der ersten Unternehmen, das diesen Business-Messenger-Dienst eingeführt hat. Also haben wir diesen Messenger entwickelt und dann eine komplette Kundensupport-Plattform für Kundenbetreuer (wir nennen sie Teamkollegen) aufgebaut, deren Aufgabe es war, Tag für Tag wiederholt Fragen des Kundensupports zu beantworten.

Wir haben festgestellt, dass ChatGPT bei der Handhabung zufälliger Konversationen eine neue Ebene erreicht. Wenn Menschen Fragen stellen, stellen sie diese möglicherweise auf überraschende Weise. Im Verlauf eines Gesprächs bringen die Teilnehmer möglicherweise Dinge zur Sprache, die sie in früheren Gesprächsrunden gesagt haben. Dies ist für herkömmliche maschinelle Lernsysteme schwierig zu bewältigen, aber die neue Technologie von OpenAI scheint hier bessere Arbeit zu leisten.

Wir haben ChatGPT und GPT3 ausprobiert. Wir meinten: „Das ist eine große Sache.“ Letztes Jahr haben wir den ersten Prototyp Anfang Januar vorgeführt und es war ein sehr schneller Entwicklungszyklus, und bis etwa Mitte Januar hatten wir 108 Kunden, die ihn zum Testen nutzten, und Ende Januar folgte eine weitere Testversion befindet sich derzeit in der öffentlichen Betaphase, daher verwenden Hunderte von Content-Kunden es und wir nennen es immer noch Beta, auch wenn die Leute es jeden Tag in der Produktion verwenden

Es ist eine überzeugende Demo. Der Prototyp ist nicht real Wir haben also noch viel zu tun, um zu verstehen, wie viel tatsächlicher Wert dieser Prototyp im Vergleich zu den Kosten einer API hat, die die Leute verwenden könnten. Es wird den Benutzer etwas kosten, ihn einfach zusammenfassen zu lassen Es ist zwar viel billiger, als es selbst zu machen, aber es ist ein Problem, das die Unternehmen lösen müssen.

Das ist ein weiterer Grund für die Testphase , lernen immer noch über die Kosten dieser Technologie, die den Menschen mehr Zeit in Bezug auf die Computerverarbeitungskosten spart, aber es muss untersucht werden, wie die Wirtschaftlichkeit erreicht werden kann

Was ist der Unterschied zwischen ChatGPT und dem großen Sprachmodell GPT 3.5? Werden die Produkte von Intercom in Zusammenarbeit mit ihnen entwickelt?

Reid: Ich denke, ChatGPT ist eher ein Frontend für das GPT 3.5-Modell. Allerdings baut jeder, der auf ChatGPT aufbaut, auf demselben zugrunde liegenden Modell auf, das OpenAI GPT 3.5 nennt. Sie sind grundsätzlich gleich, der Unterschied liegt in der Benutzeroberfläche.

Training ChatGPT hat mehr Leitplanken. Wenn Sie es also etwas tun lassen, was es nicht tun möchte, heißt es: „Ich bin nur ein großes Sprachmodell, ich kann diese und die zugrunde liegende Sprache nicht.“ Modell hat diese Leitplanken nicht. Sie sind nicht darin geschult, mit Endbenutzern im Internet zu kommunizieren. Daher verwendet jeder Entwickler, der ein Produkt erstellt, das zugrunde liegende Modell und nicht die ChatGPT-Schnittstelle. Was die Komplexität des Verständnisses und die Funktionalität des zugrunde liegenden Modells betrifft, ist es jedoch im Grunde dasselbe.

Das von uns verwendete Modell ist Text-Davinci-003, im Grunde verwendet es jeder.

Haben Sie Optionen zum Erstellen? Gibt es andere große Sprachmodelle von Drittanbietern, die zum Erstellen neuer Dienstdarstellungsfunktionen verwendet werden können?

Reid: Derzeit ist ChatGPT keine von OpenAI gehostete Anwendung für diese Modelle. Niemand außer OpenAI kann ChatGPT wirklich nutzen. Technisch gesehen denke ich, dass ChatGPT ein Dienst ist, der von OpenAI für die Öffentlichkeit bereitgestellt wird, und jeder kann ein ChatGPT-Ding auf seiner Website erstellen. Genauer gesagt verwenden sie dasselbe OpenAI-Modell, das ChatGPT antreibt.

Wird ChatGPT für die gleichen Aufgaben wie das Resolution Bot-Produkt von Intercom verwendet?

Reid: Die ursprünglich von uns veröffentlichte Funktionalität richtete sich an Kundensupportmitarbeiter, nicht an Endbenutzer. Wir entwickeln Chatbots für Endbenutzer und stellen dann auf maschinellem Lernen basierende Produktivitätsfunktionen für Kundensupportmitarbeiter bereit. Unsere erste Version des Resolution Bot-Produkts enthielt Funktionen zur Verbesserung des Kundensupportpersonals und war nicht für Endbenutzer konzipiert.

Der Grund, warum wir dies tun, ist, dass viele der aktuellen Modelle für maschinelles Lernen von OpenAI unter sogenannten Halluzinationen leiden. Wenn Sie ihnen eine Frage stellen und nicht die richtige Antwort erhalten, erfinden sie häufig eine Antwort.

Diese Situation hat unsere Erwartungen übertroffen. Es gibt Funktionen, die offensichtlich wertvoll sind, etwa das Zusammenfassen, und dann gibt es noch andere, etwa das Umformulieren von Text oder die benutzerfreundlichere Gestaltung von Text.

Es ist denkbar, dass ihre Aufgabe nicht darin besteht, sicherzustellen, dass echte Informationen bereitgestellt werden, sondern dass sie Informationen nur erfinden können. Zunächst zögerten wir, den Benutzern die Möglichkeit zu geben, sie zu nutzen und Fragen zu beantworten. Wir befürchteten, dass das Erlebnis unserer Kunden durch falsche Antworten des Chatbots beeinträchtigt werden könnte. Unsere ersten Tests zeigen, dass es eine sehr schlechte Idee ist, Kunden einen unausgereiften Chatbot mit ChatGPT-Unterstützung zu überlassen. Wir werden weiterhin hart arbeiten und glauben, dass es in Zukunft bessere Lösungen geben wird.

Wenn dieses Tool nur Antworten erfindet, welchen Nutzen hat es dann für die Mitarbeiter des Kundensupports?

Reid: Obwohl wir in diesem Bereich arbeiten und sicherlich über interne F&E-Prototypen verfügen, haben wir keine Produkte benannt oder uns dazu verpflichtet, sie zu veröffentlichen Diesmal oder Werkzeuge.

Wir haben Chatbots ursprünglich nur herausgebracht, um Kundenbetreuern zu helfen, weil diese normalerweise wissen, was die richtige Antwort ist, und Chatbots es ihnen trotzdem ermöglichen würden, schneller und effizienter zu bedienen, da sie in 90 % der Fälle nicht die Antwort eingeben müssen antworte dir selbst. Wenn dann in 10 % der Fälle etwas schief geht, kann der Kundensupport das Problem direkt beheben.

Es wird also eher zu einer Schnittstelle. Wenn Sie Google Docs oder einen anderen prädiktiven Text verwenden, der Vorschläge machen kann, ist es in Ordnung, dass die Vorschläge manchmal falsch sind, aber wenn sie die richtigen Vorschläge liefern, erhöht es die Benutzereffizienz. Aus diesem Grund haben wir zunächst eine Beta-Version veröffentlicht, die bis Ende Januar dieses Jahres von Hunderten Kunden getestet wurde und wir viel positives Feedback zu den neuen Funktionen erhielten. Es macht die Mitarbeiter im Kundensupport effizienter und steigert den Umsatz.

Es hilft Vertriebsmitarbeitern, Texte umzuformulieren. Es sendet nicht nur automatisch Text an den Endbenutzer, sondern soll es auch dem Kundensupport ermöglichen, Aufgaben schneller zu erledigen.

Gibt es in ChatGPT noch weitere tolle Funktionen für Kundenbetreuer?

Reid: Eine weitere Funktion, die wir in ChatGPT integriert haben, sind Snippets. Dieses große Sprachmodell eignet sich hervorragend für die Verarbeitung vorhandener Texte und die Erstellung von Zusammenfassungen umfangreicher Artikel oder Textgespräche. Ebenso haben wir viele Kundenbetreuer, die, wenn ein Kunde ein Problem anspricht, das für ChatGPT zu komplex ist, das Gespräch an den Kundensupport weiterleiten müssen, der oft gebeten wird, eine Zusammenfassung des Gesprächs mit dem Endbenutzer zu schreiben. Einige Kundenbetreuer sagen, dass das Schreiben von Zusammenfassungen und die Beantwortung von Kundengesprächen manchmal zeitaufwändig sei, aber sie müssen es tun.

Diese Technologie eignet sich also hervorragend zum Zusammenfassen und Zusammenfassen von Textinhalten. Eine der Funktionen, auf die wir am meisten stolz sind, ist diese Zusammenfassungsfunktion, mit der Sie auf Knopfdruck eine Zusammenfassung eines Gesprächs erhalten, die dann bearbeitet und an den Kunden gesendet werden kann.

Diese Funktionen sollen Kunden ansprechen und die Funktionen von ChatGPT kontinuierlich verbessern. Der Kundensupport muss nicht mehr Zeit damit verbringen, das gesamte Gespräch durchzulesen und die wichtigsten Erkenntnisse herauszufinden. Stattdessen ruft ChatGPT die relevanten Snippets ab und der Kundensupport muss nur noch bestätigen.

Diese Modelle sind viel besser als die, die wir zuvor entwickelt haben, aber sie sind immer noch nicht perfekt. Sie übersehen immer noch gelegentlich Details und verstehen Dinge nicht, die ein erfahrener Kundendienstmitarbeiter verstehen würde.

Wie haben Sie die ChatGPT-Software an Ihre Bedürfnisse angepasst?

Reid: OpenAI stellt uns eine API zur Verfügung, an die wir Text senden und von seinem Modell abrufen können. Anders als in der Vergangenheit besteht die Art und Weise, wie Menschen diese Technologie tatsächlich nutzen, darin, ihr „zu sagen“, was sie tun soll, und ihr einen Text zu senden, z. B. eine Zusammenfassung des folgenden Gesprächs:

Kunde: „Hallo, ich habe eine Frage.“

Kundenvertreter: „Hallo, wie kann ich Ihnen helfen?“ Eine zusammenfassende Version. Verarbeiten Sie sie dann und senden Sie sie an den Kundensupport, damit dieser entscheiden kann, ob er sie verwenden möchte oder nicht.

Der Kunde kann sie zum Zusammenfassen der E-Mail verwenden E-Mails. Diese Funktionalität war in früheren Programmiersprachen nicht verfügbar, aber es musste viel Aufwand betrieben werden, um sie dazu zu bringen, das zu tun, was Sie wollten. Man muss sehr genau sein, wenn man etwas tut, um Fehler zu vermeiden

Benutzen Sie Ihr eigenes IT-Team oder Software-Ingenieure, um ChatGPT anzupassen?

Reid: Wie jedes andere Software- und Technologieunternehmen leite ich das Team für maschinelles Lernen der Leute im Team, darunter auch ich, verfügen über umfangreiche Erfahrung in der Schulung und Arbeit mit Modellen des maschinellen Lernens.

Wir haben ein internes (Kundenerfolgs-)Team, das sie wie Alpha-Kunden behandelt. Daher haben wir Wir werden ihnen sehr schnell Prototypen liefern und ihr Feedback zum Modell einholen, aber wir verwenden sie nicht zum Trainieren von Modellen, sondern nur als Alpha-Tester, um Probleme zu identifizieren und festzustellen, was schief läuft

Wir haben eine Es gibt viel zu tun, einen Chatbot für Demos zu erstellen ist einfach, aber es gibt noch viel zu tun, damit er in einer Produktionsumgebung funktioniert

Glauben Sie, dass dieses Chatbot-Produkt irgendwann an Endbenutzer geliefert wird? Sozusagen Mittelsmänner von Kundenvertretern?

Reid: Wir untersuchen dies derzeit und sind noch nicht bereit, aber wir gehen davon aus, dass diese Art von Technologie bald für Kunden verfügbar sein wird. Google hat kürzlich ein Produkt mit seinem Modell der künstlichen Intelligenz veröffentlicht Bei der Einführungsveranstaltung gab es einige Fehler, die viele Leute enttäuschten

Also muss jeder herausfinden, wie er mit diesem gelegentlichen Problem umgehen kann, und wir arbeiten daran, die KI-fähigen Funktionen für Kunden zu aktualisieren Spart es seinen Kundendienstmitarbeitern viel Zeit und Aufwand?

Reid: Wahrscheinlich nicht so hoch. Ich habe keine genaue Zahl, weil diese Technologie noch so neu ist Wenn wir die Telemetrie haben, wird es wahrscheinlich ein paar Wochen dauern, bis wir die Daten erhalten.

Ich würde sagen, eine Textzusammenfassung würde 10 bis 15 Minuten einsparen. Das ist ein Teil des Feedbacks, das wir haben bekommen haben und was wir gesehen haben, ist aufregend. Seit der offenen Beta finden Sie zeitsparende Beiträge von Intercom-Kunden auf Twitter.

Ich denke auch, dass jeder in diesem Bereich vor der Herausforderung steht, ehrlich sein zu müssen. Diese Technologie ist so aufregend, dass es schwer ist, wach zu bleiben, ohne es zu übertreiben. Was wir veröffentlichen, ist ein KI-Bot für Demozwecke, der noch keinen echten Mehrwert bietet. Es bleibt also noch viel zu tun, um zu verstehen, wie viel echter Mehrwert hier geboten wird. Wir werden mehr darüber erfahren und hoffen, es eher früher als später veröffentlichen zu können und zu sehen, was unsere Kunden denken.

Das Kundenfeedback, das wir erhalten haben, hat meine Erwartungen übertroffen. Es gibt einige Funktionen wie Zusammenfassungen, die eindeutig wertvoll sind, und es gibt andere wie die Möglichkeit, Texte umzuformulieren oder benutzerfreundlicher zu gestalten, oder eine andere Funktion, die wir anbieten. Eine Funktion ist die Fähigkeit eine gekürzte Version einer Nachricht zu schreiben und sie zu erweitern, und das Kundenfeedback zu diesen Funktionen war gut.

Haben Sie keine konkreten Daten, die beweisen, dass dies die Kundendienstmitarbeiter effizienter macht?

Reid: Realistisch gesehen müssen wir unsere Telemetrie in ein oder zwei Monaten verstehen und feststellen, ob sie jedes Mal funktioniert. Wir müssen überprüfen, ob in diesem Bereich meiner Meinung nach immer noch Killer-Apps entwickelt werden.

Wir hatten eine tolle Demo mit ChatGPT und sie erregte die Aufmerksamkeit aller. Aber es gibt Unternehmen wie Intercom, die herausfinden, wie sie es von einem Spielzeug zu etwas mit echtem Geschäftswert machen können. Sogar bei Intercom sagen wir: „Wir haben diese Funktionen eingeführt, sie sind cool und sie scheinen wertvoll zu sein, aber sie sind nicht bahnbrechend genug. Ich denke, das wird die nächste Technologiewelle sein, die wir entwickeln.“ , und der Entwicklungszyklus ist länger. Nichts davon ist so einfach wie eine schnelle Integration. Wir müssen sehr tief in das Problem des Benutzers und all die verschiedenen Aspekte eindringen und herausfinden, wo es scheitert. Viele unserer Konkurrenten und Branchenakteure lösen die gleichen Probleme und entwickeln noch wertvollere Funktionen.

Wir hatten einen sehr schnellen Entwicklungszyklus und haben den Chatbot sehr schnell gestartet und großartiges Feedback von unseren Kunden erhalten, das uns bei der Entscheidung geholfen hat, wohin wir als nächstes gehen sollen. Das ist meine Realität für den, in dem wir uns jetzt befinden.

Es gibt derzeit einen großen Hype um ChatGPT. Wie gehen Sie damit um, wenn Sie versuchen, die Erwartungen der Kunden an Ihr Produkt zu senken?

Reid: Unsere eigentliche Strategie besteht darin, so ehrlich wie möglich mit unseren Erwartungen umzugehen. Wir glauben, dass wir uns durch Ehrlichkeit von der Hype-Welle abheben können.

Wie bringen Sie Kunden dazu, Ihren neuen ChatGPT-Bot zu verwenden?

Reid: Intercom hat mehr als 25.000 Kunden. Wir würden den Kunden sagen: „Wir haben einige Beta-Produkte.“ Werden Sie teilnehmen? Einige Kunden haben sich angemeldet und erklärt, dass sie die frühe Software gerne nutzen würden, andere jedoch nicht. Einige Kunden sind risikoscheue Unternehmen (z. B. Banken), die nicht Teil des Testprojekts sein möchten.

Wenn wir neue Software entwickeln, senden wir ihnen eine Nachricht, um Leute für die Betaversion zu rekrutieren. Unser Projektmanager begann mit der Werbung für die Veranstaltung und das war alles, was wir taten. Wir haben Mitte Januar Hunderte Kunden zum Testen eingeladen. Nachdem Kunden beigetreten sind, nutzen sie die API zur Datenverarbeitung und wir öffnen diese Funktionen für sie.

Dann schauen wir uns am nächsten Tag die Telemetrie an, um zu sehen, wo Kunden sie nutzen. Funktioniert es bei ihnen? Und dann führen wir normalerweise Tests bei Intercom durch, wir kontaktieren sie, sagte er , „Können wir Ihr Feedback dazu bekommen? Wir würden gerne Ihre Angebote erfahren.“ Einige Kunden haben uns innerhalb weniger Wochen echte Angebote gemacht, die wir später auf dem Blog veröffentlicht haben.

Wir wollen uns von dem ganzen Hype abheben. Viele Startups verwenden normalerweise die Gestalt von ChapGPT und erstellen einfach eine Landingpage. Und wir haben tatsächlich Produkte wie ChapGPT und veröffentlichen echte Kundenzitate auf unserer Website, und das ist wirklich echt.

Das obige ist der detaillierte Inhalt vonWas passiert, wenn das Kundendienstunternehmen bestimmte Funktionen auf ChatGPT aktualisiert?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Aug 09, 2024 pm 09:37 PM

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

In diesem Artikel erfahren Sie mehr über SHAP: Modellerklärung für maschinelles Lernen In diesem Artikel erfahren Sie mehr über SHAP: Modellerklärung für maschinelles Lernen Jun 01, 2024 am 10:58 AM

In den Bereichen maschinelles Lernen und Datenwissenschaft stand die Interpretierbarkeit von Modellen schon immer im Fokus von Forschern und Praktikern. Mit der weit verbreiteten Anwendung komplexer Modelle wie Deep Learning und Ensemble-Methoden ist das Verständnis des Entscheidungsprozesses des Modells besonders wichtig geworden. Explainable AI|XAI trägt dazu bei, Vertrauen in maschinelle Lernmodelle aufzubauen, indem es die Transparenz des Modells erhöht. Eine Verbesserung der Modelltransparenz kann durch Methoden wie den weit verbreiteten Einsatz mehrerer komplexer Modelle sowie der Entscheidungsprozesse zur Erläuterung der Modelle erreicht werden. Zu diesen Methoden gehören die Analyse der Merkmalsbedeutung, die Schätzung des Modellvorhersageintervalls, lokale Interpretierbarkeitsalgorithmen usw. Die Merkmalswichtigkeitsanalyse kann den Entscheidungsprozess des Modells erklären, indem sie den Grad des Einflusses des Modells auf die Eingabemerkmale bewertet. Schätzung des Modellvorhersageintervalls

Implementierung von Algorithmen für maschinelles Lernen in C++: Häufige Herausforderungen und Lösungen Implementierung von Algorithmen für maschinelles Lernen in C++: Häufige Herausforderungen und Lösungen Jun 03, 2024 pm 01:25 PM

Zu den häufigsten Herausforderungen, mit denen Algorithmen für maschinelles Lernen in C++ konfrontiert sind, gehören Speicherverwaltung, Multithreading, Leistungsoptimierung und Wartbarkeit. Zu den Lösungen gehören die Verwendung intelligenter Zeiger, moderner Threading-Bibliotheken, SIMD-Anweisungen und Bibliotheken von Drittanbietern sowie die Einhaltung von Codierungsstilrichtlinien und die Verwendung von Automatisierungstools. Praktische Fälle zeigen, wie man die Eigen-Bibliothek nutzt, um lineare Regressionsalgorithmen zu implementieren, den Speicher effektiv zu verwalten und leistungsstarke Matrixoperationen zu nutzen.

Erklärbare KI: Erklären komplexer KI/ML-Modelle Erklärbare KI: Erklären komplexer KI/ML-Modelle Jun 03, 2024 pm 10:08 PM

Übersetzer |. Rezensiert von Li Rui |. Chonglou Modelle für künstliche Intelligenz (KI) und maschinelles Lernen (ML) werden heutzutage immer komplexer, und die von diesen Modellen erzeugten Ergebnisse sind eine Blackbox, die den Stakeholdern nicht erklärt werden kann. Explainable AI (XAI) zielt darauf ab, dieses Problem zu lösen, indem es Stakeholdern ermöglicht, die Funktionsweise dieser Modelle zu verstehen, sicherzustellen, dass sie verstehen, wie diese Modelle tatsächlich Entscheidungen treffen, und Transparenz in KI-Systemen, Vertrauen und Verantwortlichkeit zur Lösung dieses Problems gewährleistet. In diesem Artikel werden verschiedene Techniken der erklärbaren künstlichen Intelligenz (XAI) untersucht, um ihre zugrunde liegenden Prinzipien zu veranschaulichen. Mehrere Gründe, warum erklärbare KI von entscheidender Bedeutung ist. Vertrauen und Transparenz: Damit KI-Systeme allgemein akzeptiert und vertrauenswürdig sind, müssen Benutzer verstehen, wie Entscheidungen getroffen werden

Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Jun 05, 2024 pm 08:51 PM

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Ist Flash Attention stabil? Meta und Harvard stellten fest, dass die Gewichtsabweichungen ihrer Modelle um Größenordnungen schwankten Ist Flash Attention stabil? Meta und Harvard stellten fest, dass die Gewichtsabweichungen ihrer Modelle um Größenordnungen schwankten May 30, 2024 pm 01:24 PM

MetaFAIR hat sich mit Harvard zusammengetan, um einen neuen Forschungsrahmen zur Optimierung der Datenverzerrung bereitzustellen, die bei der Durchführung groß angelegten maschinellen Lernens entsteht. Es ist bekannt, dass das Training großer Sprachmodelle oft Monate dauert und Hunderte oder sogar Tausende von GPUs verwendet. Am Beispiel des Modells LLaMA270B erfordert das Training insgesamt 1.720.320 GPU-Stunden. Das Training großer Modelle stellt aufgrund des Umfangs und der Komplexität dieser Arbeitsbelastungen einzigartige systemische Herausforderungen dar. In letzter Zeit haben viele Institutionen über Instabilität im Trainingsprozess beim Training generativer SOTA-KI-Modelle berichtet. Diese treten normalerweise in Form von Verlustspitzen auf. Beim PaLM-Modell von Google kam es beispielsweise während des Trainingsprozesses zu Instabilitäten. Numerische Voreingenommenheit ist die Hauptursache für diese Trainingsungenauigkeit.

Maschinelles Lernen in C++: Ein Leitfaden zur Implementierung gängiger Algorithmen für maschinelles Lernen in C++ Maschinelles Lernen in C++: Ein Leitfaden zur Implementierung gängiger Algorithmen für maschinelles Lernen in C++ Jun 03, 2024 pm 07:33 PM

In C++ umfasst die Implementierung von Algorithmen für maschinelles Lernen: Lineare Regression: Wird zur Vorhersage kontinuierlicher Variablen verwendet. Zu den Schritten gehören das Laden von Daten, das Berechnen von Gewichtungen und Verzerrungen, das Aktualisieren von Parametern und die Vorhersage. Logistische Regression: Wird zur Vorhersage diskreter Variablen verwendet. Der Prozess ähnelt der linearen Regression, verwendet jedoch die Sigmoidfunktion zur Vorhersage. Support Vector Machine: Ein leistungsstarker Klassifizierungs- und Regressionsalgorithmus, der die Berechnung von Support-Vektoren und die Vorhersage von Beschriftungen umfasst.

SearchGPT: Open AI tritt mit seiner eigenen KI-Suchmaschine gegen Google an SearchGPT: Open AI tritt mit seiner eigenen KI-Suchmaschine gegen Google an Jul 30, 2024 am 09:58 AM

Open AI macht endlich seinen Vorstoß in die Suche. Das Unternehmen aus San Francisco hat kürzlich ein neues KI-Tool mit Suchfunktionen angekündigt. The Information berichtete erstmals im Februar dieses Jahres über das neue Tool, das treffend SearchGPT heißt und über ein c

See all articles