Inhaltsverzeichnis
In der heutigen Gesellschaft ist die Entwicklung künstlicher Intelligenz zu einem Schwerpunkt globaler Unternehmen und Regierungen geworden. Ein weiteres Problem, das eng mit der künstlichen Intelligenz zusammenhängt, wurde jedoch ignoriert: die schlechte Datenqualität.
Es gab schon immer eine große Debatte darüber, welche Daten „gut genug“ sind. Einige sagen, dass es keine ausreichend guten Daten gibt. Andere sagen, dass „zu gute“ Daten zu einer Analyselähmung führen können (übersetzt: sollte sich auf Überanpassung beziehen) – während HBR direkt darauf hinweist, dass schlechte Informationen dazu führen, dass maschinelle Lernwerkzeuge nicht funktionieren.
Datenqualitätsprobleme treten zu Beginn des Prozesses auf, wenn der Algorithmus anhand von Trainingsdaten lernt. Wenn einem KI-Algorithmus beispielsweise ungefilterte Social-Media-Daten zugeführt werden, extrahiert er Beschimpfungen, rassistische Kommentare und frauenfeindliche Bemerkungen, wie der KI-Bot von Microsoft zeigt. Neuerdings wird die Unfähigkeit künstlicher Intelligenz, dunkelhäutige Menschen zu erkennen, auch auf Probleme mit Trainingsdaten zurückgeführt.
Wenn Unternehmen erkennen, dass es ein Problem mit der Datenqualität gibt, geraten sie in Panik und stellen neue Mitarbeiter ein. Indem man blind Berater, Ingenieure und Analysten anheuert, um Daten zu diagnostizieren und zu bereinigen, in der Hoffnung, das Problem so schnell wie möglich zu lösen. Leider vergingen Monate und trotz der ausgegebenen Millionen Dollar schien das Problem nicht zu verschwinden. Ein spontaner Ansatz bei Datenqualitätsproblemen hilft selten.
Bewerten Sie zunächst die Datenqualität, indem Sie eine Kultur der Datenkompetenz aufbauen. Bill Schmarzo ist hier eine starke Stimme und empfiehlt den Einsatz von Design Thinking, um eine Kultur zu schaffen, in der jeder die Datenziele und Herausforderungen des Unternehmens versteht und zu ihnen beiträgt.
Unternehmen machen oft Fehler, wenn es um Probleme mit der Datenqualität geht. Beispielsweise werden Datenanalysten für die Durchführung alltäglicher Datenbereinigungsaufgaben eingestellt, anstatt sich auf Planung und strategische Arbeit zu konzentrieren. Einige Unternehmen nutzen Datenverwaltungstools, um Daten ohne Plan zu bereinigen, zu deduplizieren, zu konsolidieren und zu löschen. Leider können Werkzeuge und Talente Probleme nicht isoliert lösen. Strategien, die die Datenqualitätsdimensionen erfüllen, sind die grundlegende Lösung des Problems.
Stellen Sie die richtigen Fragen und legen Sie Verantwortung fest.
Zusammenfassung
Einführung des Übersetzers
Heim Technologie-Peripheriegeräte KI So verbessern Sie die Datenqualität, um den Anforderungen von KI-Projekten besser gerecht zu werden

So verbessern Sie die Datenqualität, um den Anforderungen von KI-Projekten besser gerecht zu werden

Apr 16, 2023 am 08:13 AM
人工智能 机器学习 数据

​Übersetzer |. Cui Hao

Rezensent |.Eröffnung

In der heutigen Gesellschaft ist die Entwicklung künstlicher Intelligenz zu einem Schwerpunkt globaler Unternehmen und Regierungen geworden. Ein weiteres Problem, das eng mit der künstlichen Intelligenz zusammenhängt, wurde jedoch ignoriert: die schlechte Datenqualität.

KI-Algorithmen sind auf zuverlässige Daten angewiesen, um optimale Ergebnisse zu erzielen – wenn die Daten verzerrt, unvollständig, unzureichend oder sogar ungenau sind, können die Folgen verheerend sein.

Künstliche Intelligenzsysteme, die Krankheiten von Patienten identifizieren, sind ein gutes Beispiel für schlechte Datenqualität, die zu nachteiligen Folgen führt. Wenn nicht genügend Daten vorliegen, können diese Systeme fehlerhafte Diagnosen und ungenaue Vorhersagen erstellen, was zu Fehldiagnosen und verzögerter Behandlung führt. Beispielsweise ergab eine Studie der Universität Cambridge mit mehr als 400 Tools zur Diagnose von Covid-19, dass KI-generierte Berichte aufgrund der Verwendung fehlerhafter Datensätze völlig unbrauchbar waren.

Mit anderen Worten: Wenn die Daten nicht gut genug sind, werden KI-Initiativen verheerende Folgen für die reale Welt haben.

Was bedeutet „gut genug“ Daten?

Es gab schon immer eine große Debatte darüber, welche Daten „gut genug“ sind. Einige sagen, dass es keine ausreichend guten Daten gibt. Andere sagen, dass „zu gute“ Daten zu einer Analyselähmung führen können (übersetzt: sollte sich auf Überanpassung beziehen) – während HBR direkt darauf hinweist, dass schlechte Informationen dazu führen, dass maschinelle Lernwerkzeuge nicht funktionieren.

Bei WinPure werden ausreichend gute Daten definiert als „vollständig, genau, gültig und können in riskanten Geschäftsprozessen auf einem Niveau verwendet werden, das von individuellen Zielen und Geschäftsumständen abhängt.“

Die meisten Unternehmen haben mit der Datenqualität zu kämpfen und Regierungsführung, obwohl keiner dies zugeben würde. Diese Tortur erhöht die Spannung des Projekts weiter und überfordert sie. Sie können sich vorstellen, dass sie unter enormem Druck stehen, Pläne für künstliche Intelligenz einzusetzen, um einen Wettbewerbsvorteil zu wahren. Leider ist es unwahrscheinlich, dass Probleme wie schmutzige Daten in der Vorstandsetage diskutiert werden, bis das Projekt scheitert.

Wie wirken sich schlechte Daten auf Systeme der künstlichen Intelligenz aus?

Datenqualitätsprobleme treten zu Beginn des Prozesses auf, wenn der Algorithmus anhand von Trainingsdaten lernt. Wenn einem KI-Algorithmus beispielsweise ungefilterte Social-Media-Daten zugeführt werden, extrahiert er Beschimpfungen, rassistische Kommentare und frauenfeindliche Bemerkungen, wie der KI-Bot von Microsoft zeigt. Neuerdings wird die Unfähigkeit künstlicher Intelligenz, dunkelhäutige Menschen zu erkennen, auch auf Probleme mit Trainingsdaten zurückgeführt.

Wie hängt das mit der Datenqualität zusammen?

Mangelnde Datenverwaltung, mangelndes Bewusstsein für Datenqualität und isolierte Datenansichten sind die Hauptursachen für schlechte Datenqualität.

Was tun?

Wenn Unternehmen erkennen, dass es ein Problem mit der Datenqualität gibt, geraten sie in Panik und stellen neue Mitarbeiter ein. Indem man blind Berater, Ingenieure und Analysten anheuert, um Daten zu diagnostizieren und zu bereinigen, in der Hoffnung, das Problem so schnell wie möglich zu lösen. Leider vergingen Monate und trotz der ausgegebenen Millionen Dollar schien das Problem nicht zu verschwinden. Ein spontaner Ansatz bei Datenqualitätsproblemen hilft selten.

Echte Veränderung beginnt an der Basis.

Wenn Sie möchten, dass Ihr KI/ML-Projekt in die richtige Richtung geht, unternehmen Sie diese drei wichtigen Schritte.

Erkennen und anerkennen Sie Datenqualitätsprobleme

Bewerten Sie zunächst die Datenqualität, indem Sie eine Kultur der Datenkompetenz aufbauen. Bill Schmarzo ist hier eine starke Stimme und empfiehlt den Einsatz von Design Thinking, um eine Kultur zu schaffen, in der jeder die Datenziele und Herausforderungen des Unternehmens versteht und zu ihnen beiträgt.

Im heutigen Geschäftsumfeld liegen Daten und Datenqualität nicht mehr allein in der Verantwortung der IT- oder Datenteams. Geschäftsanwender müssen sich über Probleme wie schmutzige Daten sowie inkonsistente und doppelte Daten im Klaren sein.

Also beginnen Sie damit, die Datenqualitätsschulung zu einer wertvollen organisatorischen Anstrengung zu machen und Teams in die Lage zu versetzen, schlechte Datenattribute zu identifizieren.

Mit der Checkliste unten können Sie die Datenqualität verfolgen.

Datengesundheits-Checkliste

Wie erfasst, speichert und verwaltet man Daten?
  • Wie viele Datenquellen sind an Ihre zentrale Datenbank angeschlossen und wie gut werden die Daten verbreitet?
  • Wie gut verwalten Sie Ihre Daten? Haben Sie Data-Governance-Standards implementiert? Wie viele Daten sind strukturiert, halbstrukturiert oder unstrukturiert?
  • Wie viel geben Sie für die manuelle Datenreparatur im Vergleich zur automatisierten Datenverwaltung aus? Wie koordinieren sich Ihre Teams beim Zugriff auf und bei der Verarbeitung von Daten? Kommt es häufig zu internen Konflikten zwischen IT- und Fachanwendern?
  • Wie ist Ihre Datenqualität? Sind Ihre Daten aktuell, vollständig, genau, eindeutig und folgen sie standardisierten Regeln?
  • Entwickeln Sie einen Plan zur Einhaltung von Qualitätskennzahlen

Unternehmen machen oft Fehler, wenn es um Probleme mit der Datenqualität geht. Beispielsweise werden Datenanalysten für die Durchführung alltäglicher Datenbereinigungsaufgaben eingestellt, anstatt sich auf Planung und strategische Arbeit zu konzentrieren. Einige Unternehmen nutzen Datenverwaltungstools, um Daten ohne Plan zu bereinigen, zu deduplizieren, zu konsolidieren und zu löschen. Leider können Werkzeuge und Talente Probleme nicht isoliert lösen. Strategien, die die Datenqualitätsdimensionen erfüllen, sind die grundlegende Lösung des Problems.

So verbessern Sie die Datenqualität, um den Anforderungen von KI-Projekten besser gerecht zu werden

Die Strategie muss die Probleme der Datenerfassung, -kennzeichnung, -verarbeitung und des Datenabgleichs mit KI/ML-Projekten lösen. Wenn beispielsweise ein KI-Rekrutierungsprogramm nur männliche Kandidaten für technische Positionen auswählt, sind die Trainingsdaten des Programms eindeutig verzerrt, unvollständig (es werden nicht genügend Daten über weibliche Kandidaten gesammelt) und ungenau. Daher dienen diese Daten nicht dem eigentlichen Zweck des KI-Projekts.

Die Anforderungen an die Datenqualität gehen über die täglichen Aufgaben der Datenbereinigung und -reparatur hinaus. Daher müssen vor Beginn eines Projekts Datenintegritäts- und Governance-Standards festgelegt werden. Es bewahrt Projekte vor dem Scheitern!

Stellen Sie die richtigen Fragen und legen Sie Verantwortung fest.

Es gibt keinen universellen Standard für „ausreichend gute Daten oder Datenqualitätsniveau“. Stattdessen hängt alles von den Informationsmanagementsystemen des Unternehmens, den Data-Governance-Richtlinien, der Kenntnis der Team- und Geschäftsziele und vielen anderen Faktoren ab.

Aber bevor das Projekt beginnt, müssen dem Team einige Fragen gestellt werden:

  • Was ist die Quelle unserer Informationen und wie erfolgt die Datenerhebung?
  • Welche Probleme können sich auf den Datenerfassungsprozess auswirken und positive Ergebnisse gefährden?
  • Welche Informationen vermitteln die Daten? Entspricht es den Datenqualitätsstandards (d. h. die Informationen sind korrekt, absolut zuverlässig und konstant)?
  • Ist sich die benannte Person der Bedeutung von Datenqualität und geringer Qualität bewusst?
  • Sind Rollen und Verantwortlichkeiten definiert? Wer muss beispielsweise einen regelmäßigen Datenbereinigungsplan einhalten? Wer ist für die Erstellung von Stammdatensätzen verantwortlich?
  • Sind die Daten zweckmäßig?

Stellen Sie die richtigen Fragen, weisen Sie die richtigen Rollen zu, implementieren Sie Datenqualitätsstandards und helfen Sie Ihrem Team, Herausforderungen zu meistern, bevor sie entstehen!

Zusammenfassung

Datenqualität bedeutet mehr als nur die Behebung von Tippfehlern oder Fehlern. Es stellt sicher, dass KI-Systeme nicht diskriminierend, irreführend oder ungenau sind. Vor dem Start eines KI-Projekts ist es notwendig, die Herausforderungen der Datenqualität anzugehen, indem Fehler in den Daten behoben werden. Starten Sie außerdem ein organisationsweites Datenkompetenzprogramm, um jedes Team mit dem Gesamtziel zu verbinden.

Einführung des Übersetzers

Cui Hao, 51CTO-Community-Redakteur, leitender Architekt, verfügt über 18 Jahre Erfahrung in der Softwareentwicklung und Architektur sowie 10 Jahre Erfahrung in verteilter Architektur.

Originaltitel:​​Ist Ihre Daten gut genug für Ihre Pläne für maschinelles Lernen/KI?​​, Autor: Farah Kim​

Das obige ist der detaillierte Inhalt vonSo verbessern Sie die Datenqualität, um den Anforderungen von KI-Projekten besser gerecht zu werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Jun 28, 2024 am 03:51 AM

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Sieben coole technische Interviewfragen für GenAI und LLM Sieben coole technische Interviewfragen für GenAI und LLM Jun 07, 2024 am 10:06 AM

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Jun 11, 2024 pm 03:57 PM

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen Jul 17, 2024 pm 06:37 PM

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Jun 05, 2024 pm 08:51 PM

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Das 70B-Modell generiert 1.000 Token in Sekunden, das Umschreiben des Codes übertrifft GPT-4o, vom Cursor-Team, einem von OpenAI investierten Code-Artefakt Das 70B-Modell generiert 1.000 Token in Sekunden, das Umschreiben des Codes übertrifft GPT-4o, vom Cursor-Team, einem von OpenAI investierten Code-Artefakt Jun 13, 2024 pm 03:47 PM

Beim Modell 70B können 1000 Token in Sekunden generiert werden, was fast 4000 Zeichen entspricht! Die Forscher haben Llama3 verfeinert und einen Beschleunigungsalgorithmus eingeführt. Im Vergleich zur nativen Version ist die Geschwindigkeit 13-mal höher! Es ist nicht nur schnell, seine Leistung bei Code-Rewriting-Aufgaben übertrifft sogar GPT-4o. Diese Errungenschaft stammt von anysphere, dem Team hinter dem beliebten KI-Programmierartefakt Cursor, und auch OpenAI beteiligte sich an der Investition. Sie müssen wissen, dass bei Groq, einem bekannten Framework zur schnellen Inferenzbeschleunigung, die Inferenzgeschwindigkeit von 70BLlama3 nur mehr als 300 Token pro Sekunde beträgt. Aufgrund der Geschwindigkeit von Cursor kann man sagen, dass eine nahezu sofortige vollständige Bearbeitung der Codedatei möglich ist. Manche Leute nennen es einen guten Kerl, wenn man Curs sagt

See all articles