


Vergleich der Hyperparameteroptimierung: Rastersuche, Zufallssuche und Bayes'sche Optimierung
In diesem Artikel werden die gängigsten Hyperparameter-Optimierungsmethoden zur Verbesserung der Ergebnisse des maschinellen Lernens ausführlich vorgestellt.
Übersetzer |. Zhu Xianzhong
Rezensent |. Zusätzliche Daten sind oft hilfreich (außer unter bestimmten Umständen), aber die Generierung hochwertiger Daten kann sehr teuer sein. Durch die Hyperparameteroptimierung sparen wir Zeit und Ressourcen, indem wir vorhandene Daten nutzen, um die beste Modellleistung zu erzielen.
Wie der Name schon sagt, handelt es sich bei der Hyperparameteroptimierung um den Prozess der Bestimmung der besten Kombination von Hyperparametern für ein maschinelles Lernmodell, um die Optimierungsfunktion zu erfüllen (d. h. die Leistung des Modells angesichts des untersuchten Datensatzes zu maximieren). Mit anderen Worten: Jedes Modell bietet mehrere Tuning-„Schaltflächen“ mit Optionen, die wir ändern können, bis wir eine optimale Kombination von Hyperparametern für unser Modell erreicht haben. Einige Beispiele für Parameter, die wir während der Hyperparameteroptimierung ändern können, können die Lernrate, die Architektur des neuronalen Netzwerks (z. B. die Anzahl der verborgenen Schichten), die Regularisierung usw. sein.
In diesem Artikel werden wir die drei häufigsten Methoden zur Hyperparameteroptimierung konzeptionell vorstellen, nämlich Rastersuche, Zufallssuche und Bayes'sche Optimierung, und sie dann einzeln implementieren.
Ich werde am Anfang des Artikels eine allgemeine Vergleichstabelle als Referenz für den Leser bereitstellen und dann im weiteren Verlauf des Artikels jedes Element in der Vergleichstabelle weiter untersuchen, erklären und implementieren.
Tabelle 1: Vergleich der Hyperparameter-Optimierungsmethoden1. Rastersuche ist wahrscheinlich die einfachste und intuitivste Methode zur Hyperparameteroptimierung, bei der in einem definierten Suchraum gründlich gesucht wird die beste Kombination von Hyperparametern. Der „Suchraum“ ist in diesem Zusammenhang der gesamte Hyperparameter und die Werte solcher Hyperparameter, die bei der Optimierung berücksichtigt werden. Lassen Sie uns die Rastersuche anhand eines Beispiels besser verstehen.
Angenommen, wir haben ein maschinelles Lernmodell mit nur drei Parametern. Jeder Parameter kann den in der Tabelle angegebenen Wert annehmen:
Parameter_1 = [1, 2, 3]
Parameter_2 = [a, b, c ]parameter_3 = [x, y, z]
Wir wissen nicht, welche Kombination dieser Parameter die Optimierungsfunktion unseres Modells optimiert (d. h. die beste Ausgabe für unser maschinelles Lernmodell liefert). Bei der Rastersuche probieren wir einfach jede Kombination dieser Parameter aus, messen die Modellleistung für jeden Parameter und wählen einfach die Kombination aus, die die beste Leistung liefert! In diesem Beispiel kann Parameter 1 3 Werte annehmen (d. h. 1, 2 oder 3), Parameter 2 kann 3 Werte annehmen (d. h. a, b und c) und Parameter 3 kann 3 Werte annehmen (d. h. x, y und z). Mit anderen Worten: Insgesamt gibt es 3*3*3=27 Kombinationen. Die Rastersuche in diesem Beispiel umfasst 27 Runden zur Bewertung der Leistung des maschinellen Lernmodells, um die Kombination mit der besten Leistung zu finden.
Wie Sie sehen, ist diese Methode sehr einfach (ähnlich einer Trial-and-Error-Aufgabe), weist jedoch auch einige Einschränkungen auf. Fassen wir die Vor- und Nachteile dieser Methode zusammen.
Zu den Vorteilen gehören unter anderem:
- In großen und/oder komplexen Räumen Systeme mit einer großen Anzahl von Hyperparametern. Kostspielig im Modell (da alle Kombinationen ausprobiert und bewertet werden müssen).
- Speicher – lernt nicht aus früheren Beobachtungen.
- Findet möglicherweise nicht die beste Kombination, wenn der Suchraum zu groß ist. Mein Vorschlag ist Wenn Sie ein einfaches Modell mit einem kleinen Suchraum haben, verwenden Sie ansonsten die Rastersuche. Es wird empfohlen, weiterzulesen, um eine Lösung zu finden, die für einen größeren Suchraum besser geeignet ist. Nun implementieren wir die Rastersuche anhand eines realen Beispiels.
- 1.1. Implementierung des Rastersuchalgorithmus
- Um die Rastersuche zu implementieren, verwenden wir den Iris-Datensatz in scikit-learn, um ein zufälliges Waldklassifizierungsmodell zu erstellen. Dieser Datensatz umfasst drei verschiedene Irisblüten- und Kelchblattlängen und wird für diese Klassifizierungsübung verwendet. In diesem Artikel ist die Modellentwicklung zweitrangig, da das Ziel darin besteht, die Leistung verschiedener Hyperparameter-Optimierungsstrategien zu vergleichen. Ich empfehle Ihnen, sich auf die Ergebnisse der Modellbewertung und die Zeit zu konzentrieren, die jede Hyperparameter-Optimierungsmethode benötigt, um den ausgewählten Satz von Hyperparametern zu erreichen. Ich beschreibe die Ergebnisse des Laufs und stelle dann eine zusammenfassende Vergleichstabelle für die drei in diesem Artikel verwendeten Methoden bereit.
Der Suchraum einschließlich aller Hyperparameterwerte ist wie folgt definiert:
search_space = {'n_estimators': [10, 100, 500, 1000],
'max_ Depth': [2, 10, 25, 50, 100],'min_samples_split': [2, 5, 10],
'min_samples_leaf': [1, 5, 10]}Der obige Suchraum besteht aus 4*5*3*3= 180 Hyperparameter der Gesamtkombination. Wir werden die Rastersuche verwenden, um die Kombination zu finden, die die Zielfunktion wie folgt optimiert:# Bibliotheken importieren
aus sklearn.model_selection import GridSearchCV
aus sklearn.datasets import load_iris
aus sklearn.ensemble import RandomForestClassifier
aus sklearn.model_selection import cross_val_score
Importzeit
# Iris-Datensatz laden
iris = Load_Iris()
, 10, 25, 50, 100],
'min_samples_split': [2, 5, 10],
'min_samples_leaf': [1, 5, 10]}
#Define Random Forest Classifier
clf = RandomForestClassifier (random_state=1234)
# Optimierungsobjekt generieren
optimizer = GridSearchCV(clf, search_space, cv=5, Scoring='accuracy')
#Speichern Sie die Startzeit, damit diese zur Berechnung des Gesamtverbrauchs verwendet werden kann Zeit
start_time = time.time()
# Optimierer für die Datenanpassung
optimizer.fit(X, y)
# Speichern Sie die Endzeit, damit sie zur Berechnung der Gesamtzeit verwendet werden kann
end_time = time .time ()
# Drucken Sie den optimalen Hyperparametersatz und die entsprechende Punktzahl
print(f"selected hyperparameters:")
print(optimizer.best_params_)
print("")
print(f"best_score: {optimizer. best_score_}")
print(f"elapsed_time: {round(end_time-start_time, 1)}")
Die Ausgabe des obigen Codes ist wie folgt:
Hier können wir die Verwendung von sehen Die Netzwerk-Grid-Suche wählt Hyperparameterwerte aus. Darunter beschreibt best_score die Bewertungsergebnisse unter Verwendung des ausgewählten Satzes von Hyperparametern und elapsed_time beschreibt die Zeit, die mein lokaler Laptop benötigt hat, um diese Hyperparameter-Optimierungsstrategie auszuführen. Wenn Sie mit der nächsten Methode fortfahren, behalten Sie zum Vergleich die Bewertungsergebnisse und die verstrichene Zeit im Hinterkopf. Kommen wir nun zur Diskussion der Zufallssuche.
Einfach zu verstehen und umzusetzen
- Einfach zu parallelisieren
- Anwendbar sowohl auf diskrete als auch auf kontinuierliche Räume
- Kostengünstiger als die Rastersuche
- Konvergiert eher zum Optimum als die Rastersuche mit der gleichen Anzahl von Versuchen. Nachteile:
- Speicher – lernt nicht Aus früheren Beobachtungen
- Unter Berücksichtigung der Zufallsauswahl können wichtige Hyperparameterwerte übersehen werden
- In der nächsten Methode werden wir das Raster und den „speicherlosen“ Nachteil der Zufallssuche lösen. Aber bevor wir diese Methode besprechen, implementieren wir die Zufallssuche.
aus sklearn.model_selection import RandomizedSearchCV
aus scipy.stats import randint
# Erstellen Sie ein RandomizedSearchCV-Objekt
optimizer = RandomizedSearchCV(clf, param_distributinotallow=search_space,
n_iter=50, cv= 5, Scoring='accuracy',
random_state=1234)
# Speichern Sie die Startzeit, um die Gesamtlaufzeit zu berechnen
start_time = time.time()
# Passen Sie den Optimierer an die Daten an
Optimierer . fit(X, y)
# Speichern Sie die Endzeit, um die Gesamtlaufzeit zu berechnen :" )
print(optimizer.best_params_)
print("")
print(f"best_score: {optimizer.best_score_}")
print(f"elapsed_time: {round(end_time-start_time, 1) }" )
Die Ausgabe des obigen Codes ist wie folgt:
Zufällige Suchergebnisse
Diese Ergebnisse sind im Vergleich zu den Ergebnissen der Rastersuche sehr interessant. best_score bleibt gleich, aber elapsed_time verringert sich von 352,0 Sekunden auf 75,5 Sekunden! Wie beeindruckend! Mit anderen Worten, der Zufallssuchalgorithmus hat es geschafft, eine Reihe von Hyperparametern zu finden, die die gleiche Leistung wie die Rastersuche erbrachten, und zwar in etwa 21 % der für die Rastersuche erforderlichen Zeit! Allerdings ist der Wirkungsgrad hier deutlich höher.
Als nächstes fahren wir mit unserer nächsten Methode fort, der sogenannten Bayes’schen Optimierung, die aus jedem Versuch im Optimierungsprozess lernt.
3. Bayesianische Optimierung
Bayesianische Optimierung ist eine Hyperparameter-Optimierungsmethode, die ein Wahrscheinlichkeitsmodell verwendet, um aus früheren Versuchen zu „lernen“ und die Suche auf die beste Kombination von Hyperparametern im Suchraum zu lenken, wodurch die Zielfunktion des maschinellen Lernens optimiert wird Modell.
Die Bayes'sche Optimierungsmethode lässt sich in 4 Schritte unterteilen, die ich im Folgenden beschreibe. Ich empfehle Ihnen, diese Schritte durchzulesen, um den Prozess besser zu verstehen. Für die Verwendung dieser Methode sind jedoch keine Vorkenntnisse erforderlich.
- Definieren Sie ein „prior“, das ein probabilistisches Modell über unsere Überzeugung zu einem bestimmten Zeitpunkt über die wahrscheinlichste Kombination von Hyperparametern ist, die die Zielfunktion optimiert.
- Ein Modell zur Bewertung einer Stichprobe von Hyperparametern.
- Verwenden Sie die Schritte Mithilfe der in Schritt 2 gewonnenen Erkenntnisse aktualisieren wir das probabilistische Modell aus Schritt 1 (was wir als „prior“ bezeichnen), um zu verstehen, wo unserer Meinung nach die wahrscheinlichsten Kombinationen von Hyperparametern liegen, die die Zielfunktion optimieren. Unser aktualisierter Glaube wird „posterior“ genannt. Mit anderen Worten: Das in Schritt 2 gewonnene Wissen hilft uns, den Suchraum besser zu verstehen und führt uns vom Vorhergehenden zum Hinteren, wodurch das Hintere unser „neuestes“ Wissen über den Suchraum und die Zielfunktion wird, wie in Schritt 2 ermittelt. Informationen bereitstellen
- Wiederholen Sie die Schritte 2 und 3, bis die Modellleistung konvergiert, die Ressourcen erschöpft sind oder andere vordefinierte Metriken erfüllt sind.
Wenn Sie mehr Details zur Bayes'schen Optimierung erfahren möchten, können Sie sich den folgenden Beitrag ansehen:
" „Bayesian Optimization Algorithm in Machine Learning“, die Adresse lautet:
https://medium.com/@fmnobar/conceptual-overview-of-bayesian-optimization-for-parameter-tuning-in -machine-learning-a3b1b4b9339f.
Da wir nun verstanden haben, wie die Bayes'sche Optimierung funktioniert, schauen wir uns ihre Vor- und Nachteile an.
Vorteile:
- Lernen Sie aus vergangenen Beobachtungen und seien Sie dadurch effizienter. Mit anderen Worten: Es wird erwartet, dass in weniger Iterationen ein besserer Satz von Hyperparametern gefunden wird als bei gedächtnislosen Methoden Die Wahl der Prioritäten und anfänglichen Wahrscheinlichkeitsverteilungen für die bei der Bayes’schen Optimierung verwendeten Funktionen (z. B. Get-Funktionen usw.) können die Leistung und ihre Lernkurve erheblich beeinflussen die Ergebnisse.
- 3.1. Implementierung des Bayes'schen Optimierungsalgorithmus
- Ähnlich wie im vorherigen Abschnitt werden wir den folgenden Codeausschnitt verwenden, um die Bayes'sche Hyperparameteroptimierung für dasselbe Problem zu implementieren, das in der Rastersuchimplementierung beschrieben wurde.
- # Bibliothek importieren aus Skopt-Import BayesSearchCV
- # Bayessche Optimierung durchführen
search_spaces=search_space,
n_iter=10,cv=5 ,
scoring='accuracy',random_state=1234)
# Speichern Sie die Startzeit, um die Gesamtlaufzeit zu berechnen
start_time = time.time()
optimizer.fit(X, y)
# Speichern Sie die Endzeit, um die Gesamtlaufzeit zu berechnen
end_time = time.time()
# Drucken Sie den besten Hyperparametersatz und die entsprechende Punktzahl aus
print(f"selected hyperparameters:")
print(optimizer.best_params_ )
print("")
print(f"best_score: {optimizer.best_score_}")
print(f"elapsed_time: {round(end_time-start_time, 1)}")
Die Ausgabe der obiger Code Wie folgt:
Bayesianische Optimierungsergebnisse
Eine weitere Reihe interessanter Ergebnisse! Der best_score stimmt mit den Ergebnissen überein, die wir mit der Raster- und Zufallssuche erhalten haben, aber das Ergebnis dauerte nur 23,1 Sekunden im Vergleich zu 75,5 Sekunden bei der Zufallssuche und 352,0 Sekunden bei der Rastersuche! Mit anderen Worten: Die Verwendung der Bayes'schen Optimierung nimmt etwa 93 % weniger Zeit in Anspruch als die Rastersuche. Dies ist ein enormer Produktivitätsschub, der bei größeren, komplexeren Modellen und Suchräumen noch bedeutsamer wird.
Beachten Sie, dass die Bayes'sche Optimierung nur 10 Iterationen benötigte, um diese Ergebnisse zu erhalten, da sie aus früheren Iterationen lernen kann (im Gegensatz zur Zufalls- und Rastersuche).
Ergebnisvergleich
Die folgende Tabelle vergleicht die Ergebnisse der drei bisher besprochenen Methoden. Die Spalte „Methodik“ beschreibt die verwendete Hyperparameter-Optimierungsmethode. Darauf folgen die mit jeder Methode ausgewählten Hyperparameter. „Beste Punktzahl“ ist die mit einer bestimmten Methode ermittelte Punktzahl, und „Verstrichene Zeit“ gibt an, wie lange es gedauert hat, bis die Optimierungsstrategie auf meinem lokalen Laptop ausgeführt wurde. In der letzten Spalte „Gewonnene Effizienz“ wird von der Rastersuche als Basislinie ausgegangen und dann die durch jede der beiden anderen Methoden im Vergleich zur Rastersuche gewonnene Effizienz berechnet (unter Verwendung der verstrichenen Zeit). Da die Zufallssuche beispielsweise 75,5 Sekunden und die Rastersuche 352,0 Sekunden dauert, wird die Effizienz der Zufallssuche im Verhältnis zur Rastersuchbasislinie zu 1–75,5/352,0=78,5 % berechnet.
Tabelle 2 – Vergleichstabelle zur Methodenleistung
Zwei Hauptschlussfolgerungen in der obigen Vergleichstabelle:
- Effizienz: Wir können sehen, wie Lernmethoden wie die Bayes'sche Optimierung in kürzerer Zeit bessere Ergebnisse erzielen können. Finden Sie eine optimierter Satz von Hyperparametern.
- Parameterauswahl: Es kann mehrere richtige Antworten geben. Beispielsweise unterscheiden sich die ausgewählten Parameter für die Bayes'sche Optimierung von denen für die Raster- und Zufallssuche, obwohl die Bewertungsmetrik (d. h. best_score) gleich bleibt. Dies ist in größeren, komplexeren Umgebungen umso wichtiger.
Fazit
In diesem Artikel haben wir besprochen, was Hyperparameteroptimierung ist, und die drei am häufigsten verwendeten Methoden für diese Optimierungsübung vorgestellt. Anschließend stellen wir jede dieser drei Methoden im Detail vor und implementieren sie in einer Klassifizierungsübung. Abschließend vergleichen wir die Ergebnisse der Implementierung der drei Methoden. Wir stellen fest, dass Methoden wie die Bayes'sche Optimierung, die aus früheren Versuchen gelernt wurden, die Effizienz erheblich verbessern können, was ein wichtiger Faktor in großen komplexen Modellen wie tiefen neuronalen Netzen sein kann, bei denen die Effizienz ein entscheidender Faktor sein kann.
Einführung in den Übersetzer
Zhu Xianzhong, 51CTO-Community-Redakteur, 51CTO-Expertenblogger, Dozent, Computerlehrer an einer Universität in Weifang und ein Veteran in der freiberuflichen Programmierbranche.
Originaltitel: Hyperparameter Optimization – Intro and Implementation of Grid Search, Random Search and Bayesian Optimization, Autor: Farzad Mahmoodinobar
Das obige ist der detaillierte Inhalt vonVergleich der Hyperparameteroptimierung: Rastersuche, Zufallssuche und Bayes'sche Optimierung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

Laut Nachrichten dieser Website vom 1. August hat SK Hynix heute (1. August) einen Blogbeitrag veröffentlicht, in dem es ankündigt, dass es am Global Semiconductor Memory Summit FMS2024 teilnehmen wird, der vom 6. bis 8. August in Santa Clara, Kalifornien, USA, stattfindet viele neue Technologien Generation Produkt. Einführung des Future Memory and Storage Summit (FutureMemoryandStorage), früher Flash Memory Summit (FlashMemorySummit), hauptsächlich für NAND-Anbieter, im Zusammenhang mit der zunehmenden Aufmerksamkeit für die Technologie der künstlichen Intelligenz wurde dieses Jahr in Future Memory and Storage Summit (FutureMemoryandStorage) umbenannt Laden Sie DRAM- und Speicheranbieter und viele weitere Akteure ein. Neues Produkt SK Hynix wurde letztes Jahr auf den Markt gebracht
