Heim > Technologie-Peripheriegeräte > KI > Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

王林
Freigeben: 2023-11-27 17:13:46
nach vorne
1235 Leute haben es durchsucht

Die rasante Entwicklung großer Sprachmodelle in diesem Jahr hat dazu geführt, dass Modelle wie BERT jetzt als „kleine“ Modelle bezeichnet werden. Beim LLM-Wettbewerb für naturwissenschaftliche Prüfungen von Kaggle erreichten Spieler, die Deberta nutzten, den vierten Platz, was ein hervorragendes Ergebnis ist. Daher ist in einem bestimmten Bereich oder Bedarf nicht unbedingt ein großes Sprachmodell als beste Lösung erforderlich, und auch kleine Modelle haben ihren Platz. Daher stellen wir heute PubMedBERT vor, ein von Microsoft Research bei ACM im Jahr 2022 veröffentlichtes Papier. Dieses Modell trainiert BERT von Grund auf vor, indem es domänenspezifische Korpora verwendet. Das Folgende sind die wichtigsten Punkte des Papiers:

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERTFür bestimmte Bereiche mit großen Mengen an unbeschriftetem Text, wie z. B. im biomedizinischen Bereich, ist das Vortraining von Sprachmodellen von Grund auf effektiver als das kontinuierliche Vortraining von Sprachmodellen für allgemeine Domänen. Zu diesem Zweck schlagen wir den Biomedical Language Understanding and Reasoning Benchmark (BLURB) für domänenspezifisches Vortraining vor.

PubMedBERT

1, domänenspezifisches Vortraining. Untersuchungen zeigen, dass man bei Null anfangen kann -spezifisches Vortraining übertrifft das kontinuierliche Vortraining von Allzweck-Sprachmodellen deutlich, was zeigt, dass die vorherrschenden Annahmen, die dem Vortraining für gemischte Domänen zugrunde liegen, nicht immer zutreffen.

2. Modell

Bei Verwendung des BERT-Modells besteht die Anforderung der Ganzwortmaskierung (WWM) darin, dass das gesamte Wort maskiert werden muss

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

3 Nach Angaben des Autors ist BLUE [45] der erste Versuch, einen NLP-Benchmark im biomedizinischen Bereich zu schaffen. Die Abdeckung von BLUE ist jedoch begrenzt. Für biomedizinische Anwendungen auf Basis von pubmed schlägt der Autor den Biomedical Language Understanding and Reasoning Benchmark (BLURB) vor.

PubMedBERT verwendet einen größeren domänenspezifischen Korpus (21 GB).

Ergebnisanzeige

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

PubMedBERT übertrifft durchweg alle anderen BERT-Modelle bei den meisten Aufgaben der biomedizinischen Verarbeitung natürlicher Sprache (NLP), oft mit einem klaren Vorteil

Das obige ist der detaillierte Inhalt vonSpezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage