


Wie führt man Masseneinfügungen mit „scope_identity()' in SQL Server effizient durch?
Verwenden Sie gespeicherte Prozeduren, um Batch-Einfügungen effizient durchzuführen und scope_identity()
Einführung
In diesem Artikel wird eine Methode vorgeschlagen, die auf gespeicherten Prozeduren basiert, um die Leistung von Batch-Einfügungen mit scope_identity()
zu verbessern. Es nutzt Tabellenwertparameter, MERGE-Anweisungen und OUTPUT-Klauseln, um Datensätze effizient in verknüpfte Tabellen einzufügen und erfasst die generierten IDs mithilfe einer Zuordnungstabelle.
Beispieltabelle
Wir erstellen zunächst Beispieltabellen tblBase
und tblRelated
, zwischen denen eine Eins-zu-viele-Beziehung besteht.
CREATE TABLE tblBase ( base_id int identity(1,1) primary key, base_data int ); CREATE TABLE tblRelated ( related_base_id int foreign key references tblBase (base_id), related_Id int identity(1,1) primary key, related_data int );
Benutzerdefinierter Tabellentyp
Als nächstes definieren wir benutzerdefinierte Tabellentypen (UDTs), um die Eingabedaten für die Tabellen tblBase
und tblRelated
darzustellen.
CREATE TYPE udt_base As Table ( base_temp_id int, -- 注意:填充表值参数时,此列保存用于连接`tblBase`和`tblRelated`表的ID。 base_id int, base_data int ); CREATE TYPE udt_related As Table ( related_base_id int, related_data int ); CREATE TYPE udt_idMap as table ( temp_id int, id int );
Gespeicherte Prozedur
Die folgende stp_InsertMultipleRecordsToMultipleTables
gespeicherte Prozedur akzeptiert udt_base
und udt_related
UDTs als Eingabe und führt Masseneinfügungsvorgänge durch.
CREATE PROCEDURE stp_InsertMultipleRecordsToMultipleTables ( @base as dbo.udt_base readonly, @related as dbo.udt_related readonly ) AS DECLARE @idMap as dbo.udt_idMap MERGE INTO tblBase USING @base AS temp ON 1 = 0 -- 始终不匹配 WHEN NOT MATCHED THEN INSERT (base_data) VALUES (temp.base_data) OUTPUT temp.base_temp_id, inserted.base_id -- 此处我们使用`base_temp_id`映射到正确的ID INTO @idMap (temp_id, id); INSERT INTO tblRelated(related_base_id, related_data) SELECT id, related_data FROM @related r INNER JOIN @idMap m ON(r.related_base_id = m.temp_id) -- 此处我们使用映射表插入具有正确`base_id`的相关记录
Beschreibung
- Diese gespeicherte Prozedur akzeptiert UDT als Eingabe.
- Es verwendet die MERGE-Anweisung, um Datensätze in
tblBase
einzufügen. Diese Methode stellt sicher, dass die Tabelle aktualisiert oder eingefügt wird (aktualisiert, wenn ein passender Datensatz vorhanden ist).
Die - OUTPUT-Klausel erfasst das generierte
base_id
und das temporärebase_temp_id
, das zum Verknüpfen der zugehörigen Tabellen verwendet wird. - Diese Werte werden in der
@idMap
-Tabelle gespeichert. - Der Prozess verwendet dann
@idMap
, um die zugehörigen Datensätze intblRelated
einzufügen, um sicherzustellen, dass Fremdschlüsselbeziehungen beibehalten werden.
Testen
Getestet an 10 übergeordneten Datensätzen und 1000 untergeordneten Datensätzen, wurde der Prozess in weniger als 1 Sekunde ausgeführt.
Fazit
Dieser auf gespeicherten Prozeduren basierende Ansatz bietet erhebliche Leistungsverbesserungen für Batch-Einfügungen mit scope_identity()
. Dadurch entfällt die Notwendigkeit, Abfragen in einer Schleife durchzuführen, wodurch die Anzahl der Datenbankaufrufe und die Sperrzeit reduziert werden. Darüber hinaus nutzt es Tabellenwertparameter und Tabellenwertfunktionen (UDFs), um Daten effizient zu manipulieren.
Das obige ist der detaillierte Inhalt vonWie führt man Masseneinfügungen mit „scope_identity()' in SQL Server effizient durch?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Die Hauptaufgabe von MySQL in Webanwendungen besteht darin, Daten zu speichern und zu verwalten. 1.Mysql verarbeitet effizient Benutzerinformationen, Produktkataloge, Transaktionsunterlagen und andere Daten. 2. Durch die SQL -Abfrage können Entwickler Informationen aus der Datenbank extrahieren, um dynamische Inhalte zu generieren. 3.Mysql arbeitet basierend auf dem Client-Server-Modell, um eine akzeptable Abfragegeschwindigkeit sicherzustellen.

InnoDB verwendet Redologs und undologische, um Datenkonsistenz und Zuverlässigkeit zu gewährleisten. 1.REDOLOogen zeichnen Datenseitenänderung auf, um die Wiederherstellung und die Durchführung der Crash -Wiederherstellung und der Transaktion sicherzustellen. 2.Strundologs zeichnet den ursprünglichen Datenwert auf und unterstützt Transaktionsrollback und MVCC.

Im Vergleich zu anderen Programmiersprachen wird MySQL hauptsächlich zum Speichern und Verwalten von Daten verwendet, während andere Sprachen wie Python, Java und C für die logische Verarbeitung und Anwendungsentwicklung verwendet werden. MySQL ist bekannt für seine hohe Leistung, Skalierbarkeit und plattformübergreifende Unterstützung, die für Datenverwaltungsanforderungen geeignet sind, während andere Sprachen in ihren jeweiligen Bereichen wie Datenanalysen, Unternehmensanwendungen und Systemprogramme Vorteile haben.

Die MySQL -Idium -Kardinalität hat einen signifikanten Einfluss auf die Abfrageleistung: 1. Hoher Kardinalitätsindex kann den Datenbereich effektiver einschränken und die Effizienz der Abfrage verbessern. 2. Niedriger Kardinalitätsindex kann zu einem vollständigen Tischscannen führen und die Abfrageleistung verringern. 3. Im gemeinsamen Index sollten hohe Kardinalitätssequenzen vorne platziert werden, um die Abfrage zu optimieren.

Zu den grundlegenden Operationen von MySQL gehört das Erstellen von Datenbanken, Tabellen und die Verwendung von SQL zur Durchführung von CRUD -Operationen für Daten. 1. Erstellen Sie eine Datenbank: createdatabasemy_first_db; 2. Erstellen Sie eine Tabelle: CreateTableBooks (IDINGAUTO_INCRECTIONPRIMARYKEY, Titelvarchar (100) Notnull, AuthorVarchar (100) Notnull, veröffentlicht_yearint); 3.. Daten einfügen: InsertIntoBooks (Titel, Autor, veröffentlicht_year) va

MySQL eignet sich für Webanwendungen und Content -Management -Systeme und ist beliebt für Open Source, hohe Leistung und Benutzerfreundlichkeit. 1) Im Vergleich zu Postgresql führt MySQL in einfachen Abfragen und hohen gleichzeitigen Lesevorgängen besser ab. 2) Im Vergleich zu Oracle ist MySQL aufgrund seiner Open Source und niedrigen Kosten bei kleinen und mittleren Unternehmen beliebter. 3) Im Vergleich zu Microsoft SQL Server eignet sich MySQL besser für plattformübergreifende Anwendungen. 4) Im Gegensatz zu MongoDB eignet sich MySQL besser für strukturierte Daten und Transaktionsverarbeitung.

MySQL verwaltet strukturierte Daten effizient durch Tabellenstruktur und SQL-Abfrage und implementiert Inter-Tisch-Beziehungen durch Fremdschlüssel. 1. Definieren Sie beim Erstellen einer Tabelle das Datenformat und das Typ. 2. Verwenden Sie fremde Schlüssel, um Beziehungen zwischen Tabellen aufzubauen. 3.. Verbessern Sie die Leistung durch Indexierung und Abfrageoptimierung. 4. regelmäßig Sicherung und Überwachung von Datenbanken, um die Datensicherheit und die Leistungsoptimierung der Daten zu gewährleisten.

InnoDbbufferpool reduziert die Scheiben -E/A durch Zwischenspeicherung von Daten und Indizieren von Seiten und Verbesserung der Datenbankleistung. Das Arbeitsprinzip umfasst: 1. Daten lesen: Daten von Bufferpool lesen; 2. Daten schreiben: Schreiben Sie nach der Änderung der Daten an Bufferpool und aktualisieren Sie sie regelmäßig auf Festplatte. 3. Cache -Management: Verwenden Sie den LRU -Algorithmus, um Cache -Seiten zu verwalten. 4. Lesemechanismus: Last benachbarte Datenseiten im Voraus. Durch die Größe des Bufferpool und die Verwendung mehrerer Instanzen kann die Datenbankleistung optimiert werden.
