Heim Datenbank MySQL-Tutorial REDGATE又一好用的脚本工具ScriptsManager1.3

REDGATE又一好用的脚本工具ScriptsManager1.3

Jun 07, 2016 pm 05:37 PM
工具 Gebraucht 脚本

REDGATE又一好用的脚本工具ScriptsManager1.3 先说明一下:这个工具是免费的 下载地址: 这个工具是常用脚本工具,里面已经集合了SQLSERVER砖家们的脚本,这些脚本涉及很多方面 包括:备份,诊断,导出,索引,空间,模版,工具 大家可以调用这些脚本,不用

REDGATE又一好用的脚本工具ScriptsManager1.3

先说明一下:这个工具是免费的

下载地址:

这个工具是常用脚本工具,里面已经集合了SQLSERVER砖家们的脚本,这些脚本涉及很多方面

包括:备份,诊断,,导出,索引,空间,模版,工具

大家可以调用这些脚本,不用再打开你的脚本文件夹到处搜索你的笔记了

选择好脚本之后就打开

打开之后会显示脚本的用途

脚本代码

贡献脚本的作者信息

这些作者都来自知名数据库网站

点击“Continue”

选择在哪个数据库上运行这个脚本

点击“run”运行

运行结果

也可以将结果导出csv文件

也可以贡献您的代码到社区

 

工具里面的所有脚本代码

 

脚本大全 redgate的ScriptsManager sd.name , bs.type bs.type bs.type bs.type bs.type bs.type bs.type , bs.backup_start_date master..sysdatabases sd msdb..backupset bs (sd.name) msdb..backupmediafamily bmf ON bs.media_set_id = bmf.media_set_id bs.backup_start_date sd.name , --, bs.type bs.type bs.type bs.type bs.type bs.type bs.type bs.type , master..sysdatabases sd msdb..backupset bs (sd.name) msdb..backupmediafamily bmf ON bs.media_set_id = bmf.media_set_id sd.name, bs.type, bs.database_name --nocount #Data( FileID , , TotalExtents , UsedExtents , sysname NOT NULL, (MAX) NOT NULL, (MAX) NULL) create table #Results( db sysname NULL , FileType varchar(4) NOT NULL, sysname not null, sysname NOT NULL, TotalMB numeric(18,2) NOT NULL, UsedMB numeric(18,2) NOT NULL, PctUsed numeric(18,2) NULL, FilePath nvarchar(MAX) NULL, FileID int null) create table #Log( db sysname NOT NULL, LogSize numeric(18,5) NOT NULL, LogUsed numeric(18,5) NOT NULL, Status , (MAX) NULL) , TotalExtents, UsedExtents, , ) ) update #Data set #Data.FileGroup = sysfilegroups.groupname from #Data, sysfilegroups where #Data.FileGroupId = sysfilegroups.groupid , FileType, , TotalMB, UsedMB, PctUsed, FilePath, FileID) SELECT DB_NAME() db, , FileType, , TotalExtents . TotalMB, UsedExtents UsedMB, UsedExtents*100. /TotalExtents UsedPct, , FileID FROM #Data (), #Log (db,LogSize,LogUsed,Status) ) , FileType, , TotalMB,UsedMB, PctUsed, FilePath, FileID) select DB_NAME() db, , FileType, s., s.Size/128. as LogSize , ) LogUsedSpace, (()).) UsedPct, s.FileName FilePath, s.FileID FileID from #Log l , master.dbo.sysaltfiles f , dbo.sysfiles s where f.dbid = DB_ID() s.FileID = f.FileID and l.db = DB_NAME() SELECT r.db AS "Database", r.FileType AS "File type", r.FileGroup END "File group", r.FileName AS "Logical file name", r.TotalMB AS "Total size (MB)", r.UsedMB AS "Used (MB)", r.PctUsed AS "Used (%)", r.FilePath AS "File name", r.FileID AS "File ID", (decimal(18,2), s.maxsize /128.) END "Max. size (MB)", CONVERT(decimal(18,2), s.growth /128.) "Autogrowth increment (MB)" FROM #Results r INNER JOIN dbo.sysfiles s ON r.FileID = s.FileID , #Data DROP TABLE #Results --t2.cntr_value ((t2.cntr_value ) sys.dm_os_performance_counters t1, sys.dm_os_performance_counters t2 WHERE t1.t1.t1.counter_namet2.counter_name --(ST., ((CASE statement_end_offset (ST.text) ELSE QS.statement_end_offset ) + 1) AS "Statement Text", total_worker_time "Average Worker Time (ms)", execution_count AS "Execution Count", total_worker_time "Total Worker Time (ms)", total_logical_reads AS "Total Logical Reads", total_logical_reads/execution_count AS "Average Logical Reads", total_elapsed_time "Total Elapsed Time (ms)", total_elapsed_time "Average Elapsed Time (ms)", QP.query_plan AS "Query Plan (double click to open)" FROM sys.dm_exec_query_stats QS CROSS APPLY sys.dm_exec_sql_text(QS.sql_handle) ST CROSS APPLY sys.dm_exec_query_plan(QS.plan_handle) QP --() OBJECT_SCHEMA_NAME(ddips., (ddips., , i. , ddips., ddips., ddips., ddips., ddips., ) , ) , ddips., ddips.sys.dm_db_index_physical_stats(DB_ID(), NULL, ) ddips i i.ddips.i.ddips.ddips.ddips. , , DB_ID()) , i. -- , , dopc_fraction., dopc_fraction.instance_name , dopc_fraction.counter_name , (DECIMAL(38,2), CAST(dopc_fraction.cntr_value AS FLOAT) / CAST(CASE dopc_base.cntr_value dopc_base.cntr_value )) sys.dm_os_performance_counters AS dopc_base JOIN sys.dm_os_performance_counters AS dopc_fraction dopc_fraction.cntr_type dopc_base.dopc_base.instance_name = dopc_fraction.instance_name , '') = UPPER(dopc_fraction.counter_name) (, , '') ) ORDER BY dopc_fraction.object_name , dopc_fraction.instance_name , dopc_fraction.counter_name ----------------------------------------------------------------------- -- o.name FROM sys.objects o ( sys.indexes i i.type_desc ) --------------------------------------------------------------------------- --(DTL.) , DTL. , ( , , ) DTL.(DTL.resource_associated_entity_id) ( , , ) ) FROM sys.partitions DTL. ) , DTL. , DTL. , DOWT. , DOWT. , DOWT. , DES_Blocked. , , ( (DEST_Blocked.text) ELSE DER.statement_end_offset ) , DOWT. , DES_Blocking. , DEST_Blocking. , DOWT.resource_description sys.dm_tran_locks DTL INNER JOIN sys.dm_os_waiting_tasks DOWT ON DTL.lock_owner_address = DOWT.resource_address DER DER. sys.dm_exec_sessions DES_Blocked DES_Blocked. sys.dm_exec_sessions DES_Blocking DES_Blocking.sys.dm_exec_connections .APPLY sys.dm_exec_sql_text() AS DEST_Blocking CROSS APPLY sys.dm_exec_sql_text(DER.sql_handle) AS DEST_Blocked ------------------------------------------------------------------------------ --(10) RANK() , , execution_count , , SUBSTRING(execText.text, deqs.statement_start_offset deqs.statement_start_offset deqs.statement_start_offset, deqs.statement_end_offset deqs.statement_end_offset deqs.statement_end_offset (execText.text) deqs.statement_start_offset deqs.statement_start_offset deqs.statement_start_offset ) , execText. sys.dm_exec_query_stats deqs CROSS APPLY sys.dm_exec_sql_text(deqs.plan_handle) AS execText ORDER BY deqs.total_worker_time DESC ; ------------------------------------------------------------------------------------ --(database_id) , , io_stall_read_ms , num_of_reads , CAST(io_stall_read_ms / ( 1.0 + num_of_reads ) AS NUMERIC(10, 1)) , io_stall_write_ms , num_of_writes , CAST(io_stall_write_ms / ( 1.0 + num_of_writes ) AS NUMERIC(10, 1)) , io_stall_read_ms , num_of_reads , CAST(( io_stall_read_ms + io_stall_write_ms ) / ( 1.0 + num_of_reads + num_of_writes) sys.dm_io_virtual_file_stats( ; --FROM sys.dm_io_virtual_file_stats(DB_ID('AdventureWorks'), NULL) --------------------------------------------------------------------------- --OBJECT_SCHEMA_NAME(ddius.(ddius. , ) (DECIMAL(38,2), CAST(SUM(user_seeks + user_scans + user_lookups) AS DECIMAL) / CAST(SUM(user_updates + user_seeks + user_scans + user_lookups) AS DECIMAL) ) , ) (DECIMAL(38,2), CAST(SUM(user_updates) AS DECIMAL) / CAST(SUM(user_updates + user_seeks + user_scans + user_lookups) AS DECIMAL) ) , , sys.dm_db_index_usage_stats AS ddius ddius.index_id = i.index_id , ) ddius.OBJECT_SCHEMA_NAME(ddius.(ddius.object_id) ------------------------------------------------------------------------------ --列出服务器实例级别下的最长的资源等待,帮你找出系统瓶颈 WITH Waits AS ( SELECT wait_type , wait_time_ms / 1000. AS wait_time_sec , 100. * wait_time_ms / SUM(wait_time_ms) OVER ( ) AS pct , ROW_NUMBER() OVER ( ORDER BY wait_time_ms DESC ) AS rn FROM sys.dm_os_wait_stats , , , , , , , , ) ) , , Waits wait_time_sec --, der.command , dest. , des.login_time , des., des., der.session_id , , der.status , sys.dm_exec_requests der der.session_id = dec.session_id INNER JOIN sys.dm_exec_sessions des ON des.session_id = der.session_id CROSS APPLY sys.dm_exec_sql_text(sql_handle) AS dest --(60) (1400) name from msdb.sys.sysdatabases CREATE TABLE #parts (dbname VARCHAR(60), part int) OPEN getdb getdb #parts VALUES(@db, 0) .sys.sysobjects so where sp.object_id = so.id and partition_number != 1 and #parts.dbname = (@vsql) getdb getdb , part #parts drop table #parts deallocate getdb Partitioned Tables ------------------------------------------------------------ ---------------------------- master 0 tempdb 0 model 0 msdb 0 DLGPOS 0 GPOSDB 0 Northwind 0 partionTest --(2000) #TempLog ( LogDate DATETIME, ProcessInfo NVARCHAR(50), (MAX)) CREATE TABLE #logF ( ArchiveNumber INT, LogDate DATETIME, LogSize INT ) INSERT INTO #logF EXEC sp_enumerrorlogs (ArchiveNumber) FROM #logF #TempLog (ArchiveNumber) FROM #logF (, Text AS Details FROM #TempLog (, Text AS Details FROM #TempLog #TempLog DROP TABLE #logF ------------------------------------------------------------------------- --()), , , master.dbo.sysdatabases master.dbo.sysdatabases

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

So interpretieren Sie die Ausgabeergebnisse von Debian Snifferer So interpretieren Sie die Ausgabeergebnisse von Debian Snifferer Apr 12, 2025 pm 11:00 PM

Debiansniffiffer ist ein Netzwerk -Sniffer -Tool zum Erfassen und Analyse von Zeitstempeln für Netzwerkpaket: Zeigt die Zeit für die Paketaufnahme in der Regel in Sekunden an. Quell -IP -Adresse (SourceIP): Die Netzwerkadresse des Geräts, das das Paket gesendet hat. Ziel -IP -Adresse (DestinationIP): Die Netzwerkadresse des Geräts, das das Datenpaket empfängt. SourcePort: Die Portnummer, die vom Gerät verwendet wird, das das Paket sendet. Destinatio

So überprüfen Sie die Debian OpenSSL -Konfiguration So überprüfen Sie die Debian OpenSSL -Konfiguration Apr 12, 2025 pm 11:57 PM

In diesem Artikel werden verschiedene Methoden eingeführt, um die OpenSSL -Konfiguration des Debian -Systems zu überprüfen, um den Sicherheitsstatus des Systems schnell zu erfassen. 1. Bestätigen Sie zuerst die OpenSSL -Version und stellen Sie sicher, ob OpenSSL installiert wurde und Versionsinformationen. Geben Sie den folgenden Befehl in das Terminal ein: Wenn OpenSslversion nicht installiert ist, fordert das System einen Fehler auf. 2. Zeigen Sie die Konfigurationsdatei an. Die Hauptkonfigurationsdatei von OpenSSL befindet sich normalerweise in /etc/ssl/opensl.cnf. Sie können einen Texteditor (z. B. Nano) verwenden: Sudonano/etc/ssl/openSSL.cnf Diese Datei enthält wichtige Konfigurationsinformationen wie Schlüssel-, Zertifikatpfad- und Verschlüsselungsalgorithmus. 3.. Verwenden Sie OPE

Was sind die Sicherheitseinstellungen für Debian Tomcat -Protokolle? Was sind die Sicherheitseinstellungen für Debian Tomcat -Protokolle? Apr 12, 2025 pm 11:48 PM

Um die Sicherheit von Debiantomcat -Protokollen zu verbessern, müssen wir auf die folgenden Schlüsselrichtlinien achten: 1. Berechtigungssteuerung und Dateiverwaltung: Protokolldateiberechtigungen: Die Standardprotokolldateiberechtigungen (640) beschränkt den Zugriff. Es wird empfohlen, den Ummask -Wert im Skript von Catalina.sh zu ändern (z. B. Wechsel von 0027 auf 0022) oder direkte Filepermissionen in der Konfigurationsdatei log4j2 festlegen, um die entsprechenden Lesen- und Schreibberechtigungen sicherzustellen. LOG -Dateispeicherort: Tomcat -Protokolle befinden sich normalerweise in/opt/tomcat/logs (oder einen ähnlichen Pfad), und die Berechtigungseinstellungen dieses Verzeichnisses müssen regelmäßig überprüft werden. 2. Protokolldrehung und Format: Protokolldrehung: konfigurieren server.xml

Wie Tomcat -Protokolle bei der Fehlerbehebung bei Speicherlecks helfen Wie Tomcat -Protokolle bei der Fehlerbehebung bei Speicherlecks helfen Apr 12, 2025 pm 11:42 PM

Tomcat -Protokolle sind der Schlüssel zur Diagnose von Speicherleckproblemen. Durch die Analyse von Tomcat -Protokollen können Sie Einblicke in das Verhalten des Speicherverbrauchs und des Müllsammlung (GC) erhalten und Speicherlecks effektiv lokalisieren und auflösen. Hier erfahren Sie, wie Sie Speicherlecks mit Tomcat -Protokollen beheben: 1. GC -Protokollanalyse zuerst aktivieren Sie eine detaillierte GC -Protokollierung. Fügen Sie den Tomcat-Startparametern die folgenden JVM-Optionen hinzu: -xx: printgCDetails-xx: printgCDatESTAMPS-XLOGGC: GC.Log Diese Parameter generieren ein detailliertes GC-Protokoll (GC.Log), einschließlich Informationen wie GC-Typ, Recycling-Objektgröße und Zeit. Analyse gc.log

Vergleich zwischen Debian Sniffer und Wireshark Vergleich zwischen Debian Sniffer und Wireshark Apr 12, 2025 pm 10:48 PM

In diesem Artikel werden das Netzwerkanalyse -Tool Wireshark und seine Alternativen in Debian -Systemen erörtert. Es sollte klar sein, dass es kein Standard -Netzwerk -Netzwerk -Tool namens "Debiansnifferer" gibt. Wireshark ist der führende Netzwerkprotokollanalysator der Branche, während Debian -Systeme andere Tools mit ähnlicher Funktionalität bieten. Wireshark für Funktionen für Funktionsfunktionen: Dies ist ein leistungsstarker Netzwerk-Protokollanalysator, der die Datenerfassung in Echtzeit und eine detaillierte Anzeige des Datenpaketinhalts unterstützt und eine umfassende Protokollunterstützung, Filter- und Suchfunktionen bietet, um die Diagnose von Netzwerkproblemen zu erleichtern. Alternative Tools im Debian -System: Das Debian -System umfasst Netzwerke wie TCPDUMP und TSHARK

Die Rolle von Debian Sniffer bei der DDOS -Angriffserkennung Die Rolle von Debian Sniffer bei der DDOS -Angriffserkennung Apr 12, 2025 pm 10:42 PM

In diesem Artikel wird die DDOS -Angriffserkennungsmethode erörtert. Obwohl kein direkter Antragsfall von "Debiansniffer" gefunden wurde, können die folgenden Methoden zur Erkennung von DDOS -Angriffsanfällen verwendet werden: Effektive DDOS -Angriffserkennungstechnologie: Erkennung auf der Grundlage der Verkehrsanalyse: Identifizierung von DDOS -Angriffen durch Überwachung abnormaler Muster des Netzwerkverkehrs, z. Beispielsweise können Python -Skripte in Kombination mit Pyshark- und Colorama -Bibliotheken den Netzwerkverkehr in Echtzeit überwachen und Warnungen ausstellen. Erkennung auf der Grundlage der statistischen Analyse: Durch Analyse statistischer Merkmale des Netzwerkverkehrs wie Daten

So verwenden Sie Debian Apache -Protokolle, um die Website der Website zu verbessern So verwenden Sie Debian Apache -Protokolle, um die Website der Website zu verbessern Apr 12, 2025 pm 11:36 PM

In diesem Artikel wird erläutert, wie die Leistung der Website verbessert wird, indem Apache -Protokolle im Debian -System analysiert werden. 1. Log -Analyse -Basics Apache Protokoll Datensätze Die detaillierten Informationen aller HTTP -Anforderungen, einschließlich IP -Adresse, Zeitstempel, URL, HTTP -Methode und Antwortcode. In Debian -Systemen befinden sich diese Protokolle normalerweise in /var/log/apache2/access.log und /var/log/apache2/error.log verzeichnis. Das Verständnis der Protokollstruktur ist der erste Schritt in der effektiven Analyse. 2. Tool mit Protokollanalyse Mit einer Vielzahl von Tools können Apache -Protokolle analysiert: Befehlszeilen -Tools: GREP, AWK, SED und andere Befehlszeilen -Tools.

So überwachen Sie die NGINX SSL -Leistung auf Debian So überwachen Sie die NGINX SSL -Leistung auf Debian Apr 12, 2025 pm 10:18 PM

In diesem Artikel wird beschrieben, wie die SSL -Leistung von NGINX -Servern auf Debian -Systemen effektiv überwacht wird. Wir werden Nginxexporter verwenden, um Nginx -Statusdaten in Prometheus zu exportieren und sie dann visuell über Grafana anzeigen. Schritt 1: Konfigurieren von Nginx Erstens müssen wir das Modul stub_status in der nginx -Konfigurationsdatei aktivieren, um die Statusinformationen von Nginx zu erhalten. Fügen Sie das folgende Snippet in Ihre Nginx -Konfigurationsdatei hinzu (normalerweise in /etc/nginx/nginx.conf oder deren inklusive Datei): location/nginx_status {stub_status

See all articles