MySQL使用二进制日志来恢复数据_MySQL
mysqlbinlog工具的使用,大家可以看MySQL的帮助手册。里面有详细的用,
在这个例子中,重点是--start-position参数和--stop-position参数的使用。
·--start-position=N
从二进制日志中第个位置等于N参量时的事件开始读。
·--stop-position=N
从二进制日志中第个位置等于和大于N参量时的事件起停止读。
OK,现在开始,要启动二进制日志记录,要先在my.cnf / my.ini文件的mysqld里添加
log-bin=日志名
在这里,偶是的设置是log-bin=liangck
然后再启动mysql服务,因为偶是用windows系统,所以执行net start mysql命令即可。
然后在一测试数据库里,创建一个表,并添加记录。
mysql> create table test(id int auto_increment not null primary key,val int,data varchar(20));
mysql> insert into test(val,data) values(10,'liang');
Query OK, 1 row affected (0.03 sec)
mysql> insert into test(val,data) values(20,'jia');
Query OK, 1 row affected (0.08 sec)
mysql> insert into test(val,data) values(30,'hui');
Query OK, 1 row affected (0.03 sec)
mysql> flush logs; --产生第二个日志文件
Query OK, 0 rows affected (0.09 sec)
mysql> insert into test(val,data) values(40,'aaa');
Query OK, 1 row affected (0.05 sec)
mysql> insert into test(val,data) values(50,'bbb');
Query OK, 1 row affected (0.03 sec)
mysql> insert into test(val,data) values(60,'ccc');
Query OK, 1 row affected (0.03 sec)
mysql> delete from test where id between 4 and 5; --删除记录
Query OK, 2 rows affected (0.05 sec)
mysql> insert into test(val,data) values(70,'ddd');
Query OK, 1 row affected (0.03 sec)
mysql> flush logs; --产生第三个文件文件
Query OK, 0 rows affected (0.11 sec)
mysql> insert into test(val,data) values(80,'dddd');
Query OK, 1 row affected (0.05 sec)
mysql> insert into test(val,data) values(90,'eeee');
Query OK, 1 row affected (0.03 sec)
mysql> drop table test; --删除表
Query OK, 0 row affected (0.05 sec)
――――――――――――――――――――――――――――――――――
OK,现在测试数据已经建好了,要求是什么呢?
就是将test表的数据全部恢复出来。
先用mysqlbinlog工具将日志文件生成txt文件出来分析。
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000001 > G:/001.txt
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000002 > G:/002.txt
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000003 > G:/003.txt
通过这三个命令,可以在G盘下生成个文件,里面分别记录了日志文件的内容,也就是用户操作的步骤。
因为我们需要重做第一个日志文件的所有操作,所以这里只需要将第一个日志文件全恢复就行了。
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000001 | mysql -uroot –p
Ok,接着,我们需要分析的是第二个日志文件。为什么要分析它呢,因为它中途执行了一个操作是DELETE,因为我们要做的是恢复全部数据,也就是我们不希望去重做这个语句。所以在这里我们要想办法去绕开它。
我们先打开.txt文件来分析一下。
/*
/*!40019 SET @@session.max_insert_delayed_threads=0*/;
/*!50003 SET @OLD_COMPLETION_TYPE=@@COMPLETION_TYPE,COMPLETION_TYPE=0*/;
DELIMITER /*!*/;
# at 4
#090427 15:27:56 server id 1 end_log_pos 106 Start: binlog v 4, server v 5.1.32-community-log created 090427 15:27:56
BINLOG '
fF71SQ8BAAAAZgAAAGoAAAAAAAQANS4xLjMyLWNvbW11bml0eS1sb2cAAAAAAAAAAAAAAAAAAAAA
AAAAAAAAAAAAAAAAAAAAAAAAEzgNAAgAEgAEBAQEEgAAUwAEGggAAAAICAgC
'/*!*/;
# at 106
#090427 15:28:37 server id 1 end_log_pos 176 Query thread_id=1 exec_time=0 error_code=0
use mytest/*!*/;
SET TIMESTAMP=1240817317/*!*/;
SET @@session.pseudo_thread_id=1/*!*/;
SET @@session.foreign_key_checks=1, @@session.sql_auto_is_null=1, @@session.unique_checks=1, @@session.autocommit=1/*!*/;
SET @@session.sql_mode=1344274432/*!*/;
SET @@session.auto_increment_increment=1, @@session.auto_increment_offset=1/*!*/;
/*!/C gbk *//*!*/;
SET @@session.character_set_client=28,@@session.collation_connection=28,@@session.collation_server=28/*!*/;
SET @@session.lc_time_names=0/*!*/;
SET @@session.collation_database=DEFAULT/*!*/;
BEGIN
/*!*/;
# at 176
#090427 15:28:37 server id 1 end_log_pos 204 Intvar
SET INSERT_ID=4/*!*/;
# at 204
#090427 15:28:37 server id 1 end_log_pos 312 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817317/*!*/;
insert into test(val,data) values(40,'aaa')
/*!*/;
# at 312
#090427 15:28:37 server id 1 end_log_pos 339 Xid = 12
COMMIT/*!*/;
# at 339
#090427 15:28:46 server id 1 end_log_pos 409 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817326/*!*/;
BEGIN
/*!*/;
# at 409
#090427 15:28:46 server id 1 end_log_pos 437 Intvar
SET INSERT_ID=5/*!*/;
# at 437
#090427 15:28:46 server id 1 end_log_pos 545 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817326/*!*/;
insert into test(val,data) values(50,'bbb')
/*!*/;
# at 545
#090427 15:28:46 server id 1 end_log_pos 572 Xid = 13
COMMIT/*!*/;
# at 572
#090427 15:29:35 server id 1 end_log_pos 642 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817375/*!*/;
BEGIN
/*!*/;
# at 642
#090427 15:29:35 server id 1 end_log_pos 670 Intvar
SET INSERT_ID=6/*!*/;
# at 670
#090427 15:29:35 server id 1 end_log_pos 778 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817375/*!*/;
insert into test(val,data) values(60,'ccc')
/*!*/;
# at 778
#090427 15:29:35 server id 1 end_log_pos 805 Xid = 14
COMMIT/*!*/;
# at 805
#090427 15:30:21 server id 1 end_log_pos 875 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817421/*!*/;
BEGIN
/*!*/;
# at 875
#090427 15:30:21 server id 1 end_log_pos 981 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817421/*!*/;
delete from test where id between 4 and 5
/*!*/;
# at 981
#090427 15:30:21 server id 1 end_log_pos 1008 Xid = 15
COMMIT/*!*/;
# at 1008
#090427 15:30:34 server id 1 end_log_pos 1078 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817434/*!*/;
BEGIN
/*!*/;
# at 1078
#090427 15:30:34 server id 1 end_log_pos 1106 Intvar
SET INSERT_ID=7/*!*/;
# at 1106
#090427 15:30:34 server id 1 end_log_pos 1214 Query thread_id=1 exec_time=0 error_code=0
SET TIMESTAMP=1240817434/*!*/;
insert into test(val,data) values(70,'ddd')
/*!*/;
# at 1214
#090427 15:30:34 server id 1 end_log_pos 1241 Xid = 16
COMMIT/*!*/;
# at 1241
#090427 15:30:41 server id 1 end_log_pos 1282 Rotate to liangck.000003 pos: 4
DELIMITER ;
# End of log file
ROLLBACK /* added by mysqlbinlog */;
/*!50003 SET COMPLETION_TYPE=@OLD_COMPLETION_TYPE*/;
―――――――――――――――――――――――――――――――――――――
*/
在这个文件中,我们可以看到DELETE的操作的起始位置是,终止位置是.那么我们只要重做第二个日志文件的开头到的操作,然后再从到末尾的操作,我们就可以把数据给恢复回来,而不会DELETE数据。所以执行两个命令:
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000002 --stop-pos=875 | mysql -uroot -p
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000002 --start-pos=1008 | mysql -uroot -p mytest
OK,现在第二个日志文件的数据了。
第三个日志文件也是同理,只要找到DROP TABLE的位置,就可以了。
F:/Program Files/MySQL_Data/data/log>mysqlbinlog liangck.000003 --stop-pos=574 | mysql -uroot –p
现在我们再查一下数据看看:
mysql> select * from test;
+----+------+-------+
| id | val | data |
+----+------+-------+
| 1 | 10 | liang |
| 2 | 20 | jia |
| 3 | 30 | hui |
| 4 | 40 | aaa |
| 5 | 50 | bbb |
| 6 | 60 | ccc |
| 7 | 70 | ddd |
| 8 | 80 | dddd |
| 9 | 90 | eeee |
+----+------+-------+
9 rows in set (0.00 sec)
可以看到,全部数据都回来了。

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

本文介绍如何在Debian系统上构建高可用性的MongoDB数据库。我们将探讨多种方法,确保数据安全和服务持续运行。关键策略:副本集(ReplicaSet):利用副本集实现数据冗余和自动故障转移。当主节点出现故障时,副本集会自动选举新的主节点,保证服务的持续可用性。数据备份与恢复:定期使用mongodump命令进行数据库备份,并制定有效的恢复策略,以应对数据丢失风险。监控与报警:部署监控工具(如Prometheus、Grafana)实时监控MongoDB的运行状态,并

本文介绍在Debian系统下监控PostgreSQL数据库的多种方法和工具,助您全面掌握数据库性能监控。一、利用PostgreSQL内置监控视图PostgreSQL自身提供多个视图用于监控数据库活动:pg_stat_activity:实时展现数据库活动,包括连接、查询和事务等信息。pg_stat_replication:监控复制状态,尤其适用于流复制集群。pg_stat_database:提供数据库统计信息,例如数据库大小、事务提交/回滚次数等关键指标。二、借助日志分析工具pgBadg

关于Linux系统自带Python解释器的删除问题许多Linux发行版在安装时会预装Python解释器,它并非通过软件包管理器�...

如何在10小时内教计算机小白编程基础?如果你只有10个小时来教计算机小白一些编程知识,你会选择教些什么�...

Debian系统的网络配置主要通过/etc/network/interfaces文件实现,该文件定义了网络接口参数,例如IP地址、网关和DNS服务器等。Debian系统通常使用ifup和ifdown命令来启动和停止网络接口。通过修改interfaces文件中的iface行,可以设置静态IP或使用DHCP动态获取IP地址。需要注意的是,Debian12及后续版本不再默认使用NetworkManager,因此可能需要借助其他命令行工具,例如ip命令,来管理网络接口。您可以通过编辑/etc/netwo

攻克Investing.com的反爬虫策略许多人尝试爬取Investing.com(https://cn.investing.com/news/latest-news)的新闻数据时,常常�...

本文介绍如何在Debian系统上优化ZooKeeper性能。我们将从硬件、操作系统、ZooKeeper配置以及监控等方面提供建议。一、系统层面优化存储介质升级:使用SSD固态硬盘替换传统机械硬盘,显着提升I/O性能,降低访问延迟。禁用交换分区:通过调整内核参数,减少对交换分区的依赖,避免内存与磁盘频繁交换带来的性能损耗。提升文件描述符上限:增加系统允许同时打开的文件描述符数量,避免资源限制影响ZooKeeper的处理效率。二、ZooKeeper配置优化zoo.cfg文件配置

掌握Debian系统日志监控是高效运维的关键,它能帮助您及时了解系统运行状况,快速定位故障,并优化系统性能。本文将介绍几种常用的监控方法和工具。利用sysstat工具包监控系统资源sysstat工具包提供了一系列强大的命令行工具,用于收集、分析和报告各种系统资源指标,包括CPU负载、内存使用、磁盘I/O、网络吞吐量等。主要工具包括:sar:全面的系统资源统计工具,涵盖CPU、内存、磁盘、网络等。iostat:磁盘和CPU统计信息。mpstat:多核CPU的统计信息。pidsta
