2010冬日里的一次顾问咨询后记
大约在去年冬季受到一位仁兄的推荐,邀请我帮助某大型垄断国企做一次系统架构方面的优化工作,客户期望将原有分散在全身每个地市的oracle数据库进行集中,并对集中后的数据库构建集群环境,做到压力分载和失效转发的目的,在系统架构上做出了改动,所以免不
大约在去年冬季受到一位仁兄的推荐,邀请我帮助某大型垄断国企做一次系统架构方面的优化工作,客户期望将原有分散在全身每个地市的oracle数据库进行集中,并对集中后的数据库构建集群环境,做到压力分载和失效转发的目的,在系统架构上做出了改动,所以免不了代码上也需要做出相应的修改,对方要求我包揽整个过程包裹顾问和方案实施,于是对方开出的实施顾问的价码足以让人信服,为了自己在朋友圈的口碑、为了对得起客户方开出的价码,克服一切困难将任务执行到底。
我的废话:
这个项目的难点在于
1.关键性业务表每月每个地区产生的数据量有2T,13个地区就是26T的数据量,保存一年的数据,再乘以12个月,海量数据需要存储。
2.BT要求,所有数据只允许放在一个数据库中,再多的机器也是从节点,对于海量查询需要根据业务进行SQL、数据库性能优化。
3.全省所有的数据都集中后,存储量和计算的压力都在一个计算中心的节点上,数据量和访问量比以前大,不能比改造前的性能低。
4.架构改动,代码必改,客户的领导发话又不让大改,所以2难。
5.人事上,领导太多,领导与领导之间意见不统一,说起来话来都是专家,落实下去有点囧。
整个实施历经4月个还算顺利,本来想找个机会写写这次的经历心得,但是怕给自己或者朋友惹来不必要的麻烦而断了后续的服务,虽然脑海中一直不断回想当时的实施过程,有些地方还算做的不够完美,还可以继续优化,想把这些东西记录下来,但是思前顾后想来想去却不知如何去写。
正好前些日子有位网友看见了我的blog,向我提问关于日志系统需要使用到hadoop和mysql的问题,于是我回问到为何需要使用hadoop的原因,经过一番了解,我建议对方采用缓存+文档数据库的方案,我向这位网友提出的方案可以看做是那个大型垄断国企方案的一个缩小版,除了具体使用的具体技术和产品有差别以外,2者从总体设计思想上大同小异,而且场景也比较相似,对数据库读、写基本不在同一个时段,不论写和读对数据库的操作还是开销比较大的,因此我想借用这位网友的提问阐述对上一次实施中的部分经验分享。
这位网友在来信中写到:
您好,我最近在处理web日志的事情,涉及大量日志的处理,然后在网上搜到你关于Hadoop和Mysql的文章,想向你请教如何将Hadoop和Mysql结合起来处理大批量数据的,网站每个新闻页嵌入了一段js统计代码,每次页面打开时这段代码会在apache服务器端的文件记录一条日志(关于访客的详细信息),然后后台服务器每隔一段时间将日志文件打成压缩包;同时服务器端每隔一个小时会运行一个jar文件,这个jar文件作用是将压缩包解压,并解析每一条日志信息,同时将日志信息分解后插入mysql数据库。前台可以浏览日志分析图表。现在的问题是随着网站流量越来越大,单台服务器已经不能满足要求了,jar文件现在处理压缩包的时间越来越长,所以考虑网站流量未来几年的增长,想到用数台服务器来处理这个问题。想用hadoop来在每台机子上处理这个压缩包文件,同时将处理好的日志字段写入mysql中。不知道问题我是否解释清楚了。
我回信中写到:
你好,我只能给你一个方向上的指引,首先hadoop做这样的事情不值得 ,有点大材小用,不是上pb级别的数据量使用hadoop划不来的。
我建议你是否可以采用这样的一种方案:
1.前端JS通过http协议调用 Java/REST程序,获得请求
2.Java/REST程序将获得的数据写入memcached中,将memcached作为缓冲区,
3.另一个程序作为一个轮询的定时器,可以根据时间范围或者数量级别判断memcached上限的阀值,
4.到达上限的时候一次性将数据写入mongoDB,如果写入数量较大还可以采用多线程的方式,
5.最后从mongDB中查询存储的结果。
6.如果不想使用mongoDB使用mysql也可以,到时候再对mysql对优化,例如:多块物理磁盘分区,mysql参数调整,读写分离。
大致的系统架构:
|
| |—>tomcat 1 ———-
js—-http–>loadbalance| | ——>memcacheDB/NOSQL
| |—>tomcat N+1——– multithread
|
这样做的理由是 :
1.写入日志和分析读取日志不是实时的,完全可以采用异步架构,我建议中间通讯采用http,将来扩展方便。如果将来前端的请求日志系统的并发量很高,可以选用 类似 tomcat+haproxy、tomcat+apache的方案,分载前端请求压力。
2.采用memcached是为了提高写入的效率,写入比读更占用O/I资源,将平凡写入的数据放入缓存/内存,让数据更靠近CPU这是黄金原则。
3. 不论是nosql还是mysql批量写入和一次一次写入所产生的开销大小这个差距是不用质疑的。
我的废话:
希望通过这个blog能与业内更多的同行们得到交流,再次感谢您的阅读。
–end–
原文地址:2010冬日里的一次顾问咨询后记, 感谢原作者分享。

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

全表扫描在MySQL中可能比使用索引更快,具体情况包括:1)数据量较小时;2)查询返回大量数据时;3)索引列不具备高选择性时;4)复杂查询时。通过分析查询计划、优化索引、避免过度索引和定期维护表,可以在实际应用中做出最优选择。

是的,可以在 Windows 7 上安装 MySQL,虽然微软已停止支持 Windows 7,但 MySQL 仍兼容它。不过,安装过程中需要注意以下几点:下载适用于 Windows 的 MySQL 安装程序。选择合适的 MySQL 版本(社区版或企业版)。安装过程中选择适当的安装目录和字符集。设置 root 用户密码,并妥善保管。连接数据库进行测试。注意 Windows 7 上的兼容性问题和安全性问题,建议升级到受支持的操作系统。

MySQL是一个开源的关系型数据库管理系统。1)创建数据库和表:使用CREATEDATABASE和CREATETABLE命令。2)基本操作:INSERT、UPDATE、DELETE和SELECT。3)高级操作:JOIN、子查询和事务处理。4)调试技巧:检查语法、数据类型和权限。5)优化建议:使用索引、避免SELECT*和使用事务。

MySQL 和 MariaDB 可以共存,但需要谨慎配置。关键在于为每个数据库分配不同的端口号和数据目录,并调整内存分配和缓存大小等参数。连接池、应用程序配置和版本差异也需要考虑,需要仔细测试和规划以避免陷阱。在资源有限的情况下,同时运行两个数据库可能会导致性能问题。

LaravelEloquent模型检索:轻松获取数据库数据EloquentORM提供了简洁易懂的方式来操作数据库。本文将详细介绍各种Eloquent模型检索技巧,助您高效地从数据库中获取数据。1.获取所有记录使用all()方法可以获取数据库表中的所有记录:useApp\Models\Post;$posts=Post::all();这将返回一个集合(Collection)。您可以使用foreach循环或其他集合方法访问数据:foreach($postsas$post){echo$post->

数据集成简化:AmazonRDSMySQL与Redshift的零ETL集成高效的数据集成是数据驱动型组织的核心。传统的ETL(提取、转换、加载)流程复杂且耗时,尤其是在将数据库(例如AmazonRDSMySQL)与数据仓库(例如Redshift)集成时。然而,AWS提供的零ETL集成方案彻底改变了这一现状,为从RDSMySQL到Redshift的数据迁移提供了简化、近乎实时的解决方案。本文将深入探讨RDSMySQL零ETL与Redshift集成,阐述其工作原理以及为数据工程师和开发者带来的优势。

MySQL 数据库中,用户和数据库的关系通过权限和表定义。用户拥有用户名和密码,用于访问数据库。权限通过 GRANT 命令授予,而表由 CREATE TABLE 命令创建。要建立用户和数据库之间的关系,需创建数据库、创建用户,然后授予权限。

MySQL适合初学者使用,因为它安装简单、功能强大且易于管理数据。1.安装和配置简单,适用于多种操作系统。2.支持基本操作如创建数据库和表、插入、查询、更新和删除数据。3.提供高级功能如JOIN操作和子查询。4.可以通过索引、查询优化和分表分区来提升性能。5.支持备份、恢复和安全措施,确保数据的安全和一致性。
