加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

会见日记的大数据说明应用

发布时间:2021-01-22 21:26:06 所属栏目:大数据 来源:网络整理
导读:本文清算自APMCon 2016中国应用机能打点大会CDN加快专场又拍云CTO黄慧攀题为《会见日记的大数据说明应用》的演讲,现场解读了在海量会见日记中提炼多本机能指标,对日记说明体系查询需求举办说明,对会见特点举办说明,并基于机能思量对体系架构举办优化,从

然后右边的图较量伟大,移鼠标上去看都有点累,首要是可以看到世界哪一个地域的带宽占比较量大一点。这个图着实最首要的代价就是可以快速及时的查察到当前整个CDN收集或许的环境。后头我们尚有更多细化的数据,好比嗣魅这张图就是我们全网带宽凭证带宽量从大到小排名的top50。


2、客户行使环境

会见日记的大数据说明应用

这样的话你就可以看到我们此刻处事的客户内里有哪些是我们的重点客户,他们跑的带宽环境怎么样。在这个图内里可以看到着实它是多维的,一个柱状内里有几个颜色,每个颜色代表的是差异的运营商。一样平常来说是电信的带宽占比较量大,然后是联通,移动。这内里你可以发明中间非凡黄色的那一条,这个客户很黑白凡,他首要用外洋节点,这个黄色对应到右边标识来看是新加坡的一个加快点,带宽行使占比90%以上。我们把这些数据归并起来放到一个图去看就可以很清晰原本平台处事的客户是这样的,没有比拟的话就不知道有这样工作。假如扔给你一个G的日记不去做任何的处理赏罚、不做任何数据代价的提炼,也看不出来到底是什么,好比这个就可以让我们发明到客户的特点,可以针对这些特点去做一些商务上尚有机能上的优化。


3、处事康健监控

会见日记的大数据说明应用

这个图是其它一个浮现,首要是讲到我们处事的质量,左上角是状态码,我们一样平常会是200、206康健的状态,这个图表着实是全网的。然后右上角就是我们适才说到的下载速率,而下面右下角是两个较量非凡的是我们针对云存储的用户有一个比例标识,尚有一个CDN用户原站妨碍可能是错误状态码呈现的比例的图。这内里列的满是top10,固然这个饼图看上去很大,但有也许你把鼠标移已往只有无意的几个错误,也许是在几百万个日记内里呈现了几条错误,我就可以快速的判定到此刻这个平台哪一个客户呈现了错误,他是不是一个正常的大客户,这个客户对应的是谁,这些我们都可以快速的知道。虽然这个图表还可以按照会见的域名做过滤,然后做针对性的查察处事机能。


4、营业数据说明

会见日记的大数据说明应用

第三个图所揭示出来首要浸染是为了做CDN机能优化用的。这内里左上角最首要的是节点比例,然后在中间是包围地域,好比说广东电信这个ISP我们用到哪些节点。这内里可以看到阁下根基上是等分,用了两个节点去包围这个地域。右边是这个地域的客户端所会见到的节点top10的漫衍。可是我们组合来看,在中间的饼图根基上能看到是50:50的两个节点为主,也就是说在右边的10个,后头的8个根基上是没亮,险些没有哀求落进去,这有也许是DNS的理会错误,可能是DNS的智能辨认错误,这个详细就要看错误的比例是几多,一样平常来说是1%以下是无所谓的,可是要到达3%可能4%,就必必要做出一些优化的举措了。


左下角这里就是带宽的环境,在这里我可以抽取出来看到广东电信这个地域必要拿几多带宽去包围。这里会起到一个浸染,好比说此刻新疆何处要新建一个节点,可是我不知道它何处所跑的带宽必要几多,这时辰怎么办?假如没有这个数据的话真的不知道怎么办,也没步伐揣摩何处有几多带宽。有了这个统计数据之后就可以精确的知道在新疆何处电信是1个G,联通500M,移动100M,我会给到商务这样的信息,采购资源时辰就或许凭证这个环境去做采购就行了,这个也是我们所提到的数据的代价。


四、难点

在这内里我们碰着了有许多灾点是必要我们办理的。第一个部门,固然说我们的呆板资源许多,有几千台并行做日记处理赏罚的事变,可是这内里有一个最首要的难点是什么?不能过于耗损这些边沿的计较手段,由于在边沿节点上面最首要的事变照旧要跑正常的CDN分发营业。假如说你的数据说明的措施要耗损大量的资源的话,会影响到正常的营业。以是我们对处理赏罚的机能会有很是高的要求,你只能用到10%以下的资源往复做这件工作,以是我们会用到C/gzlib,直接在原生的压缩文件日记上面做说明事变。这也是我们团队的特点,我们追求的都长短常极度的机能,而不是说可以或许到达目标办理这个题目就好。我们此刻的日记处理赏罚措施假如说处理赏罚10G的压缩日记文件在三四十秒阁下绝对就可以或许把它说明完成,这长短常惊人的一个速率。


第二个点就是在吸取处事器端的归并处理赏罚,行使共享内存来做数据统计,停止行使 Redis。2000亿条日记假如任意一个日记计较都要去查一下Redis,好比做一个计速器放到Redis的话就会碰着很是大的题目。假如用共享内存,可能说直接在措施内部做计速器的话,那机能可以晋升一千倍、一万倍,这就是差距。以是说我们会直接本身去做这些数据布局,这个会对开拓职员的要求较量高一点,好比说必要做基于C说话的开拓,还要很是认识数据布局。数据布局在这内里首要用到的有红黑树,尚有链表。这些单独来看都OK,预计各人泛泛也会用到,可是在做数据说明这个场景内里,着实它不是简朴的说你会红黑树,可能做链表就好了,而是必要可以或许把这几种数据布局殽杂到一路去,这才是要害点。


第三个部门就是我踩的坑,这个工作上踩的坑许多。由于平台的局限不断的增添,数据也在不断的增添,没步伐估量下个月日记数目级达到几多。这种环境下集群到底怎么去扩容,着实说真话没步伐扩。以是第三点是要做到措施化的自动删除汗青数据,一种就是粗暴一点,高出七天更旧的文件就删掉。其它一种就是针对磁盘的空余,空闲的空间有几多,好比说低于90%就开始清掉最旧的一天的数据,一向清到低于定的数目停掉,否则会影响到营业。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读