时间:2021-07-15 | 标签: | 作者:Q8 | 来源:阿刚网络
小提示:您能找到这篇{华为云:大数据任务执行时间优化案例分享}绝对不是偶然,我们能帮您找到潜在客户,解决您的困扰。如果您对本页介绍的华为云:大数据任务执行时间优化案例分享内容感兴趣,有相关需求意向欢迎拨打我们的服务热线,或留言咨询,我们将第一时间联系您! |
< "> < ">< font-size: 18px;">一 问题背景 < ">项目中遇到大数据任务执行时间比较长,需要进行优化,使得大数据的任务执行时间优化至客户可以接受的时间。 < ">< font-size: 18px;">二 原因分析 < ">业务场景分析 < ">本场景下的大数据任务主要对数据进行mapreduce操作,该任务包含两个子任务,第一个子任务的map(每个map的大小为128M)个数为4300左右(这些map任务都是分散在不同的服务器上,TaiShan集群有6400+个核可以处理,可以充分利用Ta网络营销的形式iShan多核优势),map执行时间为10分钟,但是reduce个数固定写为200个(即最多有200个核并行处理reduce任务),reduce执行时间为1小时30分钟左右,耗时较长,同时reduce个数相比map个数很少,不能充分利用TaiShan多核优势,第二个子任务也是re餐饮公关危机是什么意思duce阶段耗时较长 < ">服务器基础性能分析 < ">在大数据任务执行时,cpu利用率不高,磁盘io以及网卡IO都没有瓶颈,不过网卡中断需要进行绑核,同时磁盘缓存参数可以进行调优来提升性能 < ">< font-size: 18px;">三解决方案 < ">3.1 网卡调优 < ">3.1.1 中断绑核 < ">中断亲和度描述为可以为特定中断提供响应的一组CPU,如果应用程序可以通过关联到相关的CPU,在相同的CPU上下文中处理接收到的数据包,则可以减少等待时间,提高CPU利用率。 < ">因此,我们可以将处理网卡中断的CPU core设置在网卡所在的NUMA上,从而减少跨NUMA的内存访问所带来的额外开销,提升网络处理性能。 < ">3.2磁盘参数调优 < ">3.2.1 磁盘读预取参数 < ">< color: rgb(0, 0, 0);">/sys/block/sdX/queue/read_ahead,这个参数对顺序读非常有用,意思是,一次提前读多少内容,无论实际需要多少。默认一次读128kb远小于要读的,设置大些对读大文件非常有用,可以有效的减少读seek的次数,这个参数可以使用blockdev–setra来设置,setra设置的是多少个扇区,所以实际的字节是除以2,比如设置512,实际是读256个字节. < ">原服务器值是128kb,设置为4096Kb。 < ">3.2.2 缓存写入磁盘参数调整 /proc/sys/vm/dirty_ratio 从20改成40 < ">这个参数控制文件系统的文件系统写缓冲区的大小,单位是百分比,表示系统内存的百分比,表示当写缓冲使用到系统内存多少的时候,开始向磁盘写出数据。增大之会使用更多系统内存用于磁盘写缓冲,也可以极大提高系统的写性能。 /proc/sys/vm/dirty_background_ratio 从10改为20 < ">这个参数控制文件系统的pdflush进程,在何时刷新磁盘。单位是百分比,表示系统内存的百分比,意思是当写缓冲使用到系统内存多少的时候,pdflush开始向磁盘写出数据。 < ">增大之会使用更多系统内存用于磁盘写缓冲,也可以极大提高系统的写性能。 /proc/sys/vm/dirty_writeback_centisecs 从500改为800 < ">这个参数控制内核的脏数据刷新进程pdflush的运行间隔。单位是1/100秒。缺省数值是500,也就是5秒 /proc/sys/vm/dirty_expire_centisecs 从3000改为30000 < ">这个参数声明Linux内核写缓冲区里面的数据多“旧”了之后,pdflush进程危机公关的三度就开始考虑写到磁盘中去。单位是1/100秒。缺省是30000,也就是30秒的数据就算旧了,将会刷新磁盘。 < ">对于特别重载的写操作来说,这个值适当缩小也是好的,但也不能缩小太多,因为缩小太多也会导致IO提高太快 < ">3.3 应用程序调优 < ">3.3.1 Reduce个数优化 < ">在大数据平台调整reduce设置,使最大reduce个数从原来的200改为500,性能提升明显 < ">3.3.2 Reduce并行copy参数maprd.reduce.parallel.copies优化 < ">Reduce的并发拷贝数默认是5,后来调整至30可以提升reduce的最大并发拷贝数 < ">经过调优,最终大数据任务执行时间有明显提升 < ">< font-size: 18px;">四 总结 < ">调优后,TaiShan集群服务器上任务执行时间有明显改善。对相关思路总结如下: < ">分析确认大数据任务执行时各个阶段的耗时,重点分析耗时阶段,提升reduce并发,充分利用TaiShan多核优势。 < ">明确性能瓶颈,并对服务器各个子模块进行参数调优。 |
上一篇:tiktok发帖的绝佳时间段
下一篇:如何破冰你的tiktok账号?
基于对传统行业渠道的理解,对互联网行业的渠道我们可以下这样一个定义:一切...
小米应用商店的后台操作和苹果是比较相似的,因为都能填写100字符关键词,允许...
小米的规则目前是在变更中的,但是根据经验小米的搜索排名评分的高低是个很重...
为了恰饭,有时候是要接入一些广告的,所以FB也专门有一个广告的SDK,这就是A...
在 2018 年于旧金山举行的游戏开发者大会上,Amazon Web Services (AWS) 曾宣布,目前世...
关于Facebook Audience Network如何收款的问题,其实官方已经给了详细的步骤。本文主要...
本文介绍了Audience Network对广告载体的质量检查,以及它重点广告形式需要注意的问...
随着iOS开发,作为开发者或公司需要针对iOS App开发涉及的方方面面作出对应的信息...
Facebook和谷歌对出海企业广告渠道都很熟悉,但事实上,在国外还有一些渠道也很...
卖家从做号的第1分钟开始,就一定要想好变现路径是什么?一定要以变现为目的去...
小提示:您应该对本页介绍的“华为云:大数据任务执行时间优化案例分享”相关内容感兴趣,若您有相关需求欢迎拨打我们的服务热线或留言咨询,我们尽快与您联系沟通华为云:大数据任务执行时间优化案例分享的相关事宜。
关键词:华为云:大数据任务执行