大数据运维工程师的岗位职责模板八篇
大数据运维工程师需要负责银行各类应用系统的运维标准制定和运维管理等工作。下面是小编为大家带来的大数据运维工程师的岗位职责模板八篇,希望大家能够喜欢!
大数据运维工程师的岗位职责1
职责:
负责公司大数据业务集群的运维工作、集群容量规划、扩容及性能优化;
设计实现大规模分布式集群的运维、监控和管理平台;
参与业务架构设计,在设计阶段给出可运维性改进建议;
深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向;
负责公司大数据平台的应用监控、容量管理,应急响应等;
领导安排的其他工作。
任职要求:
1、本科及以上学历,软件工程、计算机等相关专业;
2、熟悉计算机原理、网络原理等知识;至少2年以上运维或开发工作经验;
3、搭建,管理及调优Hadoop/HBase/Hive/Flink/Spark/Kafka/Elasticsearch/Flume等开源项目优先;
4、至少掌握java/python/go中的一种语言;
5、熟悉HBase/Flink/mysql/redis运维优先;
6、熟悉zabbix/graphit/grafana加分;
7、具有很强的分析和解决问题的能力;
8、具有攻克难题的强烈兴趣,以及提升技术能力的意愿;
9、善于主动学习,责任心强,能够承受较大的工作压力。
大数据运维工程师的岗位职责2
职责:
1. 负责公司核心集群的运维工作,保证其高可用和稳定性。
2. 负责集群容量规划、扩容及集群性能优化。
3. 深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的Hadoop运维技术及发展方向。
4. 设计实现分布式集群的运维、监控和管理平台。
职位要求:
1.2年以上中等规模集群环境下的Hadoop/Impala/Hive/Spark集群相关运维经验。
2.对各种HDFS/Yarn/Hive/Impala/Spark/Hbase等相关参数调优, 性能优化等有实际经验。
3.有实际踩坑经历, 对于相关组件的版本跟进, 补丁跟踪, bug追踪等有相关经验。
4.实际处理过各种集群在线版本升级, 数据迁移, 集群扩容, 稳定性监控等工作。
4.熟悉Kerberos安全认证系统,实施过集群权限管理, 资源隔离方面的方案规划或二次开发工作。
5.有Cloudera的CM使用经验尤佳。
大数据运维工程师的岗位职责3
职责:
1.负责公司大数据业务集群的运维工作(Hadoop/Hbase/Hive/Presto/Yarn/Spark/Storm/Kafka/Elasticsearch/Flume等)确保高可用;
2.负责大数据平台的日常部署、升级、扩容、迁移;
3.设计实现大规模分布式集群的运维、监控和管理平台;
4.参与业务架构设计,在设计阶段给出可运维性改进建议;
5.深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向;
6.兼顾应用系统的运维工作。
任职要求:
1.要求掌握java、shell语言,有Spring Cloud微服务架构开发经验的优先;
2.了解Docker,可以做简单应用;
3.熟悉Hadoop/Hbase/Hive/Storm/Spark/Kafka/Elasticsearch/Flume等开源项目优先;
4.熟悉Linux操作系统的配置、管理及优化,能够独立排查及解决操作系统层面的问题;
5.掌握puppet、kerberos应用的优先;
6.良好的客户服务意识,强烈的责任心和使命感,执行力强,富有团队合作精神;
7.对大数据方向运维有很高的热情和兴趣,能主动学习了解相关知识;
大数据运维工程师的岗位职责4
职责:
1、负责公司服务器日常的维护,包括巡检、故障排除、数据备份等业务,保证服务器高质量、高效率运行状态;
2、负责公司大数据产品的现场实施,制定可靠的实施方案;
3、负责公司大数据环境(hadoop生态)集群环境安装、维护、部署、优化;
【任职资格】
1、至少2年服务器、大数据集群运维经验;
2、精通linux运维命令,熟悉Linux的维护和管理,熟悉Shell脚本开发,能看懂Python/Scala优先;
3、熟悉大数据项目实施:包括不限于hadoop、hive、kafka、hbase、spark、Kudu、Impala等大数据生态的平台搭建,监控,运维,调优、生产环境;
4、熟悉docker技术优先;
5、熟练使用git版本控制,jenkins持续集成工具优先;
6、具备强烈的进取心、自我学习能力,良好的沟通能力和团队合作意识。
大数据运维工程师的岗位职责5
职责:
1、负责公司大数据平台的部署、管理、优化、监控报警,保障平台服务7_24稳定可靠高效运行;
2、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
3、开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
4、负责Hadoop/spark/Mysql等集群服务、业务监控、持续交付、应急响应、容量规划等。
任职要求:
1、3年以上互联网运维相关工作经验,2年以上大数据平台运维相关工作经验;
2、具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉Http/Https、TCP/IP、SMTP等协议;
3、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Impala/Hue/Sqoop/Elasticsearch/kibana/MySQL/Oracle等;
4、熟悉Hadoop各组件的原理和实现,有实际部署维护、管理( 包括元数据管理)及优化经验。并拥有持续调优能力,运维管理过大规模数据平台;
5、熟悉 Kubernetes(K8s) 集群 Docker 在大数据环境场景的使用;
6、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务
7、有Java开发经验和阅读源码能力者优先。
大数据运维工程师的岗位职责6
职责:
1、负责公司大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;
2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;
3、深入研究大数据业务相关自动化运维技术,持续优化集群服务架构,探索新的大数据运维技术及发展方向;
任职要求:
1、熟悉Linux系统及基础命令操作,能够独立编写Shell或Python脚本,开展日常服务器的运维工作;
2、熟悉并不限于大数据生态圈Hadoop、Strom、Spark、HDFS、Kafka、Zookeeper、Hbase、Redis、ElasticSearch、fastdfs
等相关基础组件的框架知识和运行原理;
3、熟悉软硬件设备,网络原理,有丰富的大数据平台(CDH、HDP)部署、集群运维和性能优化等经验;
4、具备一定的系统自动化运维理论体系和实际经验,能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;
5、具备较强的学习能力、抗压能力、动手能力和分析解决问题的能力;
6、熟悉JVM虚拟机调优;
7、熟悉jenkins持续集成;
8、有一定的文档编写能力;
9、能适应短期出差,有公安视频图像侦查业务方向经验者优先;
大数据运维工程师的岗位职责7
职责:
1.负责公司大数据平台的运维保障;
2.负责大数据平台的架构审核、业务监控、持续交付、应急响应、容量规划等;
3.为线上服务高效稳定运行负责,支撑业务和数据量的快速扩张;
4.负责生产及测试集群诸如故障定位恢复、系统安全、性能优化等;
任职要求:
1.计算机相关专业本科及以上学历,3年以上相关工作经验
2.精通Hadoop大数据生态圈,熟悉Hadoop各组件的原理,并有实际部署维护经验;包括但不限于HDFS、YARN、Kafka、Spark、HBase、Kerberos、Hive、Kudu、Zookeeper等;
3.具备很强故障排查能力,有很好的技术敏感度和风险识别能力,良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强;
4.有相关动态编排容器技术和虚拟化技术工作经验者优先;
5.深入理解Hadoop各组件的原理和实现,有阅读源码能力者优先;
6.具备很强的ownership,故障排查能力,有很好的技术敏感度和风险识别能力。
大数据运维工程师的岗位职责8
1、负责建设大数据平台的规划、架构设计和技术选型;
2、开发和使用Hadoop大数据自动化运维与监控工具;
3、基于大数据应用需求,负责优化平台的性能,消除性能瓶颈,解决业务的疑难问题;
4、熟悉Hadoop、Hive、Hbase、Storm、Spark等技术框架; 熟悉java、scala、sqllite等相关技术;具备软件设计、编码开发测试、文档编写的能力;
5、积极了解业界发展、互联网相关新技术及趋势,参与规划公司大数据产品未来技术架构方向;
6、负责大数据平台内部所涉及到的各类数据库、数据存储的搭建、备份、日常维护、性能调优;以及大数据平台系统运维、监控和故障分析与处理;
7、能够很好的和其它团队的同事沟通协作;
8、负责文档的书写和完善,保证文档的及时更新;
9、有大型开源系统维护经验优先。
大数据运维工程师的岗位职责模板八篇相关文章: