本公众号在原有技术资料分享、院士名家分享和前沿资讯分享的基础上,为了进一步打造更加立体丰富的信息和服务平台,我们即日起推出人工智能大数据专业人才信息分享和猎头服务!

某中型人寿保险公司招聘大数据工程师和数据开发工程师,base在北京。岗位要求分别如下。

1岗位一:大数据工程师

岗位职责:

  1. 负责大数据平台的架构设计、开发和实施;
  2. 负责基于开源大数据Hadoop平台使用Spark,Kafka,Flink等流处理工具开发实时分析指标;
  3. 负责基于EFK架构搭建并完善日志分析平台建设;
  4. 负责Hadoop相关组件及应用的监控和维护;
  5. 根据业务需要,为不同应用场景的实时性要求提供对应的技术选型和解决方案;
  6. 前沿探索,对大数据相关技术组件进行研究和测试,进行技术架构的优化;
  7. 负责基于大数据平台的数据产品研发。

职位要求:

  1. 计算机相关专业本科及以上学历 ;
  2. 2年及以上大数据相关工作经验;
  3. 熟悉Hadoop,Spark,Hive,Kafka,ElasticSearch,Flink,Pulsar,Flume,ETL等技术或工具;
  4. 熟悉Linux系统及Shell或perl 等脚本语言 ;
  5. 熟悉MySQL、 Oracle、 MongoDB等数据库;
  6. 具备良好的英文文档阅读能力;
  7. 具备优秀的数据敏感性和数据洞察能力;
  8. 具备较强的自学能力,探索精神及抗压能力,能独立分析和解决问题,较强的沟通表达能力与协作推进能力;

2岗位二:数据开发工程师

岗位职责:

  1. 负责实时ECIF项目的规划、设计、开发和维护工作;
  2. 负责客户标签特征库项目的规划、设计、开发和维护工作;
  3. 负责客户中台相关项目的规划、设计、开发和维护工作;
  4. 从业务功能角度负责数据服务类项目的后续优化和升级需求的相关开发工作;
  5. 配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作;
  6. 协助项目经理跟踪数据服务类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;

技能要求:

  1. 计算机相关专业本科及以上学历 ;
  2. 英语4、6级;
  3. 3年以上寿险数据类项目工作经验,熟练掌握SQL,了解寿险业务和指标体系;
  4. 熟悉数仓分层分主题体系架构,熟悉数据接口服务;
  5. 熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验;
  6. 了解大数据平台基本架构和特征,接触过OGG或其他数据库同步工具;
  7. 熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先;
  8. 有完整的交付类项目经验,有客户主数据管理系统项目经验优先;
  9. 具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。