岗位职责
-
- 负责spark、hadoop计算平台的设计和开发工作;
- 负责构建高效稳定的计算平台,为业务提供大数据分析所需的海量计算服务;
- 负责数据仓库、以及机器学习平台的建设
岗位要求
- 计算机相关专业,本科及以上学历,2年以上大数据平台开发、运维经验
- 对spark、hadoop平台计算原理有深刻理解,能够阅读spark、hadoop源码
- 对社区有源码贡献者优先
- 熟悉spark流计算框架或其他开源实时计算框架
- 有elasticsearch集群运维、开发经验者优先
- 有数据仓库建设经验者优先
- 数据大数据算法经验、机器学习平台建设经验者优先
- 精通JAVA、熟练掌握MapReduce原理及数据分析相关的二次开发
- 对新技术充满热情,具有良好的学习能力、团队协作能力和沟通能力
- 能承受较大的工作压力
请在这篇文章发布之日起一周内加我们的微信公众号:互联网数据官,回复:“腾讯”获取简历投递邮箱!