负责Hadoop/Spark/Flink及相关生态组件内核优化、中间件开发以及BugFix;
基于Hadoop/Spark/Flink的大数据应用开发;
岗位要求:
精通Java语言开发,熟悉Python、Scala或者Go语言之一,熟练掌握Linux操作系统;
熟悉主流数据库(如Oracle、MySQL、PostgreSQL或GP其中一种.;
熟悉Hadoop生态圈的相关组件,如HDFS、HBase、Hive、Spark、YARN、MR、Flink等,具备1年以上Hadoop/Spark/Flink开发及调优经验;
熟悉ETL、BI、数据分析方法、机器学习、数据挖掘经验者优先;
具备较强的学习能力和自我管理能力,性格积极乐观,能够在压力环境下工作;
3-6年经验,英文读写要会。
职位福利:五险一金、加班补助、周末双休