1、根據系統迭代計劃,參與業務需求轉化為開發設計,并完成相應的編碼工作; 2、參與內控項目數據清洗、大規模實時/離線大數據處理平臺的開發工作,保障數據處理效率及穩定性;
1、本科以上學歷,計算機、數據、統計學相關專業;
2、5年以上大數據領域工作經驗,3年以上Hadoop/Spark/Flink項目經驗;
3、深入理解MapReduce、HDFS、Hbase、Hive、Flink等技術原理,掌握關系型數據庫數據與hdfs之間的導入和導出操作,并有相關的項目實戰經驗;
4、熟悉的主流關系型數據庫:MySQL、Oracle,分布式數據庫:Hive、Impala 5、熟練掌握Linux基本指令
6、具備良好的溝通能力及團隊協作經驗,自驅力強,具備良好的抗壓能力;
7、有金融行業大數據分析、風控建模經驗優先。