1.負責大數據平臺hadoop數據采集架構搭建及數據采集:
2.負責ETL第三方數據對接平臺開發、大數據關聯分析、預測算法編寫
招聘要求:
1、學歷:本科以上
2、專業:計算機相關專業
3、工作經驗:3年以上
4、熟練搭建hadoop+spark,Flink生態下離線或在線數倉,熟練操作sqoop、hive、Flume+kafka、zookeeper、Hbase、Flink、zabbix組件;熟練應用SparkRDD、Sparkmlib或Sklearn庫中機器學習模型訓練,熟練使用linux系統腳本、docker技術自動化部署生產環境,熟悉各組件運維管理。
5、精通python\Java等開發語言:
精通前沿開發技術、技術框架,應用服務器數據庫技術,對技術有前瞻性;技術扎實,代碼格優雅,邏輯思維清晰,具備良好的業務抽象能有闊的技術視野,精通主流開源框架springcloud,spirngboot,vue,熟悉Linux命令,shell腳本,有較好的數據庫設計和調優能力,了解前端主流框架的優劣勢與選型精通0racle、Sqlserver,mysql等數據庫開發,了解存儲遠程,函數等開發及測試手段:
6、具備良好的系統分析設計能力、解決問題能力和較強的學習能力,具有很強的問題分析定位能力及系統調優能力
7、熟悉Maven、SVN、Git等版本和項目管理工具:
8、良好的溝通與表達能力,思維邏輯縝密,具備一定的問題分析能力。
9、有敏捷開發經驗、大數據人工智能等項目經驗者優先