崗位職責:
1.實現(xiàn)各業(yè)務系統(tǒng)數據進入數倉,并完成ETL相關工作;
2.對接業(yè)務部門關鍵用戶,完成公司內部數據報表與BI的開發(fā)需求落地;
3.優(yōu)化和完善數據開發(fā);
4.探索前沿技術,優(yōu)化數據開發(fā)流程和體系。
任職資格:
1.本科及以上學歷,計算機、信息管理、數據統(tǒng)計等相關專業(yè);
2.參與過公司基于Hadoop、Spark等主流開源大數據組件的數據倉庫,整合超過10TB的業(yè)務數據,打通了數據采集、加工、監(jiān)控、服務的全鏈路;
3.熟悉實時計算模塊,能通過Flink/Blink對接Kafka消息隊列,實現(xiàn)10+項業(yè)務數據的實時指標計算;
4.熟練運用Java基礎框架和Web開發(fā)技術完成10+個功能組件的詳細設計和開發(fā)工作;
5.參與過公司的大數據項目開發(fā)工作,熟練運用Hadoop生態(tài)環(huán)境和工具對公司日常物流數據進行了整合、計算、分析、維護和優(yōu)化等工作;
6.Hadoop 生態(tài)核心組件:精通 HDFS、MapReduce、YARN 原理與調優(yōu),熟練運用 Hive 進行數據倉庫建模、復雜 SQL 開發(fā)及性能優(yōu)化,具備基于 HBase 設計高并發(fā)讀寫場景數據存儲方案的能力。?
7.數據處理工具:熟練使用 Spark Core、Spark SQL、Spark Streaming 進行大規(guī)模數據處理與實時計算,熟悉 Flink 流處理框架,能根據業(yè)務場景選擇合適的處理引擎。?
8.輔助工具:掌握 Kafka 消息隊列,實現(xiàn)數據的高吞吐量異步傳輸;熟悉 Zookeeper 分布式協(xié)調服務,保障分布式系統(tǒng)的穩(wěn)定性與一致性。?
9.其他技能:熟悉 Python、Java 開發(fā)語言,具備良好的代碼編寫規(guī)范與調試能力;了解 Linux 系統(tǒng)操作與常用命令,能進行基本的系統(tǒng)管理與維護。