崗位職責:
1. 參與大數據基礎平臺與數據倉庫的開發建設,聚焦 Hadoop、Spark、Flink等大數據組件的二次開發、性能調優及部署落地,通過技術優化保障平臺高效穩定運行;
2. 負責全鏈路數據處理工程的設計與開發,涵蓋多源數據采集、清洗轉換及 ETL 流程搭建,建立數據質量校驗與安全管控機制,確保數據鏈路可靠、合規;
3. 主導數據中臺核心數據服務接口的設計、開發與迭代,構建靈活可復用的數據服務能力,支撐業務端快速調用與需求響應;
4. 參與 BI 體系底層數據開發,負責業務指標計算邏輯實現與優化,為可視化分析提供精準、高效的數據支撐。
任職要求:
1. 本科以上學歷,計算機/數學/統計學等相關專業;
2. 精通 Java/Scala/Python等至少一種編程語言,具備扎實的編碼能力與工程實踐經驗,能獨立完成復雜模塊開發;
3. 3-5大數據平臺、數據倉庫開發經驗,熟悉 Hadoop、Spark、Flink、StarRocks 等技術棧,理解組件底層原理者優先;
4. 具備海量數據(TB 級及以上)處理、數據建模及 ETL 開發實戰經驗,能設計高效數據處理流程并解決性能瓶頸;
5. 精通 SQL,能編寫復雜查詢并通過優化(如索引設計、執行計劃調整)提升處理效率;
6. 有 ETL 調度平臺(如 Airflow,Dolphinscheduler)、數據治理系統開發經驗,或熟悉 StarRocks 在實時 / 離線場景落地實踐的候選人優先;
7. 了解數據中臺架構設計(數據分層、服務化),具備大數據存儲優化或可視化工具集成經驗者優先;
8. 具備快速學習能力、跨團隊溝通協調能力,邏輯清晰,能獨立拆解并解決實際技術問題。