岗位摘要
该职位为高级数据工程师,专注于区块链数据方向,要求具备5年以上数据工程经验,精通Spark、Flink和StarRocks等技术,负责设计数据平台架构、优化数据处理链路、管理数据湖存储,并与算法团队协作支持链上数据分析。工作模式为远程,薪资范围在每月3000至7000美元。
技能要求:
岗位职责
1. 主导区块链数据平台的整体架构设计,负责多链数据采集、清洗、建模与 Pipeline 开发 2. 基于 Spark / Flink 设计并优化实时与离线数据处理链路,保障数据时效性、准确性与高可用 3. 主导 StarRocks 数据模型设计与查询性能调优,支撑上层分析、API 服务及高并发查询场景 4. 规划 S3 数据湖存储架构,制定数据分层策略(ODS / DWD / DWS / ADS)与生命周期管理方案 5. 负责 Docker + K8s 环境下数据服务的架构设计、容量规划与稳定性保障 6. 与算法团队深度协作,为链上数据分析、风控模型、智能标签等提供高质量数据底座
岗位要求
1. 5年以上数据工程经验,具备独立设计数据仓库架构的能力(星型/雪花模型、维度建模、数据治理体系) 2. 精通 Spark(Spark SQL / Spark Streaming),深入理解分布式计算原理,有大规模集群调优经验 3. 精通 Flink 实时流处理,深入掌握 Exactly-Once 语义、Watermark、状态管理与 Checkpoint 机制 4. 精通 StarRocks 或同类 OLAP 引擎(ClickHouse / Doris),能进行复杂查询优化、物化视图设计与集群调优 5. 有3年以上区块链数据处理经验,深入理解 EVM 链的数据结构(Block / Transaction / Event Log / Trace / State Diff) 6. 熟练使用 Claude Code 等 AI 编程工具,能借助 AI 提升开发效率
福利待遇
1. 与最前沿的 Web3 + AI 结合场景共建实战机会 2. 接触大量结构化链上数据与高级预测模型 3. 富有竞争力的薪酬和福利待遇