$25.0k - $40.0k / 月
发布于 1 周前
工程全职远程办公
远程

岗位摘要

该职位是数据分析师,结合大数据运维职责,要求候选人具备3年以上运维或数据分析经验。核心技能包括使用ClickHouse、Kafka、Flink、Airflow等工具维护数据平台稳定,熟悉AWS云服务,掌握Python、SQL进行数据处理和分析。职责涵盖数据平台运维、监控告警、自动化脚本,以及业务指标梳理、用户增长分析、A/B测试设计和报告输出。加分项包括Web3行业经验、机器学习应用和数据产品设计。工作模式为远程,薪资范围每月25000-40000美元。

技能要求:

数据分析大数据运维ClickHouseKafkaFlinkAirflowAWSPythonSQL用户增长A/B测试BI工具数据平台ETL监控告警远程工作高可用数据仓库机器学习Web3

公司简介

Ju.com

岗位职责

大数据运维:负责维护链上数据平台的稳定运行,包括:ClickHouse(分析数据库)、Flink / Kafka(实时数据处理)、ETL 任务和调度系统(如 Airflow);搭建监控告警,确保数据不丢、不延迟;用脚本或工具自动化日常运维操作;支持 BI 看板(如 Metabase)和标签系统的部署与优化;配合开发团队上线新功能,保障数据服务高可用。数据分析师:参与业务指标体系和数仓体系的梳理、设计和执行;负责平台业务数据处理和分析,提出有价值分析和建议;按需输出业务专项分析报告,多维度多方法去枚举验证可能性;参与驱动增长实验,设计、分析A/B测试,评估效果,提出优化建议;洞察用户行为,分析用户留存、用户路径与转化漏斗,定位增长瓶颈与机会;持续维护数据分析体系,不断提升整体运转效率。

岗位要求

大数据运维:有 3年以上运维或 DevOps 经验;用过 ClickHouse、Kafka、Flink、Airflow 中至少两项;熟悉 AWS 或其他云平台(比如会用 S3、EC2);会写 Python 或 Shell 脚本。数据分析师:3年+数据处理和分析经验,1年+专注用户增长(加分项);必备技能:SQL(多方言)、Python (数据板块)、Excel/PPT,任一BI工具、报表工作流加工能力和埋点应用等;较强的逻辑推导和学习能力,善于上下游沟通协作;Web3/区块链行业数据分析经验,熟悉现货/合约数据(加分项);有数据特征处理、机器学习预测、AI应用项目、爬虫获取处理和数据产品设计经验等(加分项);熟悉常规的数分|数仓建设体系和质量规范等。

福利待遇

25K-40K RMB,优秀者面议,接受无圈内背景的候选人

联系方式:

xxpan_px

关注 Telegram 频道

第一时间获取最新远程职位推送

分享职位