-
岗位职责: 1、参与公司大数据平台设计,主导数据接入,数据流水线、时序数据分析系统、数据服务等平台子模块的开发维护。 2、负责大数据平台组件间的集成、接口封装,
-
一、公司简介
彩讯股份(证券代码:300634)创立于2004年,致力于成为优秀的智能数字化专家。公司多年来沉淀了独特的技术和运营双中台,以及智慧渠道、协同办
-
1、技能:简历中体现工作中常用的技能&有实际的应用经验
引擎:Hive、Spark、Flink(最少有两个);
olap:clickhouse,doris
-
数据开发
岗位要求:
1. 熟悉Python开发,有5年以上数据开发经验,有良好的编码习惯;
2. 熟练掌握异构文本数据处理能力,能够使用工具进行数据的抽取、转
-
岗位职责:
1、讲授软件开发课程,并组织学生完成项目实战;
2、备课、制作相关教案、项目案例;
3、解决学员提出的技术疑问 。
任职资格:
1、计算机及相关专
-
岗位级别:中级或高级级别
职位详情:
1.负责公司基础数据的建设,包括数据仓库设计、建模,ETL开发等;
2.负责离线数仓的开发及性能调优,提供统一、可靠的数据
-
【急招】必须要有数仓搭建经验,熟悉Doris使用,满足条件咱们再投递哈。
约面前提供:【学信网截图】
直聘,非外包
岗位职责:
1、负责数据采集、清洗、转换、存
-
岗位职责:
1、负责业务需求对接,独立完成需求沟通及数据探查工作
2、负责日常需求开发,完成从数据源到模型层到应用层的数据采集与开发
3、编写核心系统文档,按
-
1. 数据任务开发:
- 熟悉Hadoop/Spark基础组件(HDFS/YARN/MapReduce)的核心功能。
- 精通复杂的Hive SQL任务,并能优
-
工作职责:
1、负责大数据平台基础上的应用开发,包括报表系统、数仓建设;
2、负责数据仓库和大数据处理ETL流程开发以及模型设计;
3、负责基于HADOOP生态
-
工作职责:
1、参与或负责大数据的采集、存储、处理、通过分布式大数据平台加工数据,数据驱动运营;
2、参与或负责大数据仓库的设计、开发、维护,通过数据仓库和数据
-
任职要求:
1、统招本科以上学历,计算机科学、数学、统计学等相关专业。
2、具备3年以上大数据开发相关工作经验。
3、熟悉flink/spark/hadoop/
-
工作职责:
1.负责数据模型的设计、ETL实施、性能优化、数据监控、指标体系建设;
2.面向广告业务方向,建设专题数据,参与BI、用户画像、特征工程等数据应用建
-
岗位职责:
1、负责大数据教育方向的教学和研发工作;
2、根据教学需要及课程材料,设计上课方式,并完成备课上课;
3、完成课程辅导、竞赛指导工作,解答学生课程疑
-
岗位职责:
1.深入理解旅游平台业务,围绕场景构建分析模型,挖掘潜在问题和增长机会,助力业务发展;
2.完成平台业务的数据仓库模型设计
3.为满足业务需求,进行
-
岗位职责:
1、参与业务需求调研,根据需求及医药行业特点设计大数据解决方案并跟进具体实施项目,编写核心代码等;
2、负责大数据组内的数据采集、处理、存储以及挖掘
-
任职要求如下:
1. 学历要求:本科及以上学历,计算机、软件专业;
2. 工作经验:精通大数据技术栈,包括Hadoop、Hive等,有金融行业工作经验优先;
3
-
岗位职责:
1.负责数据仓库脚本任务及数据的搬迁工作,确保最终数据完整性和一致性。
2.使用 Hive SQL 进行数据查询操作,基于 Hadoop 大数据组件
-
工作职责:
1、负责参与公司相关数据的体系化建设,构建数据仓库、元数据、质量体系,有效的管理和组织公司业务相关的数据;
2、利用BI工具搭建可视化仪表盘,负责B
-
岗位职责:
1.负责大数据业务需求开发;
2.负责大数据平台系统设计和开发;
任职要求:
1. 计算机相关专业本科及以上学历,3年及以上数据开发经验;
-
一、岗位职责
1.数仓建设:通过维度建模,完成各业务系统数据的采集、加工和建模,形成主题数仓;通过监控、容错、回退、公告等手段,保障数据质量和系统稳定性。
2.
-
岗位职责:
1、负责公司数据仓库与数据中台的建设、优化与运维,提升数据可用性与查询性能。
2、使用 Flink / Spark 设计并实现实时与离线数据处理管道
-
岗位职责:1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性
2、负责车联网大
-
一、岗位职责
1、参与数据仓库、数据湖的架构设计与搭建,负责ETL(Extract,Transform,Load)流程开发,高效完成数据的抽取、转换和加载工作。
-
岗位职责:
1.参与滴滴国际化数仓等数据域的离线、实时数据集市和实时数据的开发工作;
2.参与滴滴国际化数仓离线、实时相关数据规划、设计以及落地;
3.参与风控
-
工作职责
1、负责离线数仓和实时数仓的建设,设计和开发ETL/ELT数据处理流程
2、基于StarRocks、Doris等OLAP引擎,构建高性能的多维分析平台
-
岗位职责:
1.采集和处理各种数据源,确保数据质量和准确性。
2.管理和维护大数据存储系统,优化存储结构以提高存储效率。
3.使用编程语言和工具进行数据清洗、转
-
岗位职责:
1.负责公司数据仓库的整体搭建工作,包括数据模型设计、数据抽取(ETL)流程开发与优化,确保数据仓库的稳定性、高效性和可扩展性,满足公司长期数据存储
-
•为耐克中国数据湖设计和构建可重用的数据资产。
预测、识别和解决数据管理方面的问题,以提高数据质量。
清洁、准备和优化数据,以供消化和消费。
•使用工作流调度工
-
岗位职责:
1. 负责大数据平台开发,维护和优化,保障数据管道稳定高效运行。
2. 设计并开发数据ETL流程,处理海量数据,支持数据仓库建设,针对AI模型训