• EN
 

职场百科   职场文库   招聘信息   企业服务

您所在的位置:最新招聘信息 >全国职位信息 >Hadoop工程师招聘信息

职位推荐:企业管理培训注册城市规划师挂车司机采购实习生贷款销售金融销售精英模具设计服装打版技术经理用户体验隧道工程技术建筑设计跆拳道老师QC知识产权代理

职位分类:不限

更多
更多:

已选条件:
Hadoop工程师
清除条件
全选
申请职位

大数据开发工程师亚信科技(中国)有限公司重庆-渝北区1.5-2万/月04-23

学历要求:本科|工作经验:5-7年|公司性质:上市公司|公司规模:10000人以上

业务侧重:大数据统计分析、位置数据应用模型开发,拉新促活应用模型开发等方向岗位职责:1、负责数据的批处理、流处理,数据湖、数据仓库的设计、开发,各业务分析主题的数据模型设计,指标整理,维度建模和业务分析专题建模;2、负责数据挖掘专题的需求分析、业务场景建模、实验模拟、制定分析挖掘目标,数据挖掘模型的设计、开发,数据模型的研究、设计、实现、优化,结果分析及验证,挖掘结果展现,知识提取和整理;3、负责将研究成果与数据分析系统应用专题整合,在业务领域推广应用、并与客户沟通。任职资格:1、大学本科以上学历,三年以上工作经验,具备一个以上数据挖掘相关项目经验;2、有数据挖掘项目的开发经验,具有独立完成建模、调试、优化和展现汇报的能力;有电信行业数据仓库系统开发经验者优先;3、熟练掌握 spark、flink、clickhouse、presto 等常见大数据开发技术;4、熟悉一种数据展现工具;熟练掌握ETL工具或能够编写程序进行数据操作;5、有耐心,有钻研精神,严谨,细致;具有良好的团队合作精神,善于沟通;有强烈的责任心,积极主动;6、有过运营商从业经验者优先; 7、有云平台、营销平台、推荐系统、BI等产品的从业经验者优先 。

立即申请
收藏

高级数据工程师(杭州)天狮集团有限公司杭州-余杭区1.5-2万/月04-23

学历要求:本科|工作经验:3-4年|公司性质:民营公司|公司规模:500-1000人

1.精通数据仓库,数据建模知识,在数据仓库的设计,建模,开发和交付等环节有丰富经验。2.具备行业数据仓库的实战经验,熟悉一种以上的行业数据标准体系。3.熟悉大数据体系的常用框架(hadoop,greenplum,spark,flink等),具备多种数据计算平台实战开发经验者优先。4.精通(规模以上性能调优,源码级理解和或引擎修改)流式计算框架(flink或spark)或离线计算框架(Hadoop或MPP)者优先。5.能够深刻理解业务,参与构建企业级数据仓库,包括数据建模,数据安全,数据质量等;6.积极主动的奋斗精神,优秀的学习能力,拥抱开源的精神。7.上级交办的其他工作。任职要求本科;计算机科学与技术、软件工程等相关专业。4年以上相关工作经验。1.计算机相关专业本科及以上学历,4年及以上数仓开发经验。2.对数仓建设有体系化的认识,熟悉数仓整体的运转流程, 对数据仓库建模,数据质量,数据安全都有深刻的理解。3.对业务和数据有比较好的敏感度,能很好梳理和规划业务需求,将需求转化成数据思维,体系化建设。4.踏实、细心、认真,有责任心,良好的团队协作,乐于沟通交流和分享。5.熟悉Hadoop及Hive开发生态,熟悉底层原理。能力素质:1.具备良好的逻辑思维与沟通能力。2.具有较强的业务理解和实现能力。良好的沟通表达能力与团队合作精神,强烈的责任心和较强的学习能力。

立即申请
收藏

Hadoop大数据工程师(武汉)10000-20000/月薪武汉天喻教育科技有限公司武汉1-2万/月04-23

学历要求:本科|工作经验:3-4年|公司性质:国企|公司规模:1000-5000人

岗位职责:1、负责大数据底层组件部署;2、负责大数据底层组件监控;3、负责大数据程序开发。任职要求:1、本科以上学历,计算机及相关专业;2、熟悉Linux操作系统操作和管理,熟悉数据库原理和技术,掌握SQL语言;3、熟悉Hadoop生态体系相关技术,包括但不限于hfds、yarn、kafka、hive、spark等;4、拥有2年以上Linux/Unix环境使用经验熟悉常用命令和Shell脚本;5、精通Hadoop生态体系的安排、配置、调优和问题处理;6、具有2年以上编程开发经验,如Java或Scala或Python等;7、了解数据仓库、数据分析和数据挖掘者优先考虑。

立即申请
收藏

大数据开发工程师 (Spark/Python)江苏太湖云计算信息技术股份有限公司广州-天河区1.3-2.3万/月04-23

学历要求:本科|工作经验:3-4年|公司性质:国企|公司规模:150-500人

职责:1、Databricks迁移 ;2、做好eMedia领域的工作流程从Hbase数据库到Spark集群群标准化处理;3、做好当前大数据平台开发;4、数仓优化。岗位要求:1、具丰富大型数据平台开发经验,熟悉大数据处理技术,2年以上开发经验;2、熟悉Python(必须),Spark(必须)框架及技术,熟悉Hadoop, Hbase,Scala或Java框架及技术 ;3、有Pyspark开发经验;4、有IT运维经验,有ITIL证书优先考虑;5、熟悉linux系统并能编写shell脚本;6、熟悉微软云或者阿里云等云平台的优先考虑;7、理解大型复杂部署环境下Azure PaaS服务的优缺点的优先;8、了解基于微软云的日志,监控,预警系统(云原生的工具、Azure诊断、指标、事件日志、应用日志),或云原生的LMA 工具,如Prometheus, ELKG的优先;9、具良好沟通能力;具很强的学习能力,能提出适当、有意义的技术问题。

立即申请
收藏

大数据开发工程师深圳市富士智能系统有限公司深圳-南山区1.8-3万/月04-23

学历要求:本科|工作经验:5-7年|公司性质:民营公司|公司规模:150-500人

岗位职责:1、负责和参与公司大数据基础架构平台的建设,保障数据平台服务的稳定性和可用性; 2、对接车行、人行上游系统,实现数据集成,产出全量、增量和实时数据;3. 负责基于Hadoop、Spark平台的海量数据处理、数据计算、数据开发;4. 负责高并发、高可用性、高可扩展性的线上数据系统开发;5. 负责智能业务大数据需求分析以及业务模型梳理等工作;6. 跟踪和调研大数据处理和分析的新技术,推动大数据平台技术持续演进;任职资格:1、计算机及相关专业,本科及以上学历2、五年以上大数据平台架构及ETL相关经验,可独立搭建/运维CDH/Spark/flink整套平台架构;3、精通SQL,熟练使用hive ,mysql等数据库;4、精通Python/Java/Scala/Shell等语言中两种以上5、熟悉Spark/Hadoop/Hive/Flink/Hbase/ZK/YARN等三种以上开源框架的原理和源码;6、有市场上成熟的大数据平台产品实际架构/开发经验优先。7、熟悉神经网络理论,掌握算法(如线性和逻辑回归、决策树、随机森林、支持向量机、图形模型、神经网络、异常检测等)等优先考虑。8. 有特征工程、机器学习、数据挖掘、推荐系统经验者优先;

立即申请
收藏

大数据平台开发工程师武汉中海庭数据技术有限公司武汉-洪山区1.5-2.5万/月04-23

学历要求:本科|工作经验:5-7年|公司性质:国企|公司规模:150-500人

1、负责产线构建中心自动化生产平台设计与开发;2、深入理解业务逻辑,对产线工具进行平台化集成改造,提升数据生产效率;3、负责产线生产中心后端大数据计算平台的开发、维护及优化;4、根据用户需求进行数据分析处理和挖掘;5、帮助用户快速构建基于大数据的数据产品和应用,将大数据快速转变成商业价值;6、负责大数据系统的性能分析与系统优化,不断提高系统运行效率。任职要求:1、统招本科以上学历,计算机相关专业;2、熟悉大数据处理分析相关的工具框架,如Hadoop Hive Spark Flink 等,有丰富的分布式系统疑难问题定位经验;3、5年以上java开发经验,对各种开源的框架如spring boot、spring cloud、Dubbo、Redis等有深入的了解,对框架本身有过开发或重构者可优先考虑;4、熟悉常用存储系统(如MySQL/PostgreSQL/Greenplum/Redis)操作,有一定Sql优化经验;5、掌握hadoop、hbase、kafka、spark、Storm、Flink等分布式数据存储和分布式计算平台原理,具有相关系统的调优、 运维、开发经验;6、熟悉常用的数据结构和算法,逻辑分析能力强;有数据挖掘机器学习背景;7、在高并发和高稳定性方面有经验者优先考虑;有一定的分布式处理经验者优先考虑;8、熟悉大数据基础架构,对流式系统、并行计算、实时流计算等技术有较深的理解。

立即申请
收藏

hadoop大数据开发工程师中国邮政集团有限公司广东省信息技术局合肥-包河区1.5-2.5万/月04-23

学历要求:本科|工作经验:3-4年|公司性质:国企|公司规模:50-150人

岗位职责:1.根据工作安排,完成相应模块的设计、开发和单元测试,参与系统需求分析;2.配合进行集成测试、系统测试以及用户测试; 3.进行软件维护,解决软件漏洞、优化软件、实现变更需求; 4.对系统运行提供技术支持,解决运行维护中的问题;5.编写软件开发与系统维护相关技术文档等。6.参加银行总行级大项目开发。岗位要求:1、计算机及相关专业,本科及以上学历,熟练掌握各类常用数据结构和相关算法;2、有1年及以上 Mapreduce/Hive/Hbase/Spark/Oracle/impala 工作经验;3、有 Mapreduce/Hive/Hbase 原理及运维、调优方法经验优先考虑;4、有良好的数据敏感度,敏锐而富有耐心;5、有钻研精神,对技术专注、对大数据充满热情,能独立解决问题;6、有较强的工作责任心和良好的沟通协调能力,有团队合作精神;

立即申请
收藏

大数据架构师安永全球商务服务(大连)有限公司大连1.5-2万/月04-19

学历要求:本科|工作经验:5-7年|公司性质:外资(欧美)|公司规模:500-1000人

As part oAs part of our EY-GDS D&A (Data and Analytics) team, we help our clients solve complex business challenges with the help of data and technology. We dive deep into data to extract the greatest value and discover opportunities in key business and functions like Banking, Insurance, Manufacturing, Healthcare, Retail, Manufacturing and Auto, Supply Chain, and Finance.The opportunityWe’re looking for SENIORs (Big Data Architects) with strong technology and data understanding having proven delivery capability. This is a fantastic opportunity to be part of a leading firm as well as a part of a growing Data and Analytics team.Your key responsibilitiesDevelop standardized practices for delivering new products and capabilities using Big Data technologies, including data acquisition, transformation, and analysis.Interact with client technology leaders, understand their business goals, create, architect, propose, develop and deliver technology solutionsDefine and develop client specific best practices around data management within a Hadoop environment on Alicloud Recommend design alternatives for data ingestion, processing and provisioning layersDesign and develop data ingestion programs to process large data sets in Batch mode using HIVE, Pig and Sqoop technologiesDevelop data ingestion programs to ingest real-time data from live sources using Apache Kafka, Spark Streaming and related technologiesSkills and attributes for successStrong understanding & familiarity with all Hadoop Ecosystem components and Hadoop Administrative FundamentalsStrong understanding of underlying Hadoop Architectural concepts and distributed computing paradigmsExperience in the development of Hadoop APIs and MapReduce jobs for large scale data processing.Hands-on programming experience in Apache Spark using SparkSQL and Spark Streaming or Apache StormHands on experience with major components like Hive, PIG, Spark, MapReduceExperience working with NoSQL in at least one of the data stores - HBase, Cassandra, MongoDBExperienced in Hadoop clustering and Auto scaling.Good knowledge in apache Kafka & Apache FlumeKnowledge of Spark and Kafka integration with multiple Spark jobs to consume messages from multiple Kafka partitions Knowledge of Apache Oozie based workflow Hands-on expertise in Alibaba cloud services is expected, and experience of other cloud platforms such as AWS, and/or Microsoft Azure would be an additional advantageCertifications in data integration tooling, including Alibaba Cloud Big Data, Informatica, Talend, Azure Data Factory or equivalent would be welcomeSolid understanding of ETL methodologies in a multi-tiered stack, integrating with Big Data systems like Hadoop and Cassandra.Experience with BI, and data analytics databases Experience in converting business problems/challenges to technical solutions considering security, performance, scalability etc.Experience in Enterprise grade solution implementations.Knowledge in Big data architecture patterns [Lambda, Kappa]Experience in performance bench marking enterprise applicationsExperience in Data security [on the move, at rest]Strong UNIX operating system concepts and shell scripting knowledgeTo qualify for the role, you must haveFlexible and proactive/self-motivated working style with strong personal ownership of problem resolutionExcellent communicator (written and verbal formal and informal)Ability to multi-task under pressure and work independently with minimal supervisionStrong verbal and written communication skills in Mandarin and English. Experience of Cantonese would be beneficialMust be a team player and enjoy working in a cooperative and collaborative team environment.Adaptable to new technologies and standardsParticipate in all aspects of Big Data solution delivery life cycle including analysis, design, development, testing, production deployment, and supportMinimum 5 years hand-on experience in one or more of the above areas.Minimum 5 years industry experienceIdeally, you’ll also have· Project management skillsClient management skillsSolutioning skills What we look forPeople with technical experience and enthusiasm to learn new things in this fast-moving environmentWhat working at EY offersAt EY, we’re dedicated to helping our clients, from start–ups to Fortune 500 companies — and the work we do with them is as varied as they are.You get to work with inspiring and meaningful projects. Our focus is education and coaching alongside practical experience to ensure your personal development. We value our employees and you will be able to control your own development with an individual progression plan. You will quickly grow into a responsible role with challenging and stimulating assignments. Moreover, you will be part of an interdisciplinary environment that emphasizes high quality and knowledge exchange. Plus, we offer:Support, coaching and feedback from some of the most engaging colleagues aroundOpportunities to develop new skills and progress your careerThe freedom and flexibility to handle your role in a way that’s right for you f our EY-GDS D&A (Data and Analytics) team, we help our clients solve complex business challenges with the help of data and technology. We dive deep into data to extract the greatest value and discover opportunities in key business and functions like Banking, Insurance, Manufacturing, Healthcare, Retail, Manufacturing and Auto, Supply Chain, and Finance. The opportunity We’re looking for SENIORs (Big Data Architects) with strong technology and data understanding having proven delivery capability. This is a fantastic opportunity to be part of a leading firm as well as a part of a growing Data and Analytics team. Your key responsibilities Develop standardized practices for delivering new products and capabilities using Big Data technologies, including data acquisition, transformation, and analysis.Interact with client technology leaders, understand their business goals, create, architect, propose, develop and deliver technology solutionsDefine and develop client specific best practices around data management within a Hadoop environment on Alicloud Recommend design alternatives for data ingestion, processing and provisioning layersDesign and develop data ingestion programs to process large data sets in Batch mode using HIVE, Pig and Sqoop technologiesDevelop data ingestion programs to ingest real-time data from live sources using Apache Kafka, Spark Streaming and related technologies Skills and attributes for success Strong understanding & familiarity with all Hadoop Ecosystem components and Hadoop Administrative FundamentalsStrong understanding of underlying Hadoop Architectural concepts and distributed computing paradigmsExperience in the development of Hadoop APIs and MapReduce jobs for large scale data processing.Hands-on programming experience in Apache Spark using SparkSQL and Spark Streaming or Apache StormHands on experience with major components like Hive, PIG, Spark, MapReduceExperience working with NoSQL in at least one of the data stores - HBase, Cassandra, MongoDBExperienced in Hadoop clustering and Auto scaling.Good knowledge in apache Kafka & Apache FlumeKnowledge of Spark and Kafka integration with multiple Spark jobs to consume messages from multiple Kafka partitions Knowledge of Apache Oozie based workflow Hands-on expertise in Alibaba cloud services is expected, and experience of other cloud platforms such as AWS, and/or Microsoft Azure would be an additional advantageCertifications in data integration tooling, including Alibaba Cloud Big Data, Informatica, Talend, Azure Data Factory or equivalent would be welcomeSolid understanding of ETL methodologies in a multi-tiered stack, integrating with Big Data systems like Hadoop and Cassandra.Experience with BI, and data analytics databases Experience in converting business problems/challenges to technical solutions considering security, performance, scalability etc.Experience in Enterprise grade solution implementations.Knowledge in Big data architecture patterns [Lambda, Kappa]Experience in performance bench marking enterprise applicationsExperience in Data security [on the move, at rest]Strong UNIX operating system concepts and shell scripting knowledge To qualify for the role, you must haveFlexible and proactive/self-motivated working style with strong personal ownership of problem resolutionExcellent communicator (written and verbal formal and informal)Ability to multi-task under pressure and work independently with minimal supervisionStrong verbal and written communication skills in Mandarin and English. Experience of Cantonese would be beneficialMust be a team player and enjoy working in a cooperative and collaborative team environment.Adaptable to new technologies and standardsParticipate in all aspects of Big Data solution delivery life cycle including analysis, design, development, testing, production deployment, and supportMinimum 5 years hand-on experience in one or more of the above areas.Minimum 5 years industry experience Ideally, you’ll also have · Project management skillsClient management skillsSolutioning skills What we look for People with technical experience and enthusiasm to learn new things in this fast-moving environment What working at EY offers At EY, we’re dedicated to helping our clients, from start–ups to Fortune 500 companies — and the work we do with them is as varied as they are. You get to work with inspiring and meaningful projects. Our focus is education and coaching alongside practical experience to ensure your personal development. We value our employees and you will be able to control your own development with an individual progression plan. You will quickly grow into a responsible role with challenging and stimulating assignments. Moreover, you will be part of an interdisciplinary environment that emphasizes high quality and knowledge exchange. Plus, we offer: Support, coaching and feedback from some of the most engaging colleagues aroundOpportunities to develop new skills and progress your careerThe freedom and flexibility to handle your role in a way that’s right for you

立即申请
收藏

大数据开发工程师中国石油天然气管道工程有限公司成都1-2.5万/月04-08

学历要求:本科|工作经验:1年|公司性质:国企|公司规模:1000-5000人

A) 基于Hadoop进行MapReduce、Hive和HBase的应用开发;B) 维护和管理大规模Hadoop集群,解决不断增长的海量数据带来的存储和计算挑战;C) 大数据平台数据清洗、转换和建模的开发;要求:1, 熟悉Hadoop/HBase/Spark/hive生态环境体系的搭建和管理,掌握Hadoop、HBase、MapReduce、HDFS、Hive、Kylin、Zookeeper等开源项目的原理和使用方法,具有实际集群搭建和调优经验;2, 熟悉并有Java开发经验,有大平台架构开发经验;3, 掌握至少一种NoSQL数据库,具有真正项目使用经验;4, 掌握数据分析的基本流程,擅长数据采集、清洗、分析等环节;5, 熟悉后端服务(Restful Api 服务实现)优先;6, 熟悉使用sqlserver、oracle、mysql一种;7, 良好团队协作和沟通能力;8, 全日制本科及以上学历,1-3年及以上工作经验。

立即申请
收藏

大数据工程师中国太平洋保险(集团)股份有限公司上海-徐汇区20-35万/年04-06

学历要求:本科|工作经验:3-4年|公司性质:国企|公司规模:5000-10000人

工作职责:(1)负责软件系统代码的实现,编写代码和开发文档(2)负责进行系统的功能定义,程序设计(3)根据设计文档或需求说明完成代码编写、调试、测试与维护(4)分析并解决软件开发过程中的问题(5)配合技术经理完成相关任务目标任职资格:(1) 计算机相关专业全日制本科及以上学历;(2) 3年以上工作经验,其中至少2年大数据开发经验,熟悉Hadoop大数据处理系统的开发,搭建及部署(3) 精通JAVA语言,熟悉Linux开发环境(4) 熟悉hadoop生态系统项目的使用(hdfs、hive、hbase、spark、zookeeper,yarn等)(5) 学习和理解能力强,具有一定的系统分析能力,及独立解决问题的能力(6) 具备良好的团队合作精神和承受压力的能力(7) 拥有金融类产品开发经验者优先。

立即申请
收藏

大数据开发工程师比亚迪股份有限公司深圳1.2-2万/月04-22

学历要求:本科|工作经验:3-4年|公司性质:民营公司|公司规模:10000人以上

岗位职责: 1、负责大数据分析平台的功能优化与运维异常问题处理;  2、复杂公有云爬虫云数据实时监控与远程数据同步;  3、参与数据湖搭建,以及数据全链路的开发,包括内部与外部数据的采集、数据同步、数据清洗与标准化、数据模型设计、离线数据处理、实时数据处理、数据服务化、数据可视化等  4、熟悉NLP文本模型的参数输入输出与样本训练过程,掌握模型的本地部署过程,新版本发布,文本模型的关键词补充;  5、根据用户需求,为用户提供大数据技术解决方案,进行大数据项目方案汇报讲解;  6、负责大数据平台对ES的数据存储信息的调用实现数据统计分析。招聘要求:1、全日制本科及以上学历(学信网可查询),计算机及其相关专业;2、熟悉大数据HADOOP生态系统HDFS,HBASE,HIVE,KAFKA、SPARK,IMPALA组件;3、熟练使用以下编程语言中的至少一种:Java、 C、Scala,或者脚本语言中的至少一种:Python, Perl, R;4、有使用开源工具KETTLE,SQOOP对接数据经验;5、能独立处理把数据源的数据采集到Hadoop上存储,非结构化数据源需解析成结构化数据,并完成数据分析输出用户报表;6、能独立处理把Hadoop上的数据输出给第三方系统使用;7、良好的编程能力、算法设计能力,具备大规模语料数据处理经验,具备良好的数学和统计学基础;8、有开源项目经验,使用过KERAS+TENSORFLOW开发的优先。

立即申请
收藏

高级软件开发工程师中软国际科技服务有限公司西安-雁塔区1.8-3万/月04-16

学历要求:本科|工作经验:3-4年|公司性质:合资|公司规模:10000人以上

岗位职责:1、Hadoop及其生态圈内相关开源产品的学习、研究和功能研发。2、大数据应用组件、管理平台、分析挖掘平台的开发工作任职要求:1、熟悉使用Springboot,SpingCloud,Mybatis等主流开发框架;2、熟悉Hadoop生态圈,掌握Hadoop、Spark、Flink、Kafka、Hive、Hbase等大数据相关组件的集群部署3、熟悉hadoop生态体系,对HDFS存储、MapReduce计算以及yarn资源调度有深刻的了解4、熟悉Spark Streaming技术,了解其内部任务调度流5、熟练使用SQL语句, 熟悉Oracle、MySQL数据库;6、具有 数据统计和数据分析的能力;

立即申请
收藏

大数据基础技术高级工程师广发银行股份有限公司异地招聘2-4万/月04-22

学历要求:本科|工作经验:5-7年|公司性质:国企|公司规模:500-1000人

工作职责:1、负责大数据集群运维管理,以及数据总线、流计算平台、离线计算平台、分布式数据库的开发运维管理等工作,保障集群稳健运行; 2、负责集群容量规划,架构审核,能解决高难度的故障隐患、疑难杂症。在性能优化时,负责攻克大数据量,高并发,高稳定性,易用性等各种技术难点; 3、研究与跟踪大数据基础新技术发展方向,并能在团队内进行推广应用。任职要求:1、本科及以上学历,5年以上工作经验; 2、 精通java开发技术,对JVM性能调优有较深刻的理解,具备丰富的java程序故障分析经验; 3、 精通Hadoop生态圈,掌握数据存储Hadoop、HBase、HDFS,数据收集Kafka、Flume、Canal、LogStash,分析计算Spark、Hive、presto,实时计算Flink、Storm,数据索引ES等大数据基础软件的环境搭建技术,能解决环境搭建过程中的问题; 4、 具备生产环境快速trouble-shooting能力,能解决大数据基础环境中出现的疑难杂症,能进行基础环境的参数调优,具备阅读源码解决环境问题能力者优先,开源项目commiter或贡献过patch 者更佳。

立即申请
收藏

大数据分析工程师仁和药业股份有限公司异地招聘0.6-1.2万/月04-22

学历要求:大专|工作经验:2年|公司性质:上市公司|公司规模:5000-10000人

???樟树上班???岗位职责:1.参与KPI指标体系管理;2.负责深入业务线,制定业务指标,反馈业务问题,为业务发展提供决策支持;3.负责数据建模,基于业务规律和数据探索构建数据模型,提升数据利用效率和价值;4.负责多维度决策支持管理报表的开发、应用。任职要求:1.精通SQL,擅长对复杂SQL进行优化;2.熟悉开源数据平台及相关技术,如:Hadoop、Spark、Hive、Python、R、Confluent Kafka、Storm、Flink;3.熟练掌握数据挖掘技术,熟悉数据模型开发,有能力将数据转化为有价值信息;4.2年以上相关从业经验。

立即申请
收藏

后端开发工程师-上海-08379神州数码供应链上海-长宁区1.5-2.5万/月04-20

学历要求:本科|工作经验:2年|公司性质:上市公司|公司规模:5000-10000人

1、 负责公司的大数据产品的开发实施和技术维护;2、 负责技术攻关项目的实施,负责相关产品性能的持续优化;3、 支持配合公司的相关项目的技术实施,为相关项目提供产品级的技术支持和服务;4、 负责相关技术文档的制定和维护;5、 为公司的大数据产品的运营提供技术支撑和服务。任职要求:1、 全日制统招本科及以上学历,数学、统计、和计算机相关专业优先;2、 5年以上的软件开发经验,3年以上的大数据项目或大数据产品的技术实施和研发交付的实战经验;3、 在智慧城市、智慧供应链领域有产开发和交付经验的优先;4、 有数据中台产品开发经验的优先;5、 熟悉并具备动手能力: K8S,Hadoop,Hive,Hbase,Java,Python,Alicloud;6、 具备严谨认真的工作态度,学习能力强,具备较强的分析解决问题的能力;7、 具备优秀的团队协作精神,具备良好的抗压能力;学历要求: 本科

立即申请
收藏

大数据开发(外派)神州数码信息服务股份有限公司上海-浦东新区1.5-1.7万/月03-01

学历要求:大专|工作经验:3-4年|公司性质:上市公司|公司规模:5000-10000人

岗位职责:大数据开发人员,外派中金所现场开发岗位要求:1、正规学校毕业4年以上,学信网可查学历。2、负责数据清洗、处理、分析等场景的开发。3、熟悉Hadoop,有数据开发经验。4、掌握Java或Python等编程语言。5、有大数据开发分析经验。6、具有金融行业经验优先。

立即申请
收藏

大数据开发工程师航天信息股份有限公司广州航天软件分公司广州-黄埔区1.5-2.5万/月04-23

学历要求:硕士|工作经验:5-7年|公司性质:国企|公司规模:50-150人

岗位职责:1. 负责大数据平台架构的规划与设计、技术选型,并输出设计文档;2. 负责大数据平台上业务应用的功能设计及架构规划;3. 负责大数据平台及产品的开发工作。 任职资格:1. 计算机相关专业,硕士或以上学历,5年及以上大数据相关工作经验;2. 具备大数据项目的规划、设计、开发、实施等相关经验;3. 扎实的Java语言基础,熟悉Java开发工具和调试工具的使用;熟悉虚拟机原理、数据结构和算法等基础扎实;4. 熟悉Hadoop以及相关开源大数据技术,如Hive、HBase、Flink等组件和机器学习等框架,有运用机器学习和深度学习开发人工智能模型者经验优先考虑;5. 责任心强,认真细致,良好的沟通能力和团队协作精神,有清晰的逻辑思维能力及文档编写能力。

立即申请
收藏

大数据开发工程师深圳云创友翼科技有限公司深圳-南山区1.5-2.5万/月04-23

学历要求:大专|工作经验:5-7年|公司性质:民营公司|公司规模:150-500人

1、熟悉Hadoop、Hive、Zookeeper、Spark、Presto、Impala等;2、ETL等相关开发工作经验,理解数据仓库体系下,数据采集、元数据管理、数据质量管理、ETL等概念,具备良好的梳理能力;3、掌握主流数据库技术(如Oracle,Mysql等)熟悉sql开发;4、具备较强的数据分析,问题分析,逻辑思维能力,良好的沟通,团队协作能力;

立即申请
收藏

大数据开发-平台方向深圳微品致远信息科技有限公司深圳-南山区1.8-3.5万/月04-23

学历要求:本科|工作经验:3-4年|公司性质:民营公司|公司规模:150-500人

职位描述 1、负责公司基于大数据组件开发数据中台 2、调研和把握当前最新大数据实时计算技术,将其中的合适技术引入到平台中,改善产品,提升竞争力。 职位要求: 1、本科及以上学历,3年及以上的大数据平台计算开发经验,精通Java,熟悉Scala、Python优先考虑; 2、精通dolphinscheduler,azkaban,datax,spark,flink等大数据组件api, 3、精通dolphinscheduler,azkaban,datax,spark,flink等大数据组件原理,有基于以上组件中的一个或者多个做过二次源码的开发,Contributor者优先; 4、对新技术有快速学习和上手能力。 加分项: 1、在GitHub或其他平台上有过开源项目

立即申请
收藏

Java大数据开发工程师迈克生物股份有限公司成都-郫都区12-20万/年04-23

学历要求:本科|工作经验:1年|公司性质:民营公司|公司规模:

1、熟练掌握java语言,同时掌握scala者优先 ;2、熟悉Hadoop生态圈以及/Spark/Flink/Elasticsearch/Kafka/Redis等开源系统,具备相关系统的开发能力;3、有Hadoop、Spark、Elasticsearch、Redis、MySQL等相关开发经验者优先;4、对Java虚拟机有较深了解,同时具备JVM分析及调优的实际经验;5、良好的沟通和学习能力,有较强的业务理解能力,能快速将业务问题转化成具体的技术解决方案;6、具备丰富的数据处理项目实践经验者优先

立即申请
收藏

全选
申请职位
共12页,到第确定

精英竞拍汇-中高端人才求职平台

互联网专场
招聘职位: 后端开发,前端开发,移动端开发,测试,产品/设计/运营
金融专场
招聘职位: 财务审计,合规与风险控制,后台运营,投行,销售
房地产专场
招聘职位: 房地产开发,建筑工程,规划设计,商业,市场营销
汽车专场
招聘职位: 汽车新能源,软件与汽车电子,生产制造,质量管理,供应链管理