Arbeitsbeschreibung
- Führen von Daten-ETL und Data-Warehouse-Konstruktion.
2. Führen der Datenvermarktungsexploration und des Data-Value-Mining für neue Unternehmen und Branchen; - Verantwortlich für die Sammlung, Verarbeitung und Speicherung von Massendaten, die Auswahl von Technologien und die Implementierung der Architektur;
4. Beteiligung an der Code-Implementierung und Leitung des Teams, um die neuesten technologischen Errungenschaften im Bereich Big Data und Cloud Computing-Technologie zu verfolgen und auf interne Geschäftspraktiken anzuwenden.
Stellenanforderungen:
1.Bachelor-Abschluss oder höher, mehr als fünf Jahre einschlägige Branchenerfahrung.
2.Vertraut mit Data-Warehouse-Produkten, mit fundierten Kenntnissen und praktischer Erfahrung in der Datenverarbeitung, dimensionalen Modellierung, Datenanalyse usw;
- Ausgeprägte Programmierkenntnisse und -erfahrung, gute Java-Kenntnisse, Vertrautheit mit dem verteilten Datenverarbeitungssystem Hadoop (HDFS, Hbase, Hive, Mapreduce, Storm/Spark, Flink, kudu, usw.).
- über gute Kommunikations- und Koordinationsfähigkeiten verfügen, die Initiative ergreifen, um eine enge Zusammenarbeit mit Unternehmen aufzubauen und die Aufwertung von Unternehmen zu fördern.
- Optimierung mit kommerzieller Realisierung, DMP-Nummernlagerbau und Wartungserfahrung.