Ingénieur Big Data Hadoop H/F
Entreprise
Créée en 1999, INFIDIS – Entreprise de Services du Numérique – est un intégrateur de technologies et de services à forte valeur ajoutée dans L’IT.
INFIDIS accompagne ses clients dans la mise en œuvre des stratégies, des projets d’évolution et de transformation IT.
INFIDIS se positionne sur le marché de la prestation de services à travers ses offres de :
– Assistance Technique / Mission à temps partagé / Télétravail
– Services professionnels
– Maintenance et support (MCO)
– Hébergement et management d’infrastructures
• Chiffre d’affaires consolidé 2020 : 70 Millions €
• Effectif 2020 : 80 personnes
• 3 Agences Régionales : Paris, Nantes, Aix-en-Provence
Poste
Nous recherchons pour l’un de nos clients grands comptes un(e) Ingénieur Big Data Hadoop H/F.
Vous intégrez une équipe d’ingénierie et support et assurez un rôle d’expert technique sur l’infrastructure Big Data.
Dans le cadre de votre fonction vos principales missions sont les suivantes :
- Réaliser des études techniques : Architectures techniques, Choix et tests de solutions techniques, Mises en exploitation des solutions, Migrations techniques
- Support niveau 3
- Définir les normes et règles communes à tous les centres de production sur la configuration et l’utilisation des produits ;
- Rédiger et mettre à jour les documentations d’exploitation, d’installation, modes opératoires et documents permettant d’assurer le transfert des activités d’administration et d’exploitation
- Effectuer des développements techniques nécessaires à l’exploitation et l’automatisation des tâches
- Assurer l’assistance et le conseil aux équipes développement en matière d’architecture des bases de données
- Veiller à l’intégration (prise en compte) des contraintes et règles liées à la sécurité des SI.
Profil
Vous recherchez un nouveau projet dans lequel vous investir et êtes à l’aise avec l’environnement technique ci-dessous :
- Maitrise de une ou plusieurs des technologies suivantes : Hortonworks, Cloudera, Ambari, HBase, Cassandra, Spark, Map Reduce, Hive, Presto, HDFS, Object Storage
- BIG DATA dans le cloud (Azure)
- Compétences linux et automatisation: bash shell, systèmes distribués, ansible, …
- Connaissances sur les outils de sécurité et d’autorisation des données dans les plateformes hadoop: (kerberos, ranger, cloud roles, active directory)…
- Compréhension des concepts de base sur les technologies data: map reduce, spark jobs submit, Hive …
Savoir être:
- Bon communiquant
- Sens de l’organisation
- Curieux
- Autonome
- Capacité de travail en équipe
- L’anglais technique est indispensable