Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 155 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

CDI

Offre d'emploi
Consultant AD

GROUPE ARTEMYS
Publiée le
Active Directory
Active Directory Domain Services (AD DS)

55k-80k €
Paris, France

Postuler Nous répondons généralement sous une semaine Dans le cadre de notre croissance continue dans le secteur des technologies de l'information, nous recherchons un-e Ingénieur-e AD (Active Directory) pour enrichir notre équipe d'experts. Si vous êtes passionné-e par la gestion des identités, les services d'annuaire et l'amélioration des infrastructures IT, ce poste est taillé pour vous. Concevoir, déployer et gérer les services Active Directory au sein de l'entreprise cliente tout en assurant la sécurité et l'intégrité des données. Optimiser les performances et la disponibilité du service AD, en mettant en place des solutions de haute disponibilité et de reprise après sinistre. Gérer l'authentification centralisée et les politiques de sécurité, en s'assurant que les meilleures pratiques sont appliquées. Collaborer avec les équipes sécurité pour définir et implémenter les politiques de groupe (GPO) afin de répondre aux exigences de conformité et de sécurité. Assurer une veille technologique constante pour proposer des améliorations continues de l’infrastructure AD. Supporter les équipes IT dans la résolution des incidents de niveau avancé liés à AD et fournir une documentation technique détaillée. Windows Server 2012/2016/2019 Active Directory, ADFS, Azure AD PowerShell scripting Technologies de synchronisation d'annuaires (ex : Azure AD Connect) Outils de surveillance et de gestion de la performance AD

CDI
Freelance

Offre d'emploi
CDI Ingénieur d'affaires IT (H/F)

Signe +
Publiée le
CDI
h-f
ingenieur

24 mois
30k-35k €
Toulouse, Occitanie

Mais nous recherchons également des soft skills : Entreprenant(e) Sens du relationnel, à l'aise à l'oral Force de proposition Bienveillance, éthique vis à vis des clients / consultants Amener des croissants le matin Le candidat : Une Connaissance du milieu IT/ Data / Business Intelligence sera très fortement appréciée. L'anglais niveau B2 / C1 apprécié Le candidat sera amené à travailler sur un nouveau projet commercial, mais aussi sur des missions transverses. Il (elle) évoluera dans nos bureaux (hyper centre de Toulouse). Un système de rémunération variable est mis en place Nous sommes à l'écoute de toutes vos candidatures !! A très vite ! Alexis Dardaine X X X X X X X

Freelance

Mission freelance
Data Engineer / Architect (H/F)

OctopusGroup
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 mois
100-650 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire, un data Engineer senior/ architecte big data, expert sur la conception de solutions sur la stack Hadoop, (HDFS, Hive, Spark, Kafka, Hbase, iceberg) et la maîtrise des architectures API vous avez une expérience confirmée en architecture et technologies Big Data ainsi qu’une expérience pratique et concrète de choix de solutions Data (logiciels libres et éditeurs), de conception d'architecture Big Data sur les plans fonctionnel, logique, applicatif et technique et la mise en œuvre de socle Big Data Maitrise et expériences de conception de solution sur hadoop Expertise sur la stack Hadoop hdfs, hive , spark kafka hbase iceberg… Maitrise des architectures APIs

Freelance

Mission freelance
DEV Vue.JS

KN CONSULTING
Publiée le
Docker
Gitlab
Hadoop

6 mois
100-450 €
Paris, France

Objet de la prestation : développement collaboratif Pour répondre aux besoins métier d’analyse et de restitution de données opérationnelles, certains acteurs métier ont développé des solutions avec des langages informatiques telles que R, Python, Excel Visual Basic. Soucieux de maîtriser les risques inhérents à ces pratiques éparses et tout en souhaitant conserver une dynamique pour améliorer le traitement des données du SI de la DOAAT, le projet Développement Collaboratif alias « DevCo » a été lancé. L’ambition du projet est de définir l’organisation, la gouvernance et les éléments technologiques pour offrir : · un cadre plus maitrisé aux développements métiers · une meilleure capacité d’intégration et d’industrialisation des cœurs de data-science et des développements métiers dans le SI · une capacité à réaliser des développements plus rapides et à coûts réduits sur une plateforme bénéficiant d’un niveau de service moindre. Pour réussir ce projet, une communauté « DevCo » a été constituée avec différents profils: 4 · Un animateur (équivalent « Product Owner ») pour aider à constituer la liste des réalisations prioritaires - Un référent technique / expert développement et déploiement continu · Un architecte d’entreprise pour orienter les choix de conception et accompagner les différentes équipes dans la mise en œuvre (DevCo, équipes de developpment SIME, BigDATA, …) · Des développeurs des équipes métier · Des Data Engineers · Des Data Scientists

CDI

Offre d'emploi
Ingénieur Data - Python

AGH CONSULTING
Publiée le
Docker
Flask
Gitlab

10k-60k €
Saint-Denis, Île-de-France

AGH Consulting recherche pour un de ses clients un Ingénieur Data. La mission vise à : • Contribution aux Guidelines (utilisation de la plateforme et pratiques de développement et de déploiement) • Conception et réalisation de solutions (développement) pour répondre aux besoins prioritaires (de type analyse et restitution de données) • Rédaction des Dossiers de conception et d’exploitation des solutions délivrées • Veille technologique et proposition de solutions innovantes pour exploiter les données

Freelance

Mission freelance
Ingénieur Data Senior / Leader Technique (Expert Data Vault)

Phaidon London- Glocomms
Publiée le
Apache Hive
Apache Kafka
ETL (Extract-transform-load)

12 mois
600-700 €
Île-de-France, France

Titre du poste : Ingénieur Data Senior / Leader Technique (Expert Data Vault) Lieu : Paris, France (Hybride : 3 jours de télétravail par semaine) Langue requise : Français courant Nous recherchons un Ingénieur Data Senior / Leader Technique avec une vaste expérience en Data Vault pour diriger un projet de migration de données important à Paris. Le candidat retenu ne se contentera pas de guider les efforts de migration, mais jouera également un rôle clé dans la constitution et le mentorat d'une équipe de data engineers performante. Responsabilités principales : Diriger et exécuter la migration de systèmes de données complexes Concevoir des solutions de données en utilisant la méthodologie Data Vault Construire et gérer une équipe d'ingénieurs de données, en favorisant un environnement collaboratif et innovant Collaborer avec des équipes transversales pour fournir des plateformes de données évolutives et efficaces Superviser et optimiser les flux de données dans Hadoop , HDFS , et Kafka Assurer les meilleures pratiques dans les processus ETL et l'ingénierie des données Exigences : Expérience avérée avec Data Vault Maîtrise de PySpark, Hive, Hadoop, HDFS, Kafka, SQL, outils ETL Français courant (à l'oral et à l'écrit) Expérience dans la gestion de projets de migration de données Compétences solides en constitution et en gestion d'équipe Les entretiens commenceront cette semaine. Postulez dès maintenant pour diriger un projet de migration transformateur et façonner l'avenir de l'ingénierie des données avec nous.

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Data Engineer Expérimenté - Vannes

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Kafka

6 mois
350-490 €
Vannes, Bretagne

Dans le cadre de l'intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu : 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées Nous recherchons un Data Engineer expérimenté capable de : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

CDI
Freelance

Offre d'emploi
Support Hadoop

Datapy Group
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-55k €
Fontenay-sous-Bois, Île-de-France

Au sein du groupe, l’administrateur Hadoop sera responsable de l’intégration et du support technique du Big Data, en dehors des divisions ITIM et SU. Le rôle est centré sur l’exploitation technique des infrastructures Hadoop et le support aux équipes en place. Administration et Exploitation Hadoop : Support de Niveau 1 et occasionnellement Niveau 2 des infrastructures Hadoop. Surveillance, maintenance, et optimisation des clusters Hadoop. Gestion des incidents en collaboration avec d'autres équipes. Développement de Scripts d'Automatisation : Développement et maintenance de scripts d’automatisation en Python et Shell pour réduire les interventions manuelles. Automatisation des tâches récurrentes et des workflows. Support Technique : Assurer le support technique des infrastructures Big Data pour les équipes internes. Intervenir en cas de problème technique lié à l’infrastructure Hadoop. Collaboration avec l’équipe en charge de la gestion des incidents.

Freelance
CDI

Offre d'emploi
DEV JAVA X BIG DATA

Proxiad
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)
Java

3 ans
10k-76k €
Île-de-France, France

L'application de liquidité au groupe, permettant de fournir des indicateurs de pilotage (et réglementaire)et assurant des restitutions sous diverses formes. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) : • Maintien de l'environnement legacy et contribution au projet de migration Big Data / Cloud Computing (One Platform) • Audit du code et aux propositions de refactoring afin d'améliorer la qualité de code • La validation des futurs développements • Support Technique et de production • Réduction de la dette technique (Audit de sécurité, mise-à-jour des dépendances / bibliothèques) • Maintien et évolutions des pipelines CI/CD pour les projets socles et pour les projets de nos FT partenaires Environnement Agile.

155 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous