Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Offre d'emploi
Lead Data (H/F)
Les missions d'un Amiltonien : En tant que Lead Data (H/F), vous serez en charge des missions suivantes : Gérer une équipe de scientifiques, d'ingénieurs en Machine Learning et des spécialistes du Big Data Mettre en place les procédures d'exploration et collectes de Data Assurer la qualité et la véracité des donnée Interpréter et analyser les problèmes de données Concevoir, planifier et classer les projets de données Construire des systèmes analytiques et des modèles prédictifs Tester les performances des produits basés sur les données Visualiser les données et en déduire des rapports Expérimenter de nouveaux modèles et techniques Aligner les projets de données sur les objectifs de l'entreprise La stack technique : GCP / Talend
Mission freelance
Chef de projet ERP
Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet ayant un bagage solide dans l ’intégration systèmes . Missions : piloter la migration de l'ancien ERP vers le nouvel ERP + reconstruction de la plateforme data. TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de la plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)
Offre d'emploi
Data Analyst (H/F)
Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologies : ETL ODI / Sql et PL SQL (Oracle) - Référentiels : JIRA / Service Now - Maitrise Data Visualisation (Power BI)
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Data engineer
Notre client, est un acteur majeur dans le domaine de l'éducation supérieure et de la recherche, avec une forte spécialisation en gestion et en management. Son histoire et sa réputation lui permettent de se distinguer par une approche innovante et tournée vers l'avenir, notamment en matière de transformation numérique et de gestion de la donnée. Dans ce cadre, notre client un Architecte DATA visant à optimiser les infrastructures de gestion et d'analyse des données pour soutenir son évolution technologique et assurer une prise de décision basée sur des données fiables et précises. Directement rattaché à la direction générale, vous intégrerez un data office constitué de deux pôles, digital et métier, représentant une équipe d’une dizaine de personnes.
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Big Data sous Azure. - Concevoir les flux d'alimentation et les tables (structure de donnée). - Automatiser et industrialiser les flux. - Assurer le run applicatif, le cas échéant. La stack technique : o Maîtrise des langages suivants : Azure, Python, GitFlow, Scala, ElasticSearch Le profil d'un Amiltonien : Diplômé Bac+4/5 (Ecole d'ingénieur/Master), vous disposez de minimum 4 années d'expérience dans le développement de data. Toujours sur le qui-vive des nouveautés technologiques, vous êtes force de proposition sur des technos, des outils ou des process qui permettent d'améliorer la qualité du code et la stabilité de nos applications. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Expert Hadoop
-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs
Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F
Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.
Offre d'emploi
Administrateur COLLIBRA
Résumé Administrateur technique de Collibra Contexte Assurer l'administration technique de Collibra Détails 1 Administrateur Technique Collibra : - Maintenance technique - Scripts maison pour copier les métadonnées de Mega vers Collibra - Mise en place d’API d’Ares et revue d’habilitation - Création des workflows RGDP - - ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------
Mission freelance
Chef de projet CRM / Data
Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet Data ayant un bagage solide dans l ’intégration systèmes . Missions : piloter la migration de l'ancien ERP vers le nouvel ERP + reconstruction de la plateforme data. TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de notre plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)
Mission freelance
Cloud Designer AWS & Data
Au sein de département dédié à l'infrastructure, notre client recherche un expert Cloud AWS ayant une maitrise DATA pour architecturer, définir et accompagner à la mise en place d'une nouvelle infra dédiée aux projets data. Vos missions : ● Maitrise en profondeur les concepts du Cloud AWS et notamment les services réseau, sécurité et IAM. ● Possède une expérience de mise en œuvre de plateforme data intégrant Gouvernance, ingestion, transformation, stockage, exposition, Analytics. ● Sera amené, à realiser le design des features de la plateforme permettant aux métiers de developper et exploiter des Data Products/Data Sets. ● Il intègrera dans ses propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considèrera comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Objectifs et livrables : Prendre part au cadrage et à la définition de l’architecture des features du workplan et rédigera les spécifications associées
Mission freelance
Architecte Azure, GCP Big Data
Mission : • Suivi et conseil aux équipes de conception • Participation à la définition des infrastructures techniques • Management de projets d'infrastructure • Suivi et amélioration des processus Compétences attendues : • Bonne connaissance du système d'information global et de l'architecture du SI • Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) • Connaissance des technologies et outils de virtualisation Vmware • Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift • Bonne connaissance des environnements Cloud (Azure, GCP), BigData • Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation • Connaissance des standards dans le domaine de l'archivage et du chiffrement • Bonne connaissance du modèle C4
Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F
Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.