Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Chef de Projet Technique Java / Cloud
Le bénéficiaire souhaite une prestation d’accompagnement pour les développements et la maintenance des services de Customer Knowledge, au sein de l'équipe agile en charge de cette mission. Les volumes progressent en fonction de l'intégration qui en est faite par les entités, aussi la notion de service est importante au vu des enjeux par les consomateurs de nos APIs. Participation avec l'équipe au passage dans le Cloud. Le chef de projet doit à la fois etre technique et repondre aux exigence ci dessous
Offre d'emploi
Data Engineer GCP
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer GCP Le Data Engineer sera chargé des activités de Data Engineering, en particulier sur la plateforme Google Cloud Platform (GCP) . Il devra gérer les données brutes de satisfaction stockées dans le datalake (zone Raw) et transformer ces données pour les rendre accessibles dans une zone Gold, utilisée par d'autres projets. Conception : Analyse des données, définition du modèle de données, conception des chaînes d'ingestion et de préparation. Réalisation : Mise en œuvre, indexation, ordonnancement et tests des jobs, avec documentation. Intégration & Déploiement : Optimisation des performances, résolution de problèmes liés aux jobs et aux données. Documents de modélisation et structuration des données. Règles de gestion et synthèses analytiques. Mise en place des chaînes de traitement de la donnée et des dashboards de monitoring. Maîtrise de Spark , Scala . Pratique confirmée des services GCP : BigQuery, CloudStorage, CloudComposer/Airflow, DataFlow, Dataproc, Terraform, GitLabEE. Expérience en modélisation de données et stratégie de tests. Connaissance des notebooks data, GCP DataStudio, ElasticSearch (atout). Méthodologie Agile . Anglais requis pour la documentation et les échanges internationaux.
Offre d'emploi
Intégrateur DevOps - F/H - Vitrolles
Les principales missions sont : Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD Suivies des anomalies dans l’outil de suivi
Offre d'emploi
Consultant CRM Omnicanal
Pour délivrer la roadmap Marketing Relationnel 2020-25 qui se décline en plusieurs chantiers de construction et production des prises de parole omnicanales portant sur l’amélioration et l’optimisation du plan de contact clients, l’entité CRM recherche des expertises qui auront pour objectif(s) : La gestion des projets de mise en place de nouveaux parcours et activations clients Particuliers. Pour ce fait, nous cherchons un Data Analysis Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en oeuvre des opérations marketing - La mise en oeuvre des reportings avec leur documentation - Tests de performance et analyse - Mise en place de Dashboard
Offre d'emploi
Data Engineer sénior H/F
SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Mission freelance
Data Engineer Senior
Bonjour, Nous recherchons pour notre client un.e Data Engineer Senior pour rejoindre une équipe agile composée d’un.e Product Owner, de Data Scientists et d’un.e Data Analyst. ans le cadre d’un projet innovant visant à sécurité à l’aide de la vision computationnelle, Ce projet a pour objectif de détecter et réduire les fraudes tout en offrant une expérience client fluide et efficace. Concevoir, développer et faire évoluer des systèmes de traitement de données robustes et scalables pour industrialiser des solutions intégrant des algorithmes de machine learning et de recherche opérationnelle. Optimiser les performances des systèmes en faisant les bons choix architecturaux dans une approche cloud-first . Participer activement aux revues de code, aux itérations des projets et à la maintenance des solutions déployées. Contribuer à la communauté technique interne en partageant les bonnes pratiques, retours d’expérience, et évolutions des technologies utilisées (présentations, débats, etc.).
Mission freelance
Data Engineer
La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Mission freelance
développeur Big data
Nous recherchons un Développeur Big Data pour intervenir au sein d'une équipe IT spécialisée dans la gestion des données et la Business Intelligence. Vous intégrerez une équipe dédiée à la mise en place et à la gestion d'un datalake qui joue un rôle stratégique dans le développement des projets métiers. Rédaction de spécifications techniques détaillées. Analyse des impacts des nouveaux projets sur les processus existants du système d’information. Développement de requêtes et implémentation de solutions de Data Engineering en environnement Big Data. Réalisation et automatisation de bout en bout des programmes. Planification et suivi de la production. Formation des collaborateurs et mise en place des meilleures pratiques en matière de Data Engineering.
Offre d'emploi
DATA ENGINEER
Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.
Mission freelance
data ingénieur
Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert
Mission freelance
Ingénieur Data Senior / Leader Technique (Expert Data Vault)
Titre du poste : Ingénieur Data Senior / Leader Technique (Expert Data Vault) Lieu : Paris, France (Hybride : 3 jours de télétravail par semaine) Langue requise : Français courant Nous recherchons un Ingénieur Data Senior / Leader Technique avec une vaste expérience en Data Vault pour diriger un projet de migration de données important à Paris. Le candidat retenu ne se contentera pas de guider les efforts de migration, mais jouera également un rôle clé dans la constitution et le mentorat d'une équipe de data engineers performante. Responsabilités principales : Diriger et exécuter la migration de systèmes de données complexes Concevoir des solutions de données en utilisant la méthodologie Data Vault Construire et gérer une équipe d'ingénieurs de données, en favorisant un environnement collaboratif et innovant Collaborer avec des équipes transversales pour fournir des plateformes de données évolutives et efficaces Superviser et optimiser les flux de données dans Hadoop , HDFS , et Kafka Assurer les meilleures pratiques dans les processus ETL et l'ingénierie des données Exigences : Expérience avérée avec Data Vault Maîtrise de PySpark, Hive, Hadoop, HDFS, Kafka, SQL, outils ETL Français courant (à l'oral et à l'écrit) Expérience dans la gestion de projets de migration de données Compétences solides en constitution et en gestion d'équipe Les entretiens commenceront cette semaine. Postulez dès maintenant pour diriger un projet de migration transformateur et façonner l'avenir de l'ingénierie des données avec nous.
Mission freelance
Lead Tech
Vous serez en charge: Assurer la responsabilité d'un ou plusieurs processus sur tout le périmètre technique des composants. Etre le point d'entrée de l'équipe pour les sujets techniques. Assurer le relai entre l'équipe et l'Apps Lead. Animer les équipes techniques du projet. Définir et mettre en place l’architecture technique des projets. Assurer la qualité du code et veiller au respect des bonnes pratiques de développement (tests unitaires, revues de code, intégration continue). Participer activement aux choix technologiques et à la veille technologique.
Offre d'emploi
Data engineer - Databricks/Pyspark/SQL
Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer) -Est en relation avec les équipes infrastructure afin d'assurer le cadrage et le déploiement des solutions valides -Support aux équipes consommatrices -Analyse d'anomalie et proposition solution court / moyen terme - Developpement sous Databrick (Python / SQL / Spark / Airflow) -Est force de propositions techniques, en capacité de faire un état des lieux sur les normes et process de devt et faire appliquer les recommandations.
Offre d'emploi
Développeur Java - Angular H/F
Projet Vous intervenez sur un projet à très forte valeur ajoutée pour un client dans le domaine du médicale, situé à Aix en Provence. Poste et missions Vous intégrerez notre Squad Software Engineering et travaillerez en étroite collaboration avec nos collaborateurs en accomplissant les activités suivantes : Vous erez en charge des responsabilités suivantes : - Développement de nouvelles features - Maintenance évolutive des applicatifs existants - Implémentation de test unitaire - Test End to End - Test d'intégration - Mise en oeuvre des bonnes pratiques (Clean code /TDD/DDD) - Maintien et amélioration des pipelines de CICD Environnement technique : - Backend : Java 17 - Frontend : anciennement JSP, maintenant VueJS et Angular - BDD : Oracle (1200 tables), Hibernate et HQL - Technos clients : Angular, HTML5, CSS3 - Affinité avec l'écosystème Java : Struts, Spring, (JUnit, WebService RESTful) - Production : Tomcat, Docker - OS : Windows / Linux Micro-services pour certaines fonctions : - Angular 12, VueJS...techno libres - BDD : MongoDB, ElasticSearch Télétravail : 2 jours Vous apportez votre expertise et vos capacités d'analyse à la réalisation de plusieurs projets pour l'évolution de l'entreprise.
Offre d'emploi
Ingénieur DevOps H/F
NOOEH, Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Vitrolles un(e) Ingénieur DevOps . Vous serez en charge d’assurer le rôle d’intégrateur technique et coordinateur de tests techniques au sein des activités du client. Déployer des composants dans Rancher / Kubernetes avec une expertise en HELM charts. Créer et administrer des chaînes CI/CD GitLab. Écrire et faire évoluer les scripts de compilation, de déploiement et de configuration. Gérer les secrets/certificats et leur mise en œuvre entre systèmes (notamment pour MTLS). Créer et gérer les environnements (DEV, QA, IQ, Recette, PROD) (Rancher / Kubernetes). Déployer des composants dans des environnements Legacy. Effectuer les montées en version des composants techniques. Fournir du support aux différentes équipes lors des différentes phases (ex : debug DEV, assistance pour les livraisons). Participer à l’amélioration des bonnes pratiques autour de la CI/CD avec les ingénieurs DevOps d'autres domaines. Partager la connaissance et les nouveautés sur les outils et pratiques avec les équipes de développement. Assurer le support technique dans l’équipe de tests transverses. Analyser et résoudre les anomalies techniques. Assister les phases de mise en production des applications.
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes