Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer
Contexte : Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer notre Data Factory. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description: • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables.
Mission freelance
Data Engineer H/F
• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.
Mission freelance
Data Engineer H/F
• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.
Mission freelance
Data Engineer (GCP, DBT, SQL,Spark, Scala)
Cherry Pick est à la recherche d'un Data Engineer pour l'un de ses clients dans le secteur du luxe. Missions: Concevoir et développer des pipelines de données performants pour répondre aux besoins spécifiques du secteur du luxe. Traiter et transformer des données massives en utilisant Spark et Scala. Implémenter et maintenir des modèles de transformation avec DBT et SQL. Collaborer avec les équipes métiers pour comprendre et traduire leurs besoins en solutions techniques. Optimiser les processus de gestion des données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Garantir la qualité et la fiabilité des données tout au long du cycle de vie.
Offre d'emploi
SENIOR DATA ENGINEER (H/F)
Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.
Mission freelance
Développeur Cloud AWS/GCP Senior - Energie - Paris (H/F)
Contexte de la mission Rejoignez un acteur incontournable du secteur énergétique en France, situé à Lyon et Nanterre, engagé dans une transformation digitale et technologique majeure. Dans le cadre du renforcement de notre équipe dédiée au cloud computing et aux opérations de FinOps, nous sommes à la recherche d'un Développeur Cloud AWS/GCP expert. Au sein d'une équipe dynamique et innovante, vous collaborerez sur des projets d'envergure visant à optimiser l'utilisation des ressources cloud et à générer des économies significatives. Ce poste est ouvert en raison d'un accroissement de nos activités et de la mise en place d'une nouvelle stratégie orientée cloud natif. Missions : Principales : - Développer et mettre en œuvre des solutions d'infrastructure-as-code (IAC) utilisant Terraform, centrées sur AWS et GCP. - Écrire et maintenir des scripts d'automatisation en Python pour optimiser les coûts et l'efficacité des ressources cloud. - Participer activement à la stratégie FinOps de l'entreprise, proposer et mettre en œuvre des optimisations de coûts sur les environnements cloud. Annexes : - Contribuer à la veille technologique et à l'adoption de meilleures pratiques au sein des équipes Cloud et FinOps. - Accompagner les projets de transformation cloud et orienter les choix architecturaux vers des solutions optimales en termes de coût et de performance.
Mission freelance
DEVIENS #AUTEUR Développer une application Azure Serverless
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Azure Serverless. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Azure n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Offre d'emploi
Ingénieur Cloud - Lille / CDI
Vous serez un point de contact privilégié des équipes métiers pour leur présenter les principes de migration et coordonner vos actions avec les leurs : Mise à jour de Documents d`architecture Cible prenant en compte l`architecture des nouvelles landing Identifier les Matrices de flux à autoriser dans le contexte d`hébergement cible. Cahier de recette technique Pré/Post Migration Chiffrage des couts d`infrastructures Cloud lors des migration Etablissement des Playbook de Migration Transfert de connaissance au partenaire assurant les opérations Accompagner les BU et autres SLS dans la migration des applications vers les nouvelles Landing Zone Azure.
Offre d'emploi
Ingénieur devops cloud aws : aws, devops
DÉBUT DE MISSION : 02/01/2025 DURÉE : 24 mois LIEU : Île-de-France – Hybride TJM : 420€HT Nous recherchons pour l’un de nos clients un Ingénieur Cloud orienté DevOps dans le cadre d’une mission de longue durée, pour accompagner la modernisation et l’optimisation des infrastructures Cloud basées sur Amazon Web Services (AWS) . Descriptif de la mission : Vous intégrerez le service Cloud Opérations et interviendrez sur des projets stratégiques visant à automatiser, sécuriser et optimiser les plateformes AWS tout en participant à une transformation orientée NoOps et FinOps. Vos principales responsabilités : Apporter votre expertise sur les opérations AWS et contribuer au développement des services cloud. Créer et améliorer les processus de MCO (Maintien en Conditions Opérationnelles) des plateformes AWS via des pratiques d’automatisation (IaC). Exploiter et tirer parti des services managés AWS (Lambda, API Gateway, DynamoDB, Step Functions, etc.). Automatiser les processus, notamment le patch management et l’inventaire via AWS SSM. Être le référent des systèmes Windows sur AWS. Participer à l’amélioration continue dans une démarche LEAN (suivi via Kanban). Contribuer à l’évolution de la culture FinOps et à l’optimisation des coûts liés au Cloud. Livrer des documents techniques (DAT, normes, propositions d’évolutions, supports de présentation). Compétences techniques requises : AWS (SSM, EFS/FSX, EC2, ELB/ALB, RDS, Lambda, S3, DynamoDB, IAM, ASG, VPC/subnet) : Confirmé Powershell : Avancé Linux : Avancé Terraform : Avancé Python : Avancé Windows : Confirmé ServiceNow, SQL, Bitbucket : Élémentaire Nuggets Chocolatey : Avancé Profil recherché : Minimum 8 ans d’expérience en infrastructure Cloud et DevOps. Maîtrise des environnements AWS avec une expertise sur les services managés et les outils d’automatisation. Solides compétences en systèmes Windows et Linux, et une forte appétence pour l’amélioration des processus via des solutions cloud modernes. Excellentes capacités en communication, esprit d’équipe, rédaction et esprit d’analyse.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
DEVIENS #AUTEUR Développer avec AWS et l'IA
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur le développement avec AWS et l'intelligence artificielle. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse), expert(e) en intelligence artificielle... et AWS n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Offre d'emploi
Manager de transition Data Science
Vous interviendrez en tant que Manager de transition pour piloter des projets à fort impact et ancrer une culture data driven au sein des équipes. Votre rôle Définition et mise en œuvre de la stratégie Data Élaborer et piloter la feuille de route pour les usages avancés de la data et de l'IA dans l’entreprise Intégrer une approche data product pour assurer une gestion complète du cycle de vie des outils développés, depuis leur conception jusqu'à leur déploiement et leur évolution Contribuer de manière proactive au développement de la culture Data dans l'entreprise Collaboration Collaborer avec l'ensemble des directions afin de comprendre leurs besoins, les traduire en « data » et livrer des outils d'aide à la décision adaptés Travailler en étroite collaboration avec les interlocuteurs techniques afin de faire évoluer les outils en adéquation avec les besoins et usages futurs Pilotage et accompagnement des équipes Animer et manager l'équipe dans la réalisation d'analyses et de modélisations pour répondre à des problématiques métier, et assurer la direction des projets Contribuer avec un regard expert aux projets possédant des composantes data et IA afin d’optimiser les dispositifs business, réduire les irritants clients et améliorer l'efficacité des processus
Mission freelance
Data Analyst
La mission consiste à : Accompagner les équipes Répondre aux problématiques métiers Réaliser des analyses statistiques préparatoires Réaliser des dashboards clairs, ergonomiques et optimisés Savoir restituer de façon synthétique des résultats concrets Compétences attendues : Expériences significatives comme Data Analyst / Data Engineer Power BI / SQL Esprit analytique Savoir-être : rigoureux, organisé et autonome à l'aise dans la communication auprès d'équipes techniques ou métiers Mission basée sur la métropole lilloise avec télétravail partiel
Offre d'emploi
Ingénieur.e DevOps
En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Architecte Cloud AWS
Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.