Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Analyst
Notre client a réorganisé ses équipes afin de mieux accompagner la transformation IT et digitale. Dans ce contexte, une équipe dédiée à la gestion des données a été mise en place pour soutenir ces objectifs, et un(e) consultant(e) DATA est recherché(e) pour venir en renfort. En tant que consultant Data, les principales missions seront de : Analyser les besoins métiers Modéliser les données dans le datawarehouse Concevoir et développer des flux d’intégration de données avec Microsoft Azure Data Factory Tester et valider les développements réalisés Développer des rapports Power BI Maintenir à jour et rédiger de la documentation du projet Assurer la disponibilité, le bon fonctionnement, la stabilisation et la sécurisation de la production.
Offre d'emploi
Architecte Azure Data
Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
Développeur Java/GCP
Développeur JAVA GCP. Dans le cadre du développement et du déploiement d'une application de gestion backoffice dans plusieurs pays européens Les principales missions sont : - Participer au développement de nouvelles fonctionnalités - Apporter des conseils et de l'expertise technique pour l'intégration des projets micro-services. - Mise en place et suivi de l'outillage pour optimiser la performance, la sécurité, l'observabilité des composants logiciels. - Maintien et amélioration de la plateforme d'intégration continue Environnement technique : Java/Spring/NodeJS/VueJS MongoDB Kafka Kubernetes (GKE)/Terraform justifiez d'une expérience significative dans un environnement cloud (GCP de préférence)
Offre d'emploi
Ingénieur SECOPS H/F
Groupe SYD: IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur SECOPS H/F Consultant secOps, expertise cloud GCP (landing zone) pour réaliser les tâches suivantes Méthode agile Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO Relation de proximité et en binôme avec un membre de l'équipe Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plateforme Cloud Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Compétences attendues : Capacité à expliquer, vulgariser, acculturer et former posture de coach technique pour l'ensemble de l'équipe savoir fédérer Environnement technique Cloud : GCP Terraform GIT Python Jenkins Cloud Armor Security command center Hashicorp Vault Datadome Cloudflare Rejoignez-nous!!
Mission freelance
PRODUCT OWNER DATA
Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.
Mission freelance
DevOps GCP/AWS
Bonjour à tous ! 👋 Je suis à la recherche d'un DevOps GCP/AWS en freelance pour un projet à Paris (1er arrondissement) : Le profil recherché : Séniorité : Confirmé / Senior Durée : 1 an, renouvelable Disponibilité : ASAP Rythme : 3 jours de télétravail par semaine 💻 Développement : API d'orchestration, provider Terraform, outils liés (Front web, CMDB), CI/CD, monitoring. 🏆 Collaboration : Accompagnement des équipes, mentoring, amélioration des pratiques de développement, astreinte, déplacements à Lille 🚫 Pas d'ESN, uniquement des freelances ou du portage salarial. Nous restons ouverts à toutes recommandations.
Offre d'emploi
Business Analyst - Data
Dans le cadre d'un projet client dans le secteur bancaire – mise en place de reporting à destination de l’équipe Pilotage Commercial du groupe - nous aurions besoin de recruter un Buisness Analyst 6-9 ans d’expérience. Vos principales missions seront d’intervenir sur les phases de conception, spécification et recette DSI / métier (mise à disposition des jeux de données, validation des cas de tests, analyse des résultats, …) Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste.
Offre d'emploi
Chef de projet DATA & ETL
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Pour le compte de l' un de nos clients dans le domaine de l'assurance nous recherchons un CHEF de projet (H/F) pour une mission de longue durée à pourvoir rapidement. Vos missions : Vous pilotez des projets techniques innovants du périmètre Data (déploiement de plateforme data sur GCP, contribuez au déploiement d’une plateforme d’observabilité…) Vous pilotez le maintien en condition opérationnel du socle Data existant (montées de versions, migrations…), contribuez au pilotage de la dette IT, montées de versions, migrations, etc ... Vous pilotez une partie du RUN, suivi de production et la qualité de service pour le domaine applicatif Data, Référentiels et IA. Vous contribuez à renforcer l’écosystème en identifiant de nouvelles opportunités d’industrialisation de la plateforme Environnement technique : Greenplum, Cloudian S3, Google BigQuery et GCS, Couchbase, Semarchy-xDI, Elastic / ELK, Power BI Qui tu es : Diplômé de formation qui va bien Doté(e) d’une 10 ans d’expériences minimum Chef de projet / Product owner expérience en méthodologie agile (Scrum/Kanban) Maitrise également le cloud ( GCP) Au-delà des compétences techniques, tu es / as : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Développeur Back-end
A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review Vous disposez d'une bonne expérience en développement back (La connaissance de Python serait un plus) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS (API REST, Data flows, Reactive pattern, etc…); Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform est un plus Vous connaissez Google Cloud Platform (BigQuery, Firestore, Pub/Sub, App Engine, Cloud Function, Cloud Run, Cloud Build, Cloud Task, StackDriver, Secret Manager, IAM) Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Une automatisation de tous les tests est le graal que vous souhaitez atteindre pour dormir la nuit et le week-end.
Mission freelance
Data Engineer
Nous recherchons pour le compte d'un de nos clients dans le secteur des médias un Ingénieur Data freelance pour une durée de 12 mois sur la base d'un projet. Rôle : Data Ingénieur Lieu de travail : Paris Durée du contrat : 12 mois Travail hybride Date de début : Novembre/Décembre Principales responsabilités : Construire et améliorer les produits de données pour soutenir une culture axée sur les données et des expériences utilisateur personnalisées. Travailler au sein de l'équipe d'ingénierie analytique pour : Collecter des données brutes à partir de systèmes dorsaux, d'interactions avec les utilisateurs et d'autres sources. Transformer les données en ensembles de données et métriques de haute qualité et bien définis. Fournir un accès aux données via des tableaux de bord en libre-service, des API et d'autres plateformes. Collaborer avec des analystes, des développeurs et des parties prenantes au sein de différentes équipes (produit, marketing, ventes, finance, juridique, etc.). Assurer la fiabilité, l'exactitude et l'accessibilité des systèmes de données. Environnement Technique : Principale pile technologique : Google Cloud Platform, BigQuery, Scala, Airflow, Google Dataflow, dbt, Tableau, Mixpanel, Terraform. Si le rôle vous intéresse, veuillez postuler directement!
Mission freelance
Ingénieur en développement Full Stack Java VueJS
Compétences techniques Java, Spring boot - Confirmé - Impératif VueJS, ReactJS, Typescript - Confirmé - Impératif Terraform, GCP, Kubernetes - Confirmé - Souhaitable Postgres/ Redis - Confirmé - Souhaitable Compétences techniques Java, Spring boot - Confirmé - Impératif VueJS, ReactJS, Typescript - Confirmé - Impératif Terraform, GCP, Kubernetes - Confirmé - Souhaitable Postgres/ Redis - Confirmé - Souhaitable Description détaillée Contexte Nous sommes à la recherche d'un Développeur FullStack disponible très rapidement, avec de réelles compétences front et back, pour intervenir sur une mission dans l’équipe de l’Ecosystème Local des Services qui gère les outils digitaux. Vos responsabilités : - Collaboration avec les différentes parties prenantes de l’équipe (produit et transverse) afin de concevoir de la meilleure manière les solutions techniques ; - Développement back sur un environnement Java/Spring Boot ; - Développement front dans un environnement VueJS 3; - Étude et spécification fonctionnelle en amont du développement pour intégrer au mieux le développement dans le contexte du produit ; - Participer et intervenir dans des ateliers techniques de conception et architecture ; - Garant de la qualité du code produit, vous interviendrez autant en build qu’en run dans un esprit : you build it, you run it ! Vos compétences : - Le pragmatisme n'a pas de secret pour vous et vous saurez trouver la juste solution par rapport à la valeur qu'elle dégage pour l'utilisateur final ; - Vous faites preuve d’une excellente capacité de communication positive et constructive et de bienveillance avec les membres de l’équipe (TL, PM et autres) ; - Vous savez ce qu’est un code de qualité et savez comment bâtir un produit durable dans le temps ; - Vous savez ce qu’est une bonne stratégie de tests automatisés et écrire des tests fait partie de votre manière de travailler ; - Vous avez une bonne expérience back (Java/Spring Boot) ; - Vous avez déjà évolué dans un contexte d'api et de micro-services ; - Vous avez une bonne expérience sur des projets front (VueJS est un plus) afin d'intervenir dans le développement de bout en bout d'une feature donnée ; - Une connaissance des outils DevOps (Kubernetes, GCP, Terraform...) est un plus ; - Vous avez déjà manipulé des frameworks microfrontend (Kobi, framework interne Adeo/LM, étant un vrai plus) - Vous avez déjà évolué dans un contexte Agile et dans des équipes produit et vous en comprenez la philosophie générale
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Offre d'emploi
Tech lead nodejs terraform gcp
Description du poste Rejoignez une entreprise leader dans le domaine des solutions digitales et contribuez à des projets ambitieux en tant que Tech Lead Node.js . Vous serez au cœur de la conception, du développement et de l’optimisation de plateformes techniques complexes, en collaboration avec des équipes pluridisciplinaires. Vos principales missions : Piloter la mise en place et le développement d’une plateforme Data intégrant divers flux (requêtes, Web Services, fichiers bruts, etc.) pour centraliser et unifier les données dans un référentiel commun. Contribuer à la mise en œuvre d’interfaces Back-office d’administration client en AngularJS. Développer des services d’agrégation pour alimenter des bases CRM complexes. Participer à l’évolution d’un site mobile performant sur des environnements modernes et scalables. Environnement technique Vous évoluerez dans un contexte technologique enrichissant, comprenant : Backend : Node.js, Python. Frontend : AngularJS. Cloud : Google Cloud Platform (Cloud Functions, Pub/Sub, BigQuery). Data : PostgreSQL, MySQL. Infrastructure : Kubernetes, Terraform. Autres frameworks : PHP Symfony 3.
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
Data Engineer
Contexte et Mission Dans le cadre d’un projet de transformation digitale, nous recherchons un Data Engineer pour travailler sur une plateforme digitale de Supply Chain. Vous serez en charge de construire et d’optimiser des pipelines de données dans un environnement Cloud (GCP, DBT, Data Mesh). Votre rôle consistera à garantir la qualité des données, à améliorer les flux en termes de performance, de fiabilité et de FinOps, et à assurer leur conformité avec les politiques de gouvernance interne. Une connaissance des enjeux Supply Chain ou une forte curiosité métier sera un véritable atout.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.