Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
QA test intégration Python
Contexte : Rejoindre une startup en pleine croissance après une phase de transition précédant son rachat. L’entreprise repose sur une architecture technique moderne en microservices. L’équipe technique se structure comme suit : • Backend : 4 développeurs sous la direction de l'Engineering Manager. • Frontend : Une équipe dédiée. • Mobile : Une équipe dédiée. • DevOps : une personne dédiée. • QA : nous recherchons une personne. L’organisation va évoluer vers un modèle de Feature Teams. Mission proposée : Dans ce contexte, L'entreprise recherche un.e freelance pour intervenir sur les tests d’intégration et renforcer l’observabilité des services. Détails de la mission : 1. Tests d’intégration • vient en complément des tests GraphQL, tests unitaires et tests E2E. • Mettre en place des tests d’intégration plus complets. • Implémenter des tests contractuels avec Pytest, en utilisant des fake providers. Technologies principales : • GraphQL (Node.js utilisé en proxy). • Python (API principale). 2. Observabilité • Améliorer la traçabilité avec des outils comme Sentry ou Datadog. • Apporter une observabilité permettant de résoudre des problématiques techniques complexes.
Offre d'emploi
Responsable Projets Transformation Digitale F/H
Envie d’utiliser votre potentiel à sa juste valeur ? Pilotage, coordination et gestion sont vos maîtres mots ? Vous avez soif d’aventure et de nouveaux challenges ? Si vous répondez OUI à ces 3 questions, c’est que vous êtes fait pour nous rejoindre ! Votre mission , si vous l’acceptez, sera d’intégrer la DSI afin de sélectionner puis de superviser la mise en place des outils digitaux les plus adaptés pour accélérer la croissance et améliorer la productivité du Groupe. Votre quotidien sera rythmé par : La sélection d’outils adaptés aux besoins du Groupe, l’identification d’opportunités d’innovation et la gestion des outils digitaux Le pilotage des projets de transformation avec la coordination des projets transverses (digitaux et data), la gestion de la roadmap, la priorisation, la gouvernance et le suivi des indicateurs de performance Le management des équipes et ressources en supervisant les équipes internes et externes (AMOA, data, architecture, administrateurs fonctionnels) et en gérant les budgets L’accompagnement au changement et la gestion du support fonctionnel des applications Le suivi de la qualité des livrables, la gestion des risques et conformité des applications avec les besoins métiers La garantie de l’alignement de l’architecture fonctionnelle des applications et la bonne application des règles de gouvernance des données
Offre d'emploi
Ingénieur système et réseau H/F
Dans le cadre d'un remplacement d'un départ en retraite, nous recherchons un/une ingénieur système et réseau sur Niort Voici vos différentes missions : - Gestion des systèmes d'exploitation Windows - Montée de version des systèmes d'exploitation Windows - Gestion et supervision du parc serveurs - Gestion et supervision de systèmes de stockages des données - Gestion et supervision de systèmes de sauvegardes des données - Gestion de la documentation et des données techniques de production ; - Prise en charge et gestion des incidents et des demandes systèmes de niveau 2/3 - Connaissances en scripting : Bash, Powershell, Python - Administration d'hyperviseurs (VMWare, HYPERV) - Administration de réseaux TCP/IP - Gestion de la sécurité informatique - Configuration de firewalls - Gestion et configuration de Switchs de niveau 2/3 - Déploiement de points d'accès wifi - Gestion des équipements de téléphonie fixe et/ou IP - Veille technologique
Mission freelance
Etude Data IA
Objectif Cette étude vise à : Identifier les solutions de gestion de données les plus appropriées qu’elles soient on premise ou sur le cloud souverain, en prenant en compte notre volonté de développer à la fois des cas d’usage data et IA, pour des données sensibles qui ne peuvent pas bénéficier de notre plateforme data existante (Azure) Rationaliser, dans la mesure du possible, les plateformes data existantes Définir le périmètre fonctionnel optimal de chacune de nos briques applicatives Nos capacités de traitement "data" sont actuellement réparties sur deux plateformes. Une plateforme unique pourrait-elle améliorer la performance/les délais de réalisations des projets ? Qu'elles seraient les gains associés à une solution unifiées de gestion de la donnée ? Est-ce que les opérateurs de cloud souverains proposent des solutions suffisamment matures pour hébergés de manière efficace une plateforme data/IA (GPU, scalabilité …) ?
Offre d'emploi
Développeur java/data H/F
MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO
Mission freelance
Data Steward
Cherry Pick est à la recherche d'un "Data Steward" pour un client dans le secteur du commerce de détail Contexte de la mission Dans le cadre du projet d’intégration de la solution (Workday) choisie par le Domaine Corporate RH et son déploiement pour les 65 pays dans lesquels le groupe est implanté, vous jouerez un rôle essentiel dans la gestion et la protection des données au sein de l'entreprise. Vous travaillerez en étroite collaboration avec les équipes métiers, les équipes informatiques et les autres parties prenantes pour garantir que les données soient précises, disponibles et conformes aux normes internes et réglementaires. Vous serez en charge, sur le domaine de données de notre équipe, d’assurer la complétude et la conformité de la documentation afin qu’elle réponde aux besoins. Objectifs et livrables Missions principales : Connaître et participer (avec le Data Manager et les Data Owner) à la structuration des concepts Business du domaine RH en conformité avec les principes et normes de modélisation de l’entreprise. Garantir une documentation cohérente et claire : remettre en question et valider la documentation fonctionnelle et technique (cohérence, conformité et clarté) Assurer le lien entre les concepts Business et les connaissances techniques S’assurer que la mise à disposition de la donnée sur le Data lake est conforme aux normes de la plateforme (storage zone, schémas, nomenclatures,..) Être le référent auprès des utilisateurs de données : les accompagner sur la localisation et l'utilisation des données en les orientant vers le data catalog. S’assurer que l’usage des données est bien conforme au registre de traitement des données tenu par le délégué à la protection des données Informer les utilisateurs sur la stratégie d’utilisation des données de Decathlon et des pré-requis à suivre pour intégrer ou utiliser la data. Relayer les bonnes pratiques en matière d'architecture et de gouvernance des données auprès des producteurs de données Contribuer et participer activement à la communauté des Data Stewards
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
Chef de projet automaticien / Automatisation
Gestion de projets d’automatisation : Diriger et coordonner des projets d’automatisation de grande envergure. Expertise en PCS7 et WinCC Scada : Concevoir et gérer des architectures complexes utilisant PCS7 et WinCC Scada. Expérience en industrie pharmaceutique : Apporter une expertise en qualification et validation des systèmes automatisés, en travaillant de manière transverse sur différentes étapes du processus. Communication : Collaborer efficacement avec les équipes internes et les clients, en anglais et en français. Gestion de l’équipe : Superviser et guider les membres de l’équipe de projet pour assurer la réussite des projets.
Offre d'emploi
Data Manager - Poitiers
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Manager pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Poitiers, Nouvelle-Aquitaine, France. Vos missions principales : Gérer et structurer les données pour assurer leur intégrité, disponibilité et sécurité. Superviser les processus de collecte et de stockage des données. Collaborer avec des équipes multidisciplinaires (Data Analysts, Data Scientists, développeurs) pour optimiser les flux de données. Proposer et mettre en œuvre des stratégies de gestion de données en ligne avec les objectifs de l'entreprise. Assurer la conformité aux normes et réglementations en vigueur (RGPD, etc.). Suivre et analyser les performances des infrastructures de données et recommander des améliorations. Former et sensibiliser les équipes à l’importance de la bonne gestion des données.
Mission freelance
Data Gouvernance
Nous renforçons nos équipes et nous recherchons un(e) Data Design (F/H) pour intervenir chez l'un de nos clients grands comptes. Missions : - Conception de modèles de données : Définir et mettre en place des modèles de données adaptés aux besoins de l'entreprise, en prenant en compte les exigences fonctionnelles et les contraintes techniques. - Élaborer des architectures de données scalables et performantes en collaboration avec les architectes et les ingénieurs data. - Assurer la fluidité des échanges et des traitements de données en veillant à leur qualité et leur conformité. - Travailler en étroite collaboration avec les équipes métiers, IT, et Data Science pour comprendre les besoins et proposer des solutions adaptées. - Garantir la conformité des données avec les normes réglementaires et de sécurité en vigueur dans le secteur bancaire. - Documentation et partage de bonnes pratiques : Rédiger des documents de spécifications et de bonnes pratiques pour garantir une utilisation optimale des modèles de données.
Mission freelance
Expert Databricks - Développement Python
Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.
Mission freelance
Développer C# - Python
- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.