Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Architecte Azure Data
Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.
Mission freelance
Développeur Big Data – Migration Teradata vers Hadoop Cloudera F/H
Nous recherchons un développeur Big Data pour accompagner une migration de Teradata vers Hadoop Cloudera. Ce projet ambitieux nécessite des compétences techniques pointues ainsi qu'une capacité à s'adapter rapidement aux défis d'une migration complexe. Participer à la migration de données et de traitements de Teradata vers Hadoop Cloudera. Concevoir, développer et optimiser des pipelines de données (ELT) adaptés aux nouvelles architectures. Développer des scripts Shell pour automatiser les traitements et les flux de données. Exploiter Apache Spark pour le traitement des données massives. Collaborer avec les équipes projet pour garantir la bonne exécution de la migration. Documenter les processus et les solutions mises en œuvre. Maitrise des outils ELT et des workflows de gestion des données. Expérience en développement Spark pour le traitement et la manipulation de données massives. Compétences en scripting Shell (Bash, Linux) pour automatiser les tâches. Connaissance de Teradata ou Hadoop Cloudera . Une expérience préalable sur des projets de migration de données serait un véritable atout . Vous disposez de 3 ans d’expérience dans le domaine du Big Data ou en développement de données. Vous êtes rigoureux(se), autonome et doté(e) d’une capacité d’adaptation rapide. Vous avez un bon esprit d’équipe et des compétences en communication pour travailler efficacement avec les autres membres du projet.
Offre d'emploi
Ingénieur Data expérimenté
Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.
Mission freelance
Data Manager
Nous recherchons pour notre client, un Data Manager dans le cadre d'un projet Salesforce, en Freelance ou Portage salarial Mission : Maîtrise de l’architecture et des composants de modélisation Salesforce S’approprier les notions de référentiels de données relatives aux business du groupe Comprendre les dépendances relationnelles entre les différents objets et processus métiers Traduire un besoin fonctionnel en spécification détaillées digitales Expérience sur des projets d’intégration de données, participer aux workshop intégration avec le digital (ERP <> CRM) Notion de gouvernance et compliance Alimenter le département Data Gouvernance avec catalogue de données, data owners, assurer le lien avec les projets Notions de compliance RGPD, data retention Conseiller l’équipe sur la conception technique des modèles de données, grâce à sa compréhension des données et de l’impact sur les activités data (intégration de données, reporting, analyse de données)
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Mission freelance
PMO/Chef de projet MDM-référentiels produits
Dans le cadre du développement de projets data complexes, notre client recherche un PMO Senior Data en freelance, capable de faire le lien entre les besoins métiers et la delivery des projets. Le PMO senior interviendra sur une plateforme de données comprenant des systèmes comme SAP, Salesforce, Informatica, et des référentiels clients, et devra assurer la bonne coordination entre les différentes équipes projet tout en respectant les contraintes métier. En tant que PMO Senior Data , vos responsabilités seront les suivantes : Médiation et Coordination : Servir d'intermédiaire entre les différentes parties prenantes, en particulier les équipes métier et les équipes techniques (data engineering, analytics, etc.). Suivi des projets Data : Assurer la bonne gestion des projets data, de la planification à la livraison, en garantissant le respect des délais, des coûts et des objectifs. Gestion des référentiels : Apporter une expertise sur les référentiels clients et autres données essentielles (MDM - Master Data Management), et superviser la gouvernance des données. Communication avec les parties prenantes : Garantir une communication fluide avec les responsables métiers pour comprendre leurs besoins et les traduire en exigences techniques claires. Pilotage de la delivery : Suivre les indicateurs clés de performance (KPIs) des projets data, en identifiant rapidement les risques et en proposant des solutions pour les résoudre. Mise en place des bonnes pratiques : Mettre en place des processus et des méthodologies adaptées à la gestion de projets data complexes, tout en renforçant la gouvernance des données.
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Mission freelance
Expert Technique DataHub
Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,
Mission freelance
Expert Azure Cloud H/F
En tant qu'Expert Azure Cloud, vous serez responsable de la conception, de l'implémentation et de la gestion des solutions cloud sur Microsoft Azure. Vous jouerez un rôle clé dans l'optimisation et la sécurisation de l'infrastructure cloud. Principales responsabilités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure Gérer et optimiser les services Azure existants pour garantir la performance, la fiabilité et l'efficacité des coûts Développer et mettre en œuvre des procédures de monitoring, backup et sécurisation des objets Azure Assurer la sécurité et la conformité des environnements cloud Azure Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD Fournir un support technique et former les équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure Assurer une veille technologique sur les dernières innovations Azure
Mission freelance
Chef de projet Data Galaxy (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet Data Galaxy (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Nous sommes à la recherche d'un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. Les missions attendues par le Chef de projet Data Galaxy (H/F) : Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) Être un support des équipes techniques et Data office dans leurs tâches sur l'outil. La personne doit être autonome, force de proposition et faire preuve de prise d’initiatives. Elle doit être capable d'animer une équipe et de tester par elle-même les fonctionnalités / modélisations de Data Galaxy. La connaissance préalable de Data Galaxy serait un plus. La connaissance de PowerBI / Talend serait un plus. Démarrage ASAP avec 3 jours sur site, en région grenobloise.
Offre d'emploi
Data Engineer Snowflake
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake Tâches: Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un chantier de refonte des schémas de stockage de nos données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et TF1+ (Product Owners, Data Analysts et opérationnels) Vous maîtrisez les technologies suivantes : -Snowflake -SQL avancé -RBAC -Terraform -Azure -Azure DevOps / JIRA /Confluence Vous êtes familier avec la culture DevOps et l’Agilité, le travail en équipe et la gestion de projet technique, dont la méthodologie est déjà établie, éprouvée et très largement adoptée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.