Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte Cloud Data h/f à Lille
Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
Chef de Projet Stratégie Data (H/F) - 93 ou 94
La DSI & la Direction Générale des Opérations (DGO) sont deux acteurs clés de la Data & l’IA. La Direction Facilitation, au sein de la DGO, porte deux fonctions clefs dans la définition d'une stratégie Data au profit des opérations aéroportuaires : la Fonction AMOA SI Aéro & Sûreté (AMOA), et la fonction Data & Management Science (DMS). Ces deux entités orientées métier travaillent en étroite collaboration avec la DSI qui assure la maitrise d'œuvre et la robustesse technique des systèmes aéroportuaires
Offre d'emploi
Ingénieur Data SAP/Snowflake
Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)
Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.
Mission freelance
FREELANCE – Architecte Data (H/F)
Identifier les enjeux métiers et les besoins en données : Vous collaborerez avec les chefs de projet et les référents métiers pour analyser les besoins en gestion et exploitation des données, anticiper les migrations et contribuer aux actions de nettoyage des données. Structurer et optimiser l'architecture applicative du domaine DATA : Vous assurerez la modélisation des processus liés aux données (comme la cartographie applicative et des flux), garantissant une organisation fluide et performante des systèmes. Concevoir et faire évoluer les solutions techniques : Vous aurez la charge de l'implémentation des solutions et de leurs améliorations, tout en supervisant la gestion et l’exploitation de la plateforme data (flux, modèles de données, gestion des données). Assurer la cohérence du système d’information : En étroite coordination avec les architectes applicatifs d’autres domaines et les équipes infrastructure, vous veillerez à l’alignement technique global du système d’information de l’entreprise. Encadrer le développement et la maintenance des systèmes : Vous superviserez le cycle de développement, les phases de test et la maintenance des systèmes data, tout en gérant la relation avec les prestataires et développeurs. Garantir la sécurité et la qualité des données : Vous vous assurerez de la sécurisation des accès aux données, de l’élimination des redondances et de la réduction des coûts liés à la gestion des données. Veiller à l’évolution des normes et standards : Vous contribuerez à l'amélioration continue des standards et normes en matière de structuration des données, en intégrant les évolutions technologiques et réglementaires
Offre d'emploi
Chef de projet Data (H/F)
Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Data Analyst (H/F)
Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologie : ETL ODI / Sql et PL SQL (Oracle) / Python - Référentiels : JIRA / Service Now - CRM : Salesforce - VBA - Excel
Mission freelance
Expert Hadoop
-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs
Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F
Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Data Architect GCP
Chez K-LAGAN , nous sommes à la recherche d'un-e Architect des solutions, data GCP, au sein de notre équipe des experts DATA, chez un de nos clients - secteur assurances, 📍 Niort (Nouvelle-Aquitaine, hybride). 🔥Rejoignez une aventure passionnante au sein du cabinet Pure Player Data & IA du Groupe🔥 Vous intégrerez une super équipe d'experts passionnés, et utiliserez les technologies de pointe. Vous aurez l'opportunité de travailler sur des projets innovants, de collaborer avec des partenaires de renom et d'apporter votre expertise à une entreprise en pleine croissance. 🧑💻 Compétences nécessaires : Connaissance et maître du cloud GCP Capacité à construire une feuille de route technique de mise en œuvre de plateforme Data (type Hub/lakehouse) Capacité à construire des plans de migration data cloud Connaissance des architectures hybrides/ multiCloud Bon background engineering. Connaissance CI/CD Avoir, au minimum, 3-5 ans d'expérience en tant qu'architecte BIG DATA (hors stage et/ou alternance).
Offre d'emploi
Administrateur COLLIBRA
Résumé Administrateur technique de Collibra Contexte Assurer l'administration technique de Collibra Détails 1 Administrateur Technique Collibra : - Maintenance technique - Scripts maison pour copier les métadonnées de Mega vers Collibra - Mise en place d’API d’Ares et revue d’habilitation - Création des workflows RGDP - - ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------
Offre d'emploi
Chef de projet MOE expérimenté
Contexte de la mission : 4 chefs de projets MOE travaillent actuellement au sein de la Direction Solutions Data de la DSIN (2 salariés et 2 prestataires informatiques). La Direction Solutions Data de la DSIN souhaite se renforcer avec l'arrivée d'un chef de projet MOE H/F expérimenté sur le site de Niort ou de Levallois-Perret. Cette personne sera amenée à piloter plusieurs projets, dont celui sur le décommissionnement de l'infocentre (Système d'Information Décisionnel version 1 de la marque) : Gérer de l’obsolescence du SID V1 présent sur des serveurs HP UX, Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible (SID V3 ou Data Hub).
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Offre d'emploi
Lead Data (H/F)
Les missions d'un Amiltonien : En tant que Lead Data (H/F), vous serez en charge des missions suivantes : Gérer une équipe de scientifiques, d'ingénieurs en Machine Learning et des spécialistes du Big Data Mettre en place les procédures d'exploration et collectes de Data Assurer la qualité et la véracité des donnée Interpréter et analyser les problèmes de données Concevoir, planifier et classer les projets de données Construire des systèmes analytiques et des modèles prédictifs Tester les performances des produits basés sur les données Visualiser les données et en déduire des rapports Expérimenter de nouveaux modèles et techniques Aligner les projets de données sur les objectifs de l'entreprise La stack technique : GCP / Talend
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes