Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 307 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

40k-45k €
Orange Lyon Lumière, Auvergne-Rhône-Alpes

Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance
CDI

Offre d'emploi
Architecte Infra Cloud

Lùkla
Publiée le
Apache Airflow
AWS Cloud
Azure

1 an
55k-70k €
Val-de-Marne, France

1 - Contexte et objectifs de la prestation : La vision de GCOO (Group Chief Operating Office) est de permettre une excellence opérationnelle de premier ordre dans l’ensemble du Groupe en s’appuyant sur la Technologie (digital, données et IA) et les Talents. (Platform As A Service) est le département en charge d’opérer l’ensemble des domaine techniques Bases de Données, BigData, Middleware & Containers au sein de la production informatique du Groupe. Le client a pour mission de définir l’architecture des services délivrés et opérés par le département en lien avec les Opérations ainsi que la définition et le pilotage de la roadmap de transformation et initiatives transverses. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Architecture technique. Dans ce cadre, la prestation consiste à contribuer à/au(x) : - La définition des architectures et des Services associés - L'assistance aux entités (architecture Technique Infrastructure. - Assistance aux architectures en respectant les principes de sécurité mis en place - La documentation des architectures, principes et bonnes pratiques - Déploiement des architectures 2 - Livrables attendus Les livrables attendus sont : - Etudes d'Architectures - Roadmap des Services - Principes de sécurité - Documentation des architectures (DAT), HLD - Document de bonnes pratiques 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Amazon Web Services ( AWS ) • Docker • Kubernetes • MS Azure • Open source • Oracle • PostGreSQL • Rabbit MQ • SQL Server Database • TOGAF • Airflow • Red Hat Enterprise Linux

CDI
Freelance

Offre d'emploi
Ingénieur Sécurité Cloud EntraID/M365

AMD Blue
Publiée le
Azure

3 ans
50k-55k €
Île-de-France, France

Description du poste : Evaluation et proposition de solutions sur les besoins fonctionnels, techniques et sécurité autour de la sécurisation des services Azure et M365 Intégration Services de sécurité Cloud Microsoft (DLP, AIP) Administration et gestion des services de sécurité Cloud Microsoft Gestion et intégration des solutions d'authentifications Réalisation des documentations techniques en anglais) Procédure ITIL en production (incident management, change management, request management) La réalisation d’intégrations de ces différents services / composants de sécurité Le maintien du support et le maintien en condition opérationnelle de ces services

Freelance

Mission freelance
Développeur .NET

ICSIS
Publiée le
.NET
.NET CORE
.NET Framework

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Analyse de l’existant - Rédaction de Spécifications Techniques Détaillées et de fiches de tests - Développement de solutions logicielles autour du .NET en conformité avec les normes en place - Prise en charge de tickets d’incidents de Production - Assistance à la recette métier et traitement des retours - Assistance au responsable de pôle sur les analyses et chiffrages de nouvelles évolutions et/ou projets - Collaboration à l’amélioration continue - Participation à la capitalisation documentaire des applications et également à la capitalisation des connaissances au sein de l’équipe Compétences demandées : - Maitrise du .NET Framework, .NET Core+, SQL et des langages Web (HTML, CSS, Javascript/Jquery) - Connaissance des techniques de gestion de source (idéalement via GIT et Git Flow) - Maitrise CI/CD sous Azure Devops (configuration des pipelines…..) - SSIS - De bonnes notions d’architecture technique, une connaissance de l’environnement AWS serait un plus - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Alternance

Offre d'alternance
Data Analyst Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

15 mois
20k-25k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Data Analyst Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Collecte et Traitement des Données : Collecter des données à partir de diverses sources internes et externes Nettoyer et préparer les données pour l'analyse, en assurant leur qualité et leur intégrité Analyse des Données : Effectuer des analyses statistiques pour identifier des tendances, des schémas et des anomalies Utiliser des outils de visualisation des données pour créer des rapports et des tableaux de bord interactifs Support aux Équipes Métier : Collaborer avec les équipes métier pour comprendre leurs besoins en données et fournir des analyses ad hoc Présenter des conclusions et des recommandations basées sur les analyses de données Amélioration Continue : Proposer des améliorations pour optimiser les processus d'analyse de données Participer à la mise en place de nouvelles méthodologies et outils d'analyse Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

Freelance

Mission freelance
Data Engineer Databricks

VISIAN
Publiée le
Azure
Databricks
Machine Learning

2 ans
100-600 €
Saint-Denis, Île-de-France

Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un Data Engineer Databricks La mission du Data Engineer est de developper et de maintenir la liaison entre les besoins du métier Asset management et l’équipe Data Plateforme du Pôle Data en place. A ce titre, il/elle doit : • Comprendre les enjeux et les problématiques métier, avoir une vision cohérente des activités de l’entreprise • Analyser, cadrer, synthétiser, prioriser les besoins des demandeurs (équipe Data A7M), pour être en cohérence avec l’architecture fonctionnelle de la solution cible de l’A7M • Analyser les traitements de données des données reçues via interface et formaliser les développements à réaliser • Bien connaître le Data Catalog, avoir une vision transverse des sujets adressés à l’équipe Data pour une évenuelle réutilisation des travaux réalisés • Définir et mettre en place les règles de gestion de nettoyage et de structuration des bases de données • Définir et mettre en place les algorithmes et traitements des données pour obtenir les indicateurs répondant aux besoins du métier • Réaliser des outils d’analyse / Rapports BI • Concevoir et dimensionner les bases de données et les traitements nécessaires ainsi que les normes et standards d’utilisation de ces bases qui vont accueillir les données nécessaires pour le programme de l’Asset Management • Capter les données nécessaires et d’une façon optimale (API) dans la mesure du possible pour le périmètre de l’asset mamangement • Définir et gérer les standards techniques • Echanger avec les équipes métier de l’Asset Management en sachant vulgariser ses travaux • Contribuer à la mise en place et à l’optimisation de la plateforme Data • Participer à l’étude d’impact pour le programme de l’Asset Management sur l’architecture existante ou prévisionnelle et préconiser des choix techniques en vue d’assurer la cohérence de cette évolution Diffusable • Promouvoir l’architecture de la plateforme Data auprès du reste de l’équipe • Expliquer le sens des informations exploitables en termes pertinents pour les métiers • Transmettre le processus de recherche et les suppositions qui ont mené à la conclusion LIVRABLES ET RESPONSABILITES : • Garant du bon déroulement du développement des traitements des données • Garant du bon déroulement des mises en production des livrables de l’Asset Management • Garant des vues du portail décisionnel de l’asset management sous PowerBI • Développements Python • Documentation des codes développés • Documentation des données utilisées et produites • Modélisations statistiques et Machine Learning • Rapports / Outils BI • Respect des choix opérés par le tech lead

Freelance
CDI

Offre d'emploi
Data Analyst

Oceane consulting
Publiée le
AMOA
Azure
Big Data

1 an
10k-65k €
Paris, France

Missions: • Réalisation d’études en lien avec le PO • Recueil des besoins et animation d’ateliers avec le métier, • De s'assurer de la conformité RGPD des traitements portés par l'entité • Réalisation des spécifications fonctionnelles (US et bugs), coordination avec le/la PO • Suivi des développements et participation aux séances de pair test • Recette • Suivi de production • Rédaction et mise à jour de la documentation. • Reporting et suivi • Définitions des KPI avec le Scrum et suivi du pilotage des KPI d’usage

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Développeur SharePoint

MOBILE TECH PEOPLE
Publiée le
Azure
Powershell
SharePoint Online

1 an
100-500 €
Île-de-France, France

Dans le cadre d'un projet pour le compte d'un de nos clients, nous recherchons un Développeur SharePoint expérimenté capable de mener à bien une mission de développement et d'optimisation d'environnements SharePoint. La mission inclut l'intégration de la surcouche Powell, ainsi que l'utilisation de plusieurs briques Azure et d'autres outils collaboratifs. Dans le cadre d'un projet pour le compte d'un de nos clients, nous recherchons un Développeur SharePoint expérimenté capable de mener à bien une mission de développement et d'optimisation d'environnements SharePoint. La mission inclut l'intégration de la surcouche Powell, ainsi que l'utilisation de plusieurs briques Azure et d'autres outils collaboratifs.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

CDI

Offre d'emploi
Consultant DevOps / Cloud

AGIL-IT
Publiée le
Ansible
AWS Cloud
Azure

45k-65k €
Issy-les-Moulineaux, Île-de-France

En tant que Consultant DevOps , vous interviendrez sur des problématiques d’automatisation et de contrôle applicatif. Vous serez en charge des services permettant le bon fonctionnement du développement ainsi que la coordination de l’intégration. Vous interviendrez auprès de nos clients grands comptes avec pour principales missions : Gérer l’ensemble des phases de la mise en production des applications Réaliser des changements en production & gestion des incidents Intégration des développements & Conception et mise en œuvre d’infrastructures Mettre à disposition d’environnements de développement, recette, pré production et production Assurer et orchestrer les différentes chaînes d’intégration continue, de compilation et de déploiement en production Être un support aux équipes de développement pour l’intégration de leurs applications Automatiser les processus de déploiement Maintenir l’environnement de développement Assurer le maintien et développer la documentation du projet (description de l’architecture, détails de la plateforme, surveillance configurée, processus mis en place,…) Contribuer à définir mais aussi diffuser les meilleures pratiques ainsi que l’utilisation des pratiques d’intégration continue

Freelance

Mission freelance
Développeur Front React

5COM Consulting
Publiée le
Azure
React

6 mois
100-610 €
Pas-de-Calais, France

Mission de développement Front en React. Le back est en .Net avec de l'Azure en Infra. Donc il faudrait pouvoir travailler dans un environnement très microsoft, avec une machine sous Windows. React Cloud Azure – PaaS GitHub Enterprise JIRA / Confluence SonarQube Description du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du posteDescription du poste

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.

1307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous