Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 277 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Architecte Data Mlops

OBJECTWARE MANAGEMENT GROUP
Publiée le
Architecture
Data science

3 ans
10k-72k €
Île-de-France, France

Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance
CDI

Offre d'emploi
Data Scientist / Actuariat - Paris, IDF

K-Lagan
Publiée le
Data science

2 ans
10k-50k €
Paris, France

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance
CDI

Offre d'emploi
Change Manager - Spécialiste en Gouvernance des Données

Ecco Technologies
Publiée le
Data management
Database
Gouvernance

2 ans
10k-40k €
Marseille, Provence-Alpes-Côte d'Azur

Au sein du département Data, nous recherchons un(e) Change Manager possédant une expertise approfondie dans la gestion du changement, appliquée aux domaines des données et de l'IA/IA générative (GenAI). Sous la supervision du responsable de l'équipe produit du catalogue de données, le/la candidat(e) sera responsable de conduire et de coordonner les activités de changement associées à l'intégration d'un nouveau catalogue de données (remplacement de l'outil Collibra par Atlan). Principales responsabilités : Développer et mettre en place des stratégies et des plans de gestion du changement pour faciliter l'adoption du nouvel outil de catalogue de données (Atlan). Mettre à jour et améliorer les supports de formation existants, ainsi qu’organiser et animer des sessions de communication et de formation pour les utilisateurs. Suivre et analyser l'avancement des initiatives de changement, repérer les domaines à améliorer et appliquer les actions correctives nécessaires pour garantir une adoption optimale de l'outil.

Freelance

Mission freelance
DATA ENGINEER (H/F)

Come Together
Publiée le
Big Data

3 mois
420-440 €
Lille, Hauts-de-France

Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.

CDI

Offre d'emploi
Lead Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

45k-50k €
Lyon, Auvergne-Rhône-Alpes

Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana

Freelance

Mission freelance
MLOPS ENGINEER

Groupe Aptenia
Publiée le
AWS Cloud
Big Data
DevOps

6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission Intégré à une équipe Produit, l'ingénieur MLOPs contribue à l'industrialisation de modèles ML déjà développés. Nous avons besoin de quelqu'un qui peut nous aider à automatiser et à améliorer notre pipeline de ML, à mettre en place des pratiques de MLOps et à assurer la qualité des données. Objectifs et livrables Nous cherchons à atteindre les objectifs suivants : Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Amélioration et automatisation du pipeline de ML Mise en place de pratiques de MLOps et d'outils IA Assurer la qualité des données Optimiser l'efficacité et la scalabilité des flux de travail ML

Freelance

Mission freelance
Expert Azure Cloud H/F

Management Square
Publiée le
Azure
Azure Data Factory

2 ans
520-600 €
Île-de-France, France

En tant qu'Expert Azure Cloud, vous serez responsable de la conception, de l'implémentation et de la gestion des solutions cloud sur Microsoft Azure. Vous jouerez un rôle clé dans l'optimisation et la sécurisation de l'infrastructure cloud. Principales responsabilités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure Gérer et optimiser les services Azure existants pour garantir la performance, la fiabilité et l'efficacité des coûts Développer et mettre en œuvre des procédures de monitoring, backup et sécurisation des objets Azure Assurer la sécurité et la conformité des environnements cloud Azure Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD Fournir un support technique et former les équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure Assurer une veille technologique sur les dernières innovations Azure

Freelance
CDI

Offre d'emploi
Développeur Talend

SYZAN
Publiée le
Big Data
Talend

1 an
10k €
Île-de-France, France

Contexte : Dans le cadre de la digitalisation et de l'optimisation de nos flux de données, nous recherchons un Développeur Talend pour renforcer notre équipe Data. Ce poste vous permettra d’intervenir sur l’ensemble du cycle de vie de nos projets d’intégration de données, avec une attention particulière à l’optimisation des flux et à la qualité des données. Vous collaborerez avec des équipes métier et techniques pour construire des solutions robustes et évolutives répondant aux besoins stratégiques de l’entreprise. Missions principales : Conception et développement des flux de données : Concevoir, développer et maintenir des flux ETL sous Talend pour assurer l’intégration et la transformation des données. Travailler en collaboration avec les équipes fonctionnelles et techniques pour identifier les besoins en intégration de données. Documenter les processus de développement et les transformations de données. Optimisation et maintenance des flux : Optimiser les processus d’intégration de données pour garantir performance et fiabilité. Assurer la maintenance corrective et évolutive des flux existants en fonction des besoins de l’entreprise. Effectuer des tests unitaires et fonctionnels, et veiller à la qualité des données tout au long des transformations. Gestion de la qualité des données : Mettre en place des contrôles qualité des données dans les flux pour garantir leur conformité et fiabilité. Contribuer à la mise en place des règles de gouvernance de la donnée et aux bonnes pratiques d’intégration. Participation aux projets transverses : Participer aux projets de migration, de consolidation de données et de gestion de référentiels de données. Collaborer avec les autres équipes de développement pour assurer une cohérence et une interopérabilité des données dans l’ensemble du SI. Contribuer à la veille technologique pour proposer des solutions innovantes et améliorer les processus d’intégration.

CDI
Freelance

Offre d'emploi
Data Governance Officer

1G-LINK CONSULTING
Publiée le
Data management

12 mois
10k-65k €
Courbevoie, Île-de-France

Dans le cadre de la réalisation de divers projet, Pour notre client dans le secteur de l'industrie, nous recherchons un consultant data gouvernance qui sera en charge de la mise en place de l'architecture Policies ainsi que d'autres sujets en cours Vos missions : Excellente maitrise de l'architecture policies : Architecture Médaillon Très bonne capacité à cataloguer des données Expériences en gouvernance fédérée via un méta model Compétences en Data Quality et Data Observability capacité à gérer des projets dans la data

Freelance

Mission freelance
Chef de projet Data Galaxy (H/F)

Insitoo Freelances
Publiée le
Azure Data Factory

2 ans
400-500 €
Grenoble, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet Data Galaxy (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Nous sommes à la recherche d'un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. Les missions attendues par le Chef de projet Data Galaxy (H/F) : Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) Être un support des équipes techniques et Data office dans leurs tâches sur l'outil. La personne doit être autonome, force de proposition et faire preuve de prise d’initiatives. Elle doit être capable d'animer une équipe et de tester par elle-même les fonctionnalités / modélisations de Data Galaxy. La connaissance préalable de Data Galaxy serait un plus. La connaissance de PowerBI / Talend serait un plus. Démarrage ASAP avec 3 jours sur site, en région grenobloise.

Freelance
CDI
CDD

Offre d'emploi
Architecte Sécurité Cloud ./ Data (SASE : Netcop/OKTA)

Freelance.com
Publiée le
Big Data
Cloud
Cybersécurité

1 an
10k-80k €
Maisons-Alfort, Île-de-France

Client : Banque Localisation : Maison Alfort Poste : Architecte Sécurité Cloud ./ Data Expérience : +9 années Démarrage : ASAP Objectif: Analyser les besoins Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients de Bpifrance • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement client • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)| Compétences métier souhaitables : Qualifications (seraient un plus) Certification de sécurité (CISSP et / ou GIAC) • Les certifications de fournisseur (AWS / Azure / GCP) • Expérience de sécurité offensive (Pentest, red teaming), un atout pour Bpifrance • Certification SAFe Expérience pertinente de +9 ans ou plus dans le domaine de la sécurité de l'information ou une expérience pertinente ; • Au moins cinq ans d'expérience pratique sur au moins l'un des sujets suivants : • sécurité Microsoft, sécurité réseau, sécurité Linux;|

Freelance

Mission freelance
Expert Qualité des Données CRM

PROPULSE IT
Publiée le
CRM
des
Données

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.

Freelance

Mission freelance
Azure Data Architect sur Lyon

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure Data Factory
Databricks
Python

6 mois
100-600 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Data Architect Senior pour une mission stratégique dans un contexte international et exigeant. Spécialisation en architecture de données avec un focus sur Analytics et Business Intelligence (BI) . Expérience dans des environnements complexes, en lien avec les services marketing et logistiques. Logistique, gestion des entrepôts, inventaire, et gestion des commandes. Technologies : Databricks sur Azure : configuration et gestion des clusters. Power BI pour la BI et les analyses. ADF (Azure Data Factory) pour les workflows. Python pour des développements spécifiques. Compétence requise sur l’ensemble de la chaîne de traitement des données. Langues : Anglais courant indispensable (environnement international). Soft skills : Excellentes capacités relationnelles, adaptabilité, et aisance dans un contexte client exigeant. Localisation : Flexible (France - Lyon, Belgique, ou Suède). Démarrage : ASAP Durée : 6 mois minimum

Freelance

Mission freelance
Data Scientist - Time Series

SELENIUMS
Publiée le
Data science
Python
Time series

6 mois
100-520 €
Roissy-en-France, Île-de-France

Analyser et modéliser des séries temporelles pour optimiser les processus décisionnels. Collaborer avec les équipes techniques et métier pour développer des solutions data-driven. Participer activement à la gestion et à l’amélioration continue des modèles en production. Compétences requises : Maîtrise des techniques de modélisation Time Series . Solides connaissances en Python et bibliothèques associées (Pandas, Numpy, Scikit-learn). Bonnes compétences en communication pour transmettre des insights aux équipes non techniques.

277 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous