Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 662 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
STream Lead Sénior-S4Hana MM & data migration

EBMC
Publiée le
Data management
SAP

6 mois
400-700 €
Paris, France

Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)

Freelance

Mission freelance
DevOps GCP/AWS

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Google Cloud Platform
Jenkins

1 an
100-3k €
Paris, France

Bonjour à tous ! 👋 Je suis à la recherche d'un DevOps GCP/AWS en freelance pour un projet à Paris (1er arrondissement) : Le profil recherché : Séniorité : Confirmé / Senior Durée : 1 an, renouvelable Disponibilité : ASAP Rythme : 3 jours de télétravail par semaine 💻 Développement : API d'orchestration, provider Terraform, outils liés (Front web, CMDB), CI/CD, monitoring. 🏆 Collaboration : Accompagnement des équipes, mentoring, amélioration des pratiques de développement, astreinte, déplacements à Lille 🚫 Pas d'ESN, uniquement des freelances ou du portage salarial. Nous restons ouverts à toutes recommandations.

Freelance
CDI

Offre d'emploi
Ingénieur Data Senior – Expertise DevOps & ETL (H/F)

CITECH
Publiée le
AWS Cloud
DevOps
Docker

3 ans
70k-85k €
450-550 €
Massy, Île-de-France

🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Participation à l’industrialisation du socle technologique Data & API : 🔸Mise en œuvre et évolution des capacités techniques 🔸Création de composants génériques pour faciliter le développement 🔸Amélioration et migration vers de nouveaux socles (Snowflake, AWS) 🔸Support aux équipes locales (IT) en phase de cadrage et de build Expertise technique : 🔸Analyse des besoins métiers et proposition de solutions adaptées 🔸Veille technologique et alignement des solutions avec les normes techniques 🔸Documentation des assets pour garantir leur maintenance et réutilisation Développement et support : 🔸Développement de composants facilitant les flux de données (Talend, Java, Python…) 🔸Gestion du support technique niveau 3 🔸Suivi des migrations et optimisation des processus Monitoring et amélioration des flux Datawarehouse : 🔸Mise en place d’un système de monitoring centralisé 🔸Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake)

Freelance

Mission freelance
Expert Technique DataHub

OctopusGroup
Publiée le
Administration linux
Big Data
Cloudera

24 mois
250-600 €
Niort, Nouvelle-Aquitaine

Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

CDI
Freelance

Offre d'emploi
Business Analyst Cloud & FinOps

VISIAN
Publiée le
AWS Cloud
Finance

1 an
40k-57k €
100-550 €
Paris, France

Contexte & Objectifs de la prestation L'équipe FinOps et Refacturation IT dépend de la direction de la Production et Infrastructure à pour mission - de maitriser les dépenses des opérateurs Cloud - de maintenir les inducteurs de refacturations infrastructure et exploitations IT Nature et étendue de la prestation Dans le cadre de la maitrise des dépenses Clouds : - Analyser les dépenses relatives au services Cloud - Mainetnir à jour un tableau de bord PowerBI temps réel des dépenses et des optimisations économiques - Suivre quotidiennement les dépenses et alerter en cas de dérive; convenir de plan d'action avec les équipes opérationnelle, suivre ces plans d'action - Rechercher des voix alternatives de réduction de coûts et les faire valider - Piloter la mise en œuvre des solutions de réduction de coûts retenues - Estimer les ROI et TCO des éventuelles migrations de ressources dans le Cloud Dans le cadre de la maitien à jours des inducteurs de refacturation : - Fournir les inducteurs de refacturation des infrastructures techniques pour les différentes échéances budgétaires

Freelance

Mission freelance
Ingénieur devOps / SRE

Tenth Revolution Group
Publiée le
Administration linux
Ansible
AWS Cloud

6 mois
300-600 €
Lyon, Auvergne-Rhône-Alpes

📺📻 Recherchons prestation DevOps, SRE, Cloud Engineer. Expertise Cloud de type #AWS, #GCP, #OVH, #K8s, #Puppet, #Ansible, #HAProxy, #Ansible. Prestation temps plein 50% télétravail à Lyon dans les locaux d'un de nos clients secteur audiovisuel. BUILD : Analyse des besoins, industrialisation avec Puppet/Ansible, gestion de conteneurs Kubernetes et infrastructures Cloud (AWS, GCP, OVH). RUN : Supervision, gestion des alertes/incidents (HAProxy, Varnish), scripting Bash, documentation. Compétences clés : Linux (Debian), virtualisation (Proxmox, VMware), technologies web (Apache, PHP, MySQL, MongoDB), réseaux (TCP/IP). On en discute ? ☀️ Contactez moi : #Kubernetes, #Linux, #Debian, #Apache, #PHP, #MySQL, #MongoDB, #Proxmox, #VMware, #Cloud, Infrastructure, hiring, prestation, temps plein, freelance, Amazon Web Services (AWS), Google Cloud Platform, OVHcloud, Kubernetes, Puppet, Ansible by Red Hat, Linux, Debian, HAProxy, Technologies The Apache Software Foundation, PHP, Oracle, MySQL, MongoDB, Proxmox Server Solutions, VMware

Freelance

Mission freelance
Azure Data engineer & BI

AVALIANCE
Publiée le
Azure
Azure Data Factory
Databricks

2 ans
400-550 €
Gennevilliers, Île-de-France

Nous recherchons pour notre client un data engineer pour une mission longue a Gennevilliers Contexte de la mission - Equipe : DataFab qui se compose de 12 collaborateurs : dont 1 manager, 2 Architecte Data, 3 BI et 6 Data Engineer; Missions et tâches : Mission principales ; Mise en oeuvre de projets data ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI

Freelance

Mission freelance
Architecte d'entreprise et solution Assurance Finance et Risques

ABSIS CONSEIL
Publiée le
Architecture
AWS Cloud
Lean

2 ans
650-750 €
Levallois-Perret, Île-de-France

Nous recherchons un Architecte d'entreprise et solution pour intervenir de la phase d'étude d'opportunité jusqu'à la mise en production des différents projets de notre client Assureur. Vos missions : Produire deux livrables par projets (diagnostique d'architecture et dossier d'architecture fonctionnelle) vérifier la conformité d'implémentation des impacts documenter toutes les connaissances dans l'outil référentiel d'architecture (lean IX) et dans le dictionnaire de données de notre client. Prérequis : Bac+5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte d'entreprise et solution pour des grands compte de l'assurance. (Assurance de personnes, épargne, et ou assurance de biens) Connaissance du domaine finance/risque et des spécificités assurantielles telles que Solvency II Expérience en processus RH et intégration de progiciels RH (idéalement Workday) Maitrise de la modélisation de processus (norme BPMN V2), et approche Data au sein du SI Stack techniques : On Premise, Cloud (AWS)), Mainframe, digital développé en interne, solutions SaaS ou progicielles. Anglais courant obligatoire

Freelance

Mission freelance
Analyste SOC N3

Groupe Aptenia
Publiée le
AWS Cloud
Splunk

6 mois
100-600 €
Paris, France

Analyser et répondre aux incidents de sécurité complexes identifiés par les outils de monitoring. Réaliser des investigations approfondies sur les incidents critiques et produire des rapports détaillés. Développer et maintenir des playbooks d’automatisation Superviser et optimiser les configurations des plateformes de monitoring Effectuer des revues régulières des logs pour identifier des anomalies ou des menaces potentielles. Collaborer avec les équipes internes et externes pour renforcer les stratégies de sécurité. Proposer des recommandations d’amélioration continue pour les systèmes et les processus de sécurité. Participer activement à la définition et à la mise en œuvre des politiques de sécurité cloud (AWS).

CDI

Offre d'emploi
Data Engineer (H/F)

Pickmeup
Publiée le
AWS Cloud

45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.

Freelance

Mission freelance
Data Engineer Spark/Scala F/H

SMARTPOINT
Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400-500 €
Île-de-France, France

Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.

CDI
Freelance

Offre d'emploi
Data Architect GCP

INGENIANCE
Publiée le
Data analysis
Data management
SQL

1 an
55k-70k €
500-700 €
Île-de-France, France

L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.

Freelance

Mission freelance
Ingénieur SysOps

ALLEGIS GROUP
Publiée le
Administration système
AWS Cloud
DevOps

3 ans
400-550 €
Neuilly-sur-Seine, Île-de-France

Nous recherchons un ingénieur SysOps AWS pour rejoindre les équipes au sein de la DSI d'un Client. En tant qu'Ingénieur DevOps, vous êtes responsable de la gestion et du support de l'environnement utilisé pour fabriquer et tester de manière automatique le plus souvent possible. Vous serez chargé de mettre en place, administrer et supporter l'ensemble des systèmes informatiques permettant d'améliorer la fluidité des opérations. Tâches : Déploiement régulier des applications, la répétition contribuant à fiabiliser le processus. Décalage des tests "au plus tôt" dans le cycle de développement. Pratique des tests dans un environnement similaire à celui de production. Intégration continue incluant des "tests continus". Amélioration continue des processus. Surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles.

Freelance

Mission freelance
un consultant SAP Quantum

CRYSTAL PLACEMENT
Publiée le
AWS Cloud

1 an
550-1 050 €
Lyon, Auvergne-Rhône-Alpes

Je recherche pour mon client un consultant SAP Quantum : Les principales responsabilités seront : Travailler au sein de l'équipe de support et de maintenance pour résoudre des tickets d'évolution ou d'incidents, soutenir les utilisateurs finaux, et suivre tous les tickets liés à Quantum via Service One. Effectuer certaines activités en tant que membre du projet pour suivre les livrables principaux du projet (mise à jour de Quantum/migration vers le cloud (AWS)), en assurant la livraison du projet dans les délais, les tests, etc. Être le principal point de contact pour le support avec les utilisateurs clés comme DT T&ITC. Connaissances fonctionnelles des processus Quantum : Contrats, paiements, intégration des relevés bancaires dans Quantum, réconciliation des comptes, gestion de trésorerie, reporting, analyses, taux, statistiques, etc. Trésorerie globale – processus FX, gestion des risques, etc. Support centré sur la clôture mensuelle (D4), personnalisation, gestion des données de base et reporting pendant l'installation/des requêtes. Connaissance des interfaces Quantum (Reuters, Bloomberg, 360T, Finastra, pour l'importation des taux et des contrats). Connaissance de l'intégration des taux de change (FIXING) dans Quantum et SAP SFTP, FileZilla, ainsi que des langages de scripts, Citrix AG, planification des tâches, Crystal Reports, connaissances en Analytics, configuration des tâches et suivi des traitements. Connaissance des formats de fichiers de paiement MT101, etc. Coordination des mises à jour nécessaires de FIS et exécution des tests de routine associés (SSO, certificats, etc.). Travailler dans SAP sur les interfaces Quantum – analyse des écritures comptables. Préparer et effectuer des tests individuels en IT pour valider les changements effectués par FIS (évolutions).

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

bdevit
Publiée le
AWS Cloud
Dataiku
Docker

36 mois
50k-60k €
550-600 €
Île-de-France, France

Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.

662 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous