Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 624 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance
CDD

Offre d'emploi
Chef de projet DATA

GROUPE ALLIANCE
Publiée le
Big Data
Data Warehouse

36 mois
10k-60k €
Paris, France

Le candidat sera amené à piloter plusieurs projets, dont celui sur le décommissionnement d'un l'infocentre. - Gestion de l’obsolescence du SID - Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible La mission consiste à : - Animation des équipes projets - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets

CDI
Freelance

Offre d'emploi
Architecte Cloud AWS

GROUPE ALLIANCE
Publiée le
AWS Cloud
Azure
Docker

12 ans
53k-64k €
Île-de-France, France

Pour le compte de l' un de nos clients dans le domaine bancaire , nous recherchons un Architecte Cloud AWS Vos principales missions seront: la définition des architectures et des services associés l' assistance aux entités (Architecture Technique Infrastructure) l' assistance aux architectures en respectant les principes de sécurité mis en place la documentation des architectures , principes et bonnes pratiques le déploiement des architectures Cette mission s'effectue en mode hybride ( 3 jours de présentiel et 2 jours de télétravail)

CDI

Offre d'emploi
Data Engineer Sénior

Oceane consulting
Publiée le
Apache Spark
AWS Cloud
Azure

10k-60k €
Paris, France

Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)

Freelance
CDI

Offre d'emploi
Architecte Infra Cloud

Lùkla
Publiée le
Apache Airflow
AWS Cloud
Azure

1 an
55k-70k €
Val-de-Marne, France

1 - Contexte et objectifs de la prestation : La vision de GCOO (Group Chief Operating Office) est de permettre une excellence opérationnelle de premier ordre dans l’ensemble du Groupe en s’appuyant sur la Technologie (digital, données et IA) et les Talents. (Platform As A Service) est le département en charge d’opérer l’ensemble des domaine techniques Bases de Données, BigData, Middleware & Containers au sein de la production informatique du Groupe. Le client a pour mission de définir l’architecture des services délivrés et opérés par le département en lien avec les Opérations ainsi que la définition et le pilotage de la roadmap de transformation et initiatives transverses. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Architecture technique. Dans ce cadre, la prestation consiste à contribuer à/au(x) : - La définition des architectures et des Services associés - L'assistance aux entités (architecture Technique Infrastructure. - Assistance aux architectures en respectant les principes de sécurité mis en place - La documentation des architectures, principes et bonnes pratiques - Déploiement des architectures 2 - Livrables attendus Les livrables attendus sont : - Etudes d'Architectures - Roadmap des Services - Principes de sécurité - Documentation des architectures (DAT), HLD - Document de bonnes pratiques 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Amazon Web Services ( AWS ) • Docker • Kubernetes • MS Azure • Open source • Oracle • PostGreSQL • Rabbit MQ • SQL Server Database • TOGAF • Airflow • Red Hat Enterprise Linux

Freelance

Mission freelance
Data Engineer (H/F) - Lille

Espace Freelance
Publiée le
Apache Airflow
AWS Cloud
Databricks

3 mois
100-560 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - AWS - Scheduling Airflow - DBT - Databricks - Pyspark Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous implémentez des solutions selon les règles fonctionnelles définies - Vous documentez vos actions - Vous créez des pipelines scalables de données structurées - Vous réalisez le support utilisateur en répondant à leurs questions - Vous documentez les flux implémentés - Vous prenez part à l’élaboration des bonnes pratiques de l’équipe - Vous partagez vos savoirs avec les autres Data Engineers Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/DAENDE/111

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

CDI
Freelance

Offre d'emploi
Ingénieur Data SAP/Snowflake

1G-LINK CONSULTING
Publiée le
Azure Data Factory
Snowflake
Talend

12 mois
10k-64k €
La Défense, Île-de-France

Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.

Freelance

Mission freelance
Chef de projet Web

MIND7
Publiée le
Data management
Développement web

12 mois
650-750 €
Île-de-France, France

Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).

CDI

Offre d'emploi
Data Engineer intégration et aws

CAPEST conseils
Publiée le
AWS Cloud
Databricks
PySpark

51k-65k €
Courbevoie, Île-de-France

Missions / Tâches : Vous intégrerez l’équipe IT Data Integration, qui a pour responsabilité l’intégration des données (ainsi que les flux retours) en provenance d'un partenaire (qui opère le système bancaire en marque blanche pour le compte du client final) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données reçues/envoyées) : - Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - PYSpark - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - Data Privacy : purge de données, mise en conformité RGPD. - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - API Management (Gravitee) finalisation d’un Proof of Value et accompagnement au deploiement des nouvelles API / miration des API existantes vers cet outil. Administration de l’outil en lui-même (K8S, helm, AWS). Formation & Expérience Requises : Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management). Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l’equipe, déployer les nouvelles versions jusqu’en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d’apprendre et de relever des défis Anglais : Professionnel

Freelance

Mission freelance
Cybersécurité digitale

Comet
Publiée le
AWS Cloud
Kubernetes
Security Information Event Management (SIEM)

110 jours
100-580 €
Boulogne-Billancourt, Île-de-France

Livrables : - Améliorer la sécurité́ du SI de l’entreprise en se basant sur le plan de remédiation défini - Gestion de projets de mise en place d’outils de sécurité de diffusion vidéo (DRM, URL signing, green header…) - Suivi et gestion de la sécurité́ du SI d’eTF1 au quotidien (suivi des alarmes et des métriques sécurités existantes, répondre aux incidents de sécurité́, etc.) Description : - RUN Sécurité : Suivi et gestion de la sécurité́ du SI d’eTF1 au quotidien (suivi des alarmes et des métriques sécurités existantes, répondre aux incidents de sécurité́, etc.), - Sécurité Vidéo : Suivi et gestion de projets de mise en place d’outils de sécurité de diffusion vidéo (DRM, URL signing, green header…) - Suivi de projets sécurité : Suivi et gestion de projets de mise en place d’outils de sécurité́ (SIEM, SSO, PAM, etc.), - Audits : Auditer régulièrement les produits eTF1 afin d’alimenter un plan de remédiation global (audit technique à effectuer ou à piloter en cas de sous-traitance), - Amélioration continue : Améliorer la sécurité́ du SI de l’entreprise en se basant sur le plan de remédiation défini (refacto on-premise, amélioration du filtrage réseau, compliance AWS, sécurisation de la chaîne CI/CD, sécurisation de la diffusion vidéo, etc.). - Autonomie complète sur l’organisation de la sécurité (définition du plan de remédiation, accompagnement des équipes à la correction ou corriger soit même), - Une expérience significative dans la sécurisation et la mise en place de solutions AWS et sur la technologie Kubernetes (k8s) - Capacité de gérer des projets de mises en place d’outils de sécurité de A à Z (état de l’art, choix de solutions, PoC, configuration, intégration, mise en production), - Utilisation d’outils d’IAC (terraform, terragrunt, etc..) - Connaissance des outils de gestion de développement et de projets Atlassian (Jira, Confluence, Statuspage) - Expérience dans les tests d’intrusion et dans la cybersécurité technique - Expérience avec les cloud AWS et ces outils de sécurité - Expérience et connaissance des architectures de diffusion vidéo et streaming (formats vidéo hls/dash, CDN…) Au service des équipe Scrum, il s'assure que la méthode Scrum est comprise et mise en oeuvre et que les équipes Scrum adhèrent à la théorie, aux pratiques et aux règles de Scrum. Il aide les parties externes à comprendre quelles interactions avec l'équipe Scrum sont bénéfiques et lesquelles ne le sont pas. Il aide toutes les parties prenantes à changer ces interactions pour maximiser la valeur créée par les équipes Scrum Il s'assure que les équipes Scrum ont l'ensemble des compétences nécessaires pour délivrer la valeur métier Il assure l'amélioration continue des équipes Scrum dans leur façon de travailler (créativité, qualité coopération) en faisant preuve d'empathie, de coopération, de transparence, de courage et d'humilité.

CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

40k-60k €
Paris, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
ARCHITECTE D'INFRASTRUCTURE

Digistrat consulting
Publiée le
Apache Airflow
AWS Cloud
Docker

3 ans
45k-65k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La définition des architectures et des Services associés L'assistance aux entités (architecture Technique Infrastructure) Assistance aux architectures en respectant les principes de sécurité mis en place La documentation des architectures, principes et bonnes pratiques Déploiement des architectures Les livrables attendus : Etudes d'Architectures Roadmap des Services Principes de sécurité Documentation des architectures (DAT), HLD Document de bonnes pratiques

Freelance
CDI

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
Ansible
AWS Cloud
Jenkins

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production La mise en place et le support des environnements de production et intégration L'industrialisation (principes d'infra as code) Environnement agile. Livrables : Les livrables attendus sont : Validation de la faisabilité technique Mise en œuvre de la solution. Support des demandes clients sur les environnements de production et intégration. Automatisation des demandes récurrentes et mise à disposition de self-service ou API à destination des clients.

Freelance

Mission freelance
BUSINESS ANALYSIS LIQUIDITE (F/H)

SMARTPOINT
Publiée le
Ansible
AWS Cloud
Github

12 mois
100-500 €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Assistance maîtrise d'ouvrage SI Dans ce cadre la prestation consiste à contribuer à/au(x) : Maîtrise d'Ouvrage : - La réception et la compréhension des besoins des utilisateurs, en intégrant les règles de gestion de l’application existante; analyses et solutions pertinentes associées - La mise en place des spécifications fonctionnelles détaillées- La fusion de ces spécifications avec la spécification globale SFL - La définition des cas de tests pour les nouvelles fonctionnalités implémentées et revue des cas de tests existants, afin d'assurer une couverture de tests nécessaire et suffisante, et permettre l'automatisation des tests sur l'outil de non-régression SFL - L'interface avec le Développement dans les phases d’études techniques / développement / tests unitaires - La mise en place de la recette des développements et les contrôles de non régression - Support du calculateur liquidité (reporting réglementaire quotidien, pricer de coût de liquidité dans le cadre de l’ALM). - Suivi de la production réglementaire quotidienne et mensuelle, avec respect des échéances. - Contrôle des résultats produits par SFL, et de vérifications pour que les écarts observés d’un mois sur l’autre ne soient pas dus à une erreur d’ordre IT (système amont ou calculateur) - En cas de problème de production, à la définition d'un plan de contournement / remédiation permettant de tenir le délai. Quality Analysis : - La définition d'une stratégie de tests pour les nouvelles fonctionnalités implémentées, ainsi que sur le périmètre existant, afin d'assurer une couverture de tests nécessaire et suffisante - Automatisation des tests sur l'outil de tests de non -régression SFL (préparation de cas de tests pour les développeurs) Environnement Agile. Autres technologies : - mathématiques (probabilités / statistiques) : le coeur de l'application consiste en modèles d'écoulement de liquidité - Expertise sur les fichiers de données volumineux - Formules en VBA : les modèles de liquidité fournis par les analystes quantitatifs métier sont accompagnés d'une calculette en VBA

Freelance

Mission freelance
Data Ingénieur Cloud

CS Group Solutions
Publiée le
AWS Cloud
Databricks
Github

3 mois
300-3k €
Paris, France

Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)

Freelance

Mission freelance
FREELANCE – Architecte Data (H/F)

Jane Hope
Publiée le
Azure Data Factory
Dataiku
Python

3 mois
450-550 €
Lyon, Auvergne-Rhône-Alpes

Identifier les enjeux métiers et les besoins en données : Vous collaborerez avec les chefs de projet et les référents métiers pour analyser les besoins en gestion et exploitation des données, anticiper les migrations et contribuer aux actions de nettoyage des données. Structurer et optimiser l'architecture applicative du domaine DATA : Vous assurerez la modélisation des processus liés aux données (comme la cartographie applicative et des flux), garantissant une organisation fluide et performante des systèmes. Concevoir et faire évoluer les solutions techniques : Vous aurez la charge de l'implémentation des solutions et de leurs améliorations, tout en supervisant la gestion et l’exploitation de la plateforme data (flux, modèles de données, gestion des données). Assurer la cohérence du système d’information : En étroite coordination avec les architectes applicatifs d’autres domaines et les équipes infrastructure, vous veillerez à l’alignement technique global du système d’information de l’entreprise. Encadrer le développement et la maintenance des systèmes : Vous superviserez le cycle de développement, les phases de test et la maintenance des systèmes data, tout en gérant la relation avec les prestataires et développeurs. Garantir la sécurité et la qualité des données : Vous vous assurerez de la sécurisation des accès aux données, de l’élimination des redondances et de la réduction des coûts liés à la gestion des données. Veiller à l’évolution des normes et standards : Vous contribuerez à l'amélioration continue des standards et normes en matière de structuration des données, en intégrant les évolutions technologiques et réglementaires

624 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous