Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Google Cloud Plateform (GCP)
Pour un client du secteur bancaire, mise en œuvre de la technologie Google Cloud Plateform (GCP) au sein du SI avec mise en place d'un comptoir data SI interne. Objectifs : accompagner la montée en compétences des équipes de développements sur GCP et participer au développement. Activités : création d'un support de formation, développement, formation et accompagnement des développeurs, sécurisation des développements, assistance aux développeurs, code reviews. LIVRABLES : Support de formation, doc Confluence sur les bonnes pratiques de développement pour GCP, Comptes Rendus d'Activité, livrables projet pilote assignés.
Offre d'emploi
Front end Engineer h/f
Dans le cadre de notre développement, nous recherchons un.e Front end engineer. L’objectif de notre client est de créer une nouvelle plateforme de 0 afin de collecter, afficher et analyser les avis laissés par leurs clients sur leurs produits et services et ceux de leurs partenaires. Cette nouvelle plateforme sera le lancement de leur nouvelle stratégie en termes de captation des contenus générés par leurs clients (social media, questions/réponses, vidéo, images, ...). Mission : Dans le cadre de la construction de cette nouvelle plateforme, nous cherchons un.e Front end engineer afin de construire les formulaires de collecte d'avis, interface d'affichage des avis et l'outils d'administration des avis, qui travaillera en collaboration avec un développeur Senior Front end. Environnement technique : - Back : Java, PostgreSQL, Elasticsearch, Kafka - Front : React - Cloud : GCP, K8S - CI/CD : GitHub, Github action, Docker - Monitoring : Datadog
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Responsable de Plateforme Data
En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.
Offre d'emploi
Expert ODI
Bonjour, Nous recherchons pour notre client de renom en France, dans le secteur de la construction, un Expert ODI (Oracle Data Integrator) pour une mission à fort enjeu technique. Dans le cadre de l’évolution des projets Data de notre client, vous interviendrez sur des problématiques d’intégration de données en environnement complexe. Vous serez amené(e) à : Analyser les besoins métiers et proposer des solutions techniques adaptées Contribuer à la conception et au développement des flux d’intégration sous Oracle Data Integrator (ODI) Effectuer des tests et veiller à la qualité des données traitées Optimiser les processus d'extraction, de transformation et de chargement (ETL) Participer à la documentation technique et fonctionnelle des solutions mises en œuvre
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Mission freelance
Data Engineer SQL DBT (F/H) - Lille
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer SQL DBT (F/H) - Lille Mission à pourvoir en régie en région Parisienne Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Construction et optimisation de pipelines de données : collecte, transformation (SQL, BigQuery), et publication Mise en place de tests de qualité et conformité des données Amélioration continue en matière de fiabilité, performance, et FinOps
Mission freelance
Chef de projets Data Management & IA (H/F)
Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Mission freelance
Architecte / Ingénieur Senior Cloud Azure
Nous sommes à la recherche d'un professionnel expérimenté pour une mission freelance à démarrer au plus tard le 02/12/2024, d'une durée initiale de 6 mois. 🔍 Votre Mission : En tant qu'Architecte / Ingénieur Senior Cloud Azure, vous serez responsable de : Diriger et mettre en œuvre des architectures techniques complexes. Assurer la sécurisation des ressources Azure dans le cadre du projet DataFactory, en définissant l'architecture et en utilisant Terraform. Collaborer étroitement avec les équipes de développement et de sécurité pour concevoir des solutions optimales (IaaS, PaaS, CaaS). Garantir la conformité et la sécurité des services déployés dans le cloud. Gérer des projets de migration vers Azure, de la conception à l'exécution. Créer et encadrer une équipe de niveau 2 dédiée au cloud Azure. 💡 Compétences Requises : Expertise en Cloud Microsoft Azure, gestion des policies, FinOps. Connaissance des composants PaaS et IaaS. Maîtrise de Terraform. Une expérience en AKS est un plus. 📊 Livrables : Reporting hebdomadaire des actions réalisées.
Offre d'emploi
Ingénieur Sysops GCP H/F
Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à 92 un : Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique) Mission : - Implémentation du socle landing zone GCP et avec les évolutions à venir -Administration et support de la plateforme : gestion des incidents, surveillance et supervision, gestion des problèmes et des crises, gestion des changements, gestion des demandes dans ITSM, traitement des alertes de sécurité et de vulnérabilité. -Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions -Garantir la sécurité des ressources cloud en respectant les règles de sécurité et les bonnes pratiques -Contribuer à faire évoluer l’infrastructure en implémentant et en améliorant les règles de détections des menaces -Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’infrastructure du socle GCP -Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP -Tracer tous les changements en cohérence avec les processus ITIL -Mettre en place des KPIs -Automatisation des processus -Développer et mettre en place un modèle de service à la demande -Identifier des points d’amélioration sur les outils internes -Mettre en place une architecture serverless qui permet aux métiers de suivre les habilitations de leur équipe -Réaliser et mettre en place une étude IAM sur le socle GCP -Analyser l'intégration de Dynatrace sur le socle GCP -Accompagner et POC pour l’alimentation des assets dans les tables CMDB
Offre d'emploi
Tech Lead Java Senior h/f
Contexte : Dans le cadre de notre développement, nous recherchons un.e Tech Lead Java Senior. L’objectif de notre client est de créer une nouvelle plateforme de 0 afin de collecter, afficher et analyser les avis laissés par leurs clients sur leurs produits et services et ceux de leurs partenaires. Cette nouvelle plateforme sera le lancement de leur nouvelle stratégie en terme de captation des contenus générés par leurs clients (social media, questions/réponses, vidéo, images, ...). Mission : Dans le cadre de la construction de cette nouvelle plateforme, nous cherchons un Tech Lead Java Senior afin de faire le design puis l'implémentation de la plateforme. Environnement technique : - Back : Java, PostgreSQL, Elasticsearch, Kafka - Cloud : GCP, K8S - CI/CD : GitHub, Github action, Docker - Monitoring : Datadog
Offre d'emploi
Ingénieur Sysops GCP H/F
Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à Nantes : un Ingénieur Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique, architectes) : Mission : -Conception / Création / Implémentation / Landing zone GCP -Capacité à expliquer, vulgariser, acculturer et former -Posture de coach technique pour l'ensemble de l'équipe - Savoir fédérer autour de nouvelles pratiques ou des nouveaux outils
Offre d'emploi
SAP DATA
Mon client recherche un Senior fonctionnel data, en tant que membre du département Digital & IT - Data & Analytics du Groupe, vous intégrerez l’équipe Data As a Service CUSTOMER. Vous piloterez l’architecture fonctionnelle des données pour le périmètre Corporate (Finance / Juridique / IT / Achats...) et participerez aux évaluations de business cases et projets. Le client est dans le secteur de l'industrie, est recherche un SAP data. l'environnement est en anglais, avec 10 ans d'expériences dans l'univers.
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Offre d'emploi
Ingénieur Cloud h/f
Analyser le système de stockage des données de l’organisation ; Recueillir les besoins de l’ensemble des utilisateurs en ce qui concerne les données (sécurité et accès) ; Établir le cahier des charges en fonction des différentes observations ; Repérer les appels d’offres intéressants , choisir et négocier avec les fournisseurs pour l’achat ou la location de solutions de stockage, ainsi que pour leur installation ; Gérer la relation client/fournisseur et faire la lien avec la Direction générale ; Effectuer les migrations de données nécessaires vers les solutions de stockage ; Valider tous les aspects techniques du stockage ; Accompagner toutes les parties prenantes dans l’appropriation des nouveaux systèmes (formations, documentation ad hoc…) ; Résoudre les éventuelles pannes ou dysfonctionnements ; S’assurer de la sécurisation des données .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.