Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur Cloud AWS/GCP Senior - Energie - Paris (H/F)
Contexte de la mission Rejoignez un acteur incontournable du secteur énergétique en France, situé à Lyon et Nanterre, engagé dans une transformation digitale et technologique majeure. Dans le cadre du renforcement de notre équipe dédiée au cloud computing et aux opérations de FinOps, nous sommes à la recherche d'un Développeur Cloud AWS/GCP expert. Au sein d'une équipe dynamique et innovante, vous collaborerez sur des projets d'envergure visant à optimiser l'utilisation des ressources cloud et à générer des économies significatives. Ce poste est ouvert en raison d'un accroissement de nos activités et de la mise en place d'une nouvelle stratégie orientée cloud natif. Missions : Principales : - Développer et mettre en œuvre des solutions d'infrastructure-as-code (IAC) utilisant Terraform, centrées sur AWS et GCP. - Écrire et maintenir des scripts d'automatisation en Python pour optimiser les coûts et l'efficacité des ressources cloud. - Participer activement à la stratégie FinOps de l'entreprise, proposer et mettre en œuvre des optimisations de coûts sur les environnements cloud. Annexes : - Contribuer à la veille technologique et à l'adoption de meilleures pratiques au sein des équipes Cloud et FinOps. - Accompagner les projets de transformation cloud et orienter les choix architecturaux vers des solutions optimales en termes de coût et de performance.
Mission freelance
devOps DATA
Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Azure Data engineer & BI
Nous recherchons pour notre client un data engineer pour une mission longue a Gennevilliers Contexte de la mission - Equipe : DataFab qui se compose de 12 collaborateurs : dont 1 manager, 2 Architecte Data, 3 BI et 6 Data Engineer; Missions et tâches : Mission principales ; Mise en oeuvre de projets data ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Offre d'emploi
Data Architect GCP
L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.
Offre d'emploi
Ingénieur.e DevOps
En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage
Offre d'emploi
Chef de Projet Group Supply Chain
Notre client, acteur majeur de l'industrie Française, recherche au sein de la DSI leur chef de projet pour piloter le volet IT et déployer la solution sur un périmètre Groupe d'un projet stratégique d'amélioration de la Supply Chain. Rattaché(e) au responsable du Domaine Business Solution Order to Cash, vous aurez également la responsabilité de manager une petite équipe en charge de la maintenance et du support de la solution en production. Vos principales responsabilités seront : En tant que Chef de Projet IT, sous la responsabilité fonctionnelle du directeur Projet Supply Chain Planning: o Organiser, planifier et suivre l’avancement des travaux IT, o Coordonner l’ensemble des acteurs IT impliqués (ressources internes et externes dont des équipes de développement off-shore, des équipes IT locales dans les pays assurant les développements sur les ERP à connecter à ANAPLAN) o Gérer le Budget IT du Projet , o Animer un Comité de Pilotage IT, o Mettre en place l’organisation pour assurer le RUN de la solution. En tant que responsable du Secteur Supply Chain Planning, au sein de l’équipe Business Solution Order to Cash: o Piloter le Support et la Maintenance des solutions Supply Chain Planning o Participer aux projets de déploiement o Animer la relation IT/métier sur le périmètre Supply Chain Planning
Offre d'emploi
Ingénieur réseau - Nancy / CDI
Réaliser des qualifications d`équipements (routeurs, commutateurs, firewalls et répartiteurs de charge). Créer des maquettes selon les dossiers d`architecture, configurer les équipements et valider les fonctionnalités en conditions de production. Rédiger des documents techniques (dossiers d`installation, rapports de qualification, dossiers de mise en production). Assurer le support de niveau 3 auprès des équipes de production sur les périmètres qualifiés (gestion des problèmes). Intervenir en astreinte pour certaines opérations programmées ou sur des horaires décalés ponctuels.
Offre d'emploi
TechLead Data GCP
Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Mission freelance
Architecte Technique Cloud Expert
Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.
Mission freelance
Data Cloud Architect
En tant que membre de l'équipe Data Capture, ce poste requiert une solide expertise technique et architecturale, ainsi qu'une expérience pratique significative dans les technologies Cloud, le développement de microservices et l'architecture pilotée par les événements (Event Driven Architecture). Il implique également une collaboration étroite avec les équipes informatiques du Groupe s, les partenaires métiers, les partenaires externes et tous les membres de l'équipe d'intégration. Objectifs et livrables : Concevoir et proposer des solutions autour des données en utilisant les technologies Azure Cloud dans notre cadre de travail Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" conformément aux meilleures pratiques architecturales Concevoir et développer des API/microservices pour enrichir notre cadre de solutions Soutenir la stratégie d'architecture pilotée par les événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Participer à la modernisation et à la sensibilisation technologique au sein de l'équipe Data Capture et dans l'organisation Data & Analytics Être le référent au sein de l'équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des exigences Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l'équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l'évolution de Data Capture Challenger et accompagner les fournisseurs externes
Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Développeur Full Stack NodeJS / ReactJS/VueJS - Lille - F/H
En tant que développeur fullstack, au sein d’une équipe agile pluridisciplinaire, intervenant sur une stack node js/ReactJS, vous aurez la responsabilité de construire et d'améliorer l'accessibilité et la web performance du site internet. Vos responsabilités : Collaboration avec les différentes parties prenantes de l’équipe (produit et transverse) afin de concevoir de la meilleure manière les solutions techniques ; Développement back sur un environnement node js Développement front dans un environnement Typescript/ReactJS avec du Next JS Étude et spécification fonctionnelle en amont du développement pour intégrer au mieux le développement dans le contexte du produit ; Participer et intervenir dans des ateliers techniques de conception et architecture ; Garant de la qualité du code produit, vous interviendrez autant en build qu’en run dans un esprit : you build it, you run it !
Offre d'emploi
Développeur FullStack java - F/H - Lille
En rejoignant notre pôle d’expertise de développeurs, vous serez amené(e) à : Concevoir et développer des fonctionnalités, composants et services d’une application ou plateforme web. Participer activement à la conception et au développement de la nouvelle solution (de la conception à la réalisation); Contribuer aux choix techniques / fonctionnels et challengez vos pairs sur ces derniers; Assurer les niveaux de qualité, sécurité et performances attendus en faisant de le revue de code produit par vos pairs; Effectuer régulièrement de la veille technique et partagez vos connaissances.
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Offre d'emploi
DATA ENGINEER GCP
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.