Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.
Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.
Mission freelance
Testeurs Recetteurs Data Echanges
Contexte de la mission : En tant que Testeur Recetteur Echanges vous interviendrez en support au métier sur tous les flux "Data" de notre client. MISSIONS : • Réalisation de recettes techniques sur des traitements de fichiers de données de type XML, JSON, BDD, CVS • Utilisation des outils permettant d'exploiter des protocoles SFTP, HTTPS, JMS, KAFKA, JDBC, CFT, SMTP • Capacité d'analyse et de diagnostique en cas de problème sur des traitements d'échanges • Rédaction de cahier de tests sur la base de spécifications • Travail sur Système d'exploitation Windows et Linux
Offre d'emploi
Architecte Data & Solution
🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.
Mission freelance
Data Business Analyst F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.
Mission freelance
Développeur NodeJS/ REACTJS confirmé
Nous recherchons un développeur NodeJs/ ReactJs Confirmé pour rejoindre notre client final à Lille. Le candidat est responsable de définir et promouvoir les bonnes pratiques de développement et d'architecture, tout en garantissant la stabilité, la performance et l'évolutivité du périmètre technique. Il joue un rôle clé dans la conception des versions futures du logiciel, l'architecture applicative. Il contribue à améliorer la cohérence et la qualité de l’équipe, tout en participant activement aux rituels Scrum et en veillant à la montée en compétences des nouvelles recrues.
Offre d'emploi
Business Analyst H/F
NOOEH Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Marseille un.e Business Analyst. Vous serez en charge de l’analyse des besoins et de la documentation des exigences pour des projets de solutions de terminaux. En tant qu'analyste d'affaires, votre objectif est de comprendre et d'évaluer les besoins et les procédures du terminal et de documenter les exigences du projet (implémentation, migration ou mise à niveau de la solution de terminal) en coordination avec toutes les parties prenantes concernées en utilisant les normes de diagramme BPMN. En fonction de votre expérience, vous êtes censé fournir des recommandations pour répondre aux besoins. Responsabilités : Définition des besoins commerciaux : comprendre, collecter, analyser et remettre en question les besoins fonctionnels des utilisateurs et traduire les besoins pour la solution de terminal Définition des processus commerciaux tels quels et à venir : définition du nouveau processus commercial, des impacts sur les processus existants et des KPI ciblés Spécifications commerciales Rédaction des spécifications commerciales, intégration des contraintes de mise en œuvre dans le système d'information et accompagnement du déploiement des solutions. Analyse des besoins de l'entreprise et production des modèles de flux de processus requis Identification de toutes les exigences d'interface requises pour la solution de terminal avec des solutions tierces (ERP, EAM/CMMS, PCS, etc.) Processus de sélection des appels d'offres Production de tous les documents d'exigences de la solution de terminal nécessaires au processus de sélection de la solution de terminal Évaluation des propositions de solution de terminal Examen détaillé des spécifications Participation aux ateliers d'analyse des écarts avec l'équipe locale et les fournisseurs Examen des spécifications détaillées et des spécifications de produit fournies par les fournisseurs et les fournisseurs de solutions Définition, exécution et suivi du plan de test Définition du plan de test et des stratégies de migration des données Assurer l'exactitude des plans UAT ainsi que la bonne exécution des activités UAT Interagir avec les experts opérationnels pour fournir un travail testé et de haute qualité qui répond aux exigences convenues S'assurer que les résultats UAT répondent à toutes les exigences opérationnelles et fonctionnelles de la solution de terminal Gestion du changement Soutenir l'équipe locale du terminal dans la mise en œuvre de la gestion du changement (mise en œuvre de nouveaux processus, formation des personnes de l'UAT à la mise en service).
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Offre d'emploi
Ingénieur Devops Openshift H/F
AMAGO IT recherche dans le cadre d'une prestation de longue durée pour un client GC : un Ingénieur Devops Openshift H/F Accompagner les équipes opérationnelles en charge du support et de l'administration de la forge (mise à jour, redémarrage de services, ..) Administration des clusters Openshift Assurer la gestion des incidents et des changements Optimiser les fichiers de configuration (Helm, Gitlab, Docker) Scripting bash Administration gitlab, sonarqube, ArgoCD, Nexus Administration Système Linux veille et bonne connaissance sur les outils CI/CD
Offre d'emploi
Ingénieur Sysops Cloud AWS
Amago IT recherche dans le cadre d'une prestation de longue durée pour un client grand compte : Ingénieur SysOps Cloud AWS H/F L’ingénieur SysOps AWS a pour mission de mettre à disposition l’infrastructure cloud public du socle, à l’aide d’outillage CI/CD (intégration continue et développement continu) et de IaC (Infrastructure as Code). Il a également pour mission le maintien en conditions opérationnelles du socle technique d’infrastructure mis en place. -Création d'infrastructure sur le Cloud AWS (machine, load balancer, gateway, ...) -Déploiement avec terraform et automatisation des déploiements d’infrastructure (IAC) - Automatisation de la chaîne CI/CD -Support technique sur les incidents techniques (alertes de supervision, incidents utilisateurs...) -Création et/ou mise à jour de la documentation technique -Sens du travail en équipe (bonne coordination avec le Tech Lead et les services Support) -Respect des normes et méthodologies internes
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Offre d'emploi
Expert DevOps
Description de la mission Ø Accompagner, faire monter en compétence les équipes Run Ø Définir les bonnes pratiques du DevOps Ø Etre l’interlocuteur privilégié des experts SAS Ø Être force de proposition dans l’amélioration et l’optimisation des applications existantes Ø Mise en place des CI-CD des projets, garant de la qualité des livraisons et de la documentation Ø Animation (Ateliers / suivi de l’avancement des tâches / . . .) Ø Capacité relationnelle et rédactionnelle en français et en anglais
Mission freelance
CLOUD analyst - Azure AWS Finops
PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
Offre d'emploi
Business Analyst Technico-Fonctionnel Data
recrute pour le poste de 𝗕𝘂𝘀𝗶𝗻𝗲𝘀𝘀 𝗔𝗻𝗮𝗹𝘆𝘀𝘁 𝗧𝗲𝗰𝗵𝗻𝗶𝗰𝗼 𝗙𝗼𝗻𝗰𝘁𝗶𝗼𝗻𝗻𝗲𝗹 𝗗𝗮𝘁𝗮 ! 💻 - 𝗜̂𝗹𝗲-𝗱𝗲-𝗙𝗿𝗮𝗻𝗰𝗲 𝗖𝗼𝗺𝗽𝗲́𝘁𝗲𝗻𝗰𝗲𝘀 𝗿𝗲𝗾𝘂𝗶𝘀𝗲𝘀 Maîtrise de SAS et des bases de données Oracle Compétences en analyse de données Bonne communication, capacité d'adaptation rapide Expérience dans la rédaction de spécifications fonctionnelles Validation de tests Quelques avantages : · RTT · Télétravail · Prise en charge des transports en commun à hauteur de 100% · Carte Ticket Restaurant · Management de Proximité de tous nos collaborateurs N'hésitez pas à postuler et rejoindre une équipe dynamique et innovante ! 📍 Localisations : Île-de-France Envoyez nous votre candidature dès maintenant !
Offre d'emploi
Ingénieur Intégration Azure - CDI - (H/F)
1) CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte du Transport un(e) Ingénieur Intégration. Dans le cadre de la mise en œuvre d’un programme de transformation de digitalisation des processus métier et de modernisation du SI de la société cliente, celle-ci déploie une nouvelle plateforme d’intégration (ANAE). Cette plateforme a pour objectif de supporter les besoins d’intégration liés à des projets stratégiques de grande ampleur, notamment le remplacement de leur ERP et CRM, ainsi que l'extension de leurs solutions SIRH. L'ingénieur intégration contribuera à la mise en place de cette plateforme en s'appuyant sur les technologies Azure pour garantir une architecture robuste et flexible. 2) MISSIONS PRINCIPALES : Le Tech Lead Intégration aura la charge de : Concevoir et développer des solutions d'intégration basées sur les technologies Azure (API Management, Logic Apps, Service Bus). Assurer l'orchestration des flux de données entre les différents systèmes d'information en utilisant des solutions de type Enterprise Service Bus (ESB). Implémenter les patterns d'intégration (publish / subscribe, message routing, etc.) selon les meilleures pratiques. Garantir la performance et la sécurité des solutions mises en place. Rédiger des spécifications techniques claires et précises, en tenant compte des besoins métiers et des contraintes techniques
Offre d'emploi
Tech Lead Ingénieur Intégration Azure - CDI - (H/F)
1) CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte du Transport un(e) Ingénieur Tech Lead Intégration. Dans le cadre de la mise en œuvre d’un programme de transformation de digitalisation des processus métier et de modernisation du SI de la société cliente, celle-ci déploie une nouvelle plateforme d’intégration (ANAE). Cette plateforme a pour objectif de supporter les besoins d’intégration liés à des projets stratégiques de grande ampleur, notamment le remplacement de leur ERP et CRM, ainsi que l'extension de leurs solutions SIRH. Dans ce contexte, le profil jouera un rôle clé dans la réalisation des intégrations tout en veillant au respect des patterns d'intégration définis pour le projet, et en garantissant la bonne mise en œuvre des technologies Azure et des principes d'architecture ESB. 2) MISSIONS PRINCIPALES : Le Tech Lead Intégration aura la charge de : Encadrer techniquement une équipe d'ingénieurs intégration. S'assurer de l'implémentation correcte des solutions d'intégration, en respectant les patterns d'intégration définis (publish / subscribe, message routing, etc.). Participer activement à la conception et à la réalisation des intégrations complexes sur les technologies Azure (API Management, Logic Apps, Service Bus). Auditer les réalisations de l'équipe pour garantir la conformité aux principes d’architecture ESB. Proposer des solutions techniques optimisées et s'assurer de leur bonne mise en œuvre. Superviser l’usage des pipelines CI/CD via Azure DevOps et garantir un déploiement fluide et sécurisé. Apporter une expertise technique sur l'ensemble des technologies Azure utilisées dans le cadre du projet. Participer à l'amélioration continue des processus d'intégration et des pratiques de développement au sein de l'équipe. Rédiger et valider les spécifications techniques et la documentation d'intégration.
Mission freelance
Ingénieur DevOps - CICD
Nous recherchons une personne dynamique et souriante ayant une bonne maitrise des pratiques DevOps, des connaissances solides en CICD et des appétences pour le développement GO . Prestations attendus : Les prestations seront à réaliser au sein de l'équipe d'excellence opérationnelle (CEO) et feront fortement appel aux compétences de développement et d'ingénierie de la personne assurant les prestations. • Maintenance et mise à disposition des outils utilisés par les équipes de la Direction Technique du Numérique (Gitlab, Nexus, SonarQube, Argo, Vault) • Maintenir, opérer et superviser toute la CI / CD, (Gitlab + flotte de runners) • Développer et maintenir nos outils & librairies interne (language Go) • Conseiller, former & accompagner les équipes de la DTNOC o (Mise en place de la CI des projets, bonnes pratiques de développement, méthodologie et organisation d'équipe) Environnement de travail : ✓ Poste de travail : Linux / Mac OSX / Windows ✓ Méthodologie : Agile / Scrumban ✓ Outils : Git / GitLab / Terraform / Ansible / Kapitan / Helm / Argo ✓ Langages : Go, Yaml, Bash, Python ✓ Infrastructure applicative : Micro-Services / API First / RabbitMQ / PostgreSQL / Prometheus / Varnish / CDN / Vault ✓ Infrastructure système : Linux / Multi Cloud (AWS/GCP/Azure) / Kubernetes / Docker Compétences requises : • Maîtrise d’au moins un langage de programmation courant tel que Go, Python, Php ou Node • Connaissance approfondie des systèmes d'exploitation Linux/Unix • Connaissance approfondie de Kubernetes • Expérience en automatisation et en déploiement d’infrastructure en tant que code (IaC & GitOPS) avec des outils tels que Terraform, Ansible, Helm, ArgoCD ou Flux • Compréhension des principes de l'architecture distribuée et du design des services • Compétences en débogage et en résolution de problèmes complexes à grande échelle • Capacité à gérer et à surveiller les performances des applications et des infrastructures • Compétences en gestion de la capacité, de la scalabilité et de la résilience des systèmes Expérience requise : • Expérience significative en tant qu'ingénieur DevOps, ingénieur système ou développeur logiciel • Connaissances approfondies des méthodologies de développement Agile et des pratiques DevOps • Participation à la mise en place de processus d'observabilité, de monitoring et de gestion des incidents • Expérience dans la gestion de la disponibilité et de la performance des systèmes en production Formation : • Niveau d’étude Bac+4 ou équivalent. o Diplôme universitaire en informatique, génie logiciel ou domaine connexe o Formation en administration système ou en réseau • Certifications pertinentes telles que AWS Certified SysOps Administrator, Certified Kubernetes Administrator (CKA), ou Google Cloud Certified - Professional Cloud DevOps Engineer
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.