Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
AWS Plateform Engineer
Nous recherchons un AWS Plateform Engineer Mission : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de TotalEnergies de developper et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Développera des modules Terrraform et pipeline CICD pour deployer/configurer/gouverner l’infrastructure (aucun déploiment sera fait manuellement via la console AWS). “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Environnement : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services)) Python Shell AWS Identity (IAM, Fédération) Operate an AWS organization with hundreds of AWS accounts Github Actions and Repository Confluence / Jira Postman / Bruno SRE (Backup, Monitoring, CloudWatch, Prometheus, Grafana, Chaos monkey, SLA, SLO, etc.) CDKTF Events Driven Solutions (EventBridge, Step Functions) Git aws-cli Cybersecurity (AWS Network Firewall, WAF, SecurityHub, Config, CloudTrail, SCP, RBAC, ACM) Terragrunt Terraform (+Provider aws) FaaS (Lambda), IaaS (SSM, EC2) Network (Routing, Peering, IPAM, Direct Connect, VPN, DNS) finops
Offre d'emploi
Data Manager – Driver Monitoring System (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : - Collecter et stocker des données issues de disques durs provenant des véhicules (volumes massifs, incluant des vidéos en streaming). - Assurer l'archivage et estimer les coûts liés au stockage long terme des données. - Superviser le transfert des données vers les différents sites clients. - Garantir la conformité RGPD dans toutes les opérations de gestion des données. - Intégrer les données dans des bancs de test pour la validation du système. - Évaluer et mettre en œuvre des solutions Cloud (GCP, AWS, Azure).
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Mission freelance
Freelance - Architecte DevOps Sénior H/F
En tant qu'Architecte DevOps Senior, vous jouerez un rôle clé dans la transformation technique et organisationnelle de notre SI. Vous serez amené(e) à : Collaborer avec les équipes Infrastructure et Logiciel pour assurer le Maintien en Condition Opérationnelle (MCO) du SI tout en optimisant les architectures techniques ON-PREM et CLOUD . Maintenir et améliorer la chaîne CI/CD , en garantissant sa robustesse, sa fiabilité et sa scalabilité. Concevoir et industrialiser des infrastructures DevOps modernes, incluant le provisioning réseau, la sécurité, et les infrastructures sous-jacentes. Travailler en synergie avec les équipes Cybersécurité pour garantir un environnement sécurisé et conforme. Assurer la cohérence des choix architecturaux en étroite collaboration avec les architectes DEV et OPS . Participer activement à la résolution des incidents de production, en analysant les causes et en proposant des solutions durables.
Offre d'emploi
DATA ENGINEER APACHE/FLINK
Nous recherchons un(e) Ingénieur(e) Data/Expert(e) Apache Flink passionné(e) par le traitement de données en flux et par lots. Vous serez chargé(e) de contribuer au développement, à l’optimisation et à la maintenance d’applications Apache Flink, tout en collaborant étroitement avec des équipes multidisciplinaires. Ce poste vous permettra de travailler sur des projets stratégiques liés au traitement des données, en garantissant des performances élevées, une grande évolutivité et une fiabilité optimale des applications Flink en production. Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique. Profil recherché Expertise technique : Maîtrise d’Apache Flink pour le traitement par lots et en flux. Excellentes compétences en programmation : Java ou Scala, et SQL. Bonne connaissance des technologies Big Data : Hadoop et Spark. Expérience confirmée dans l'utilisation des services de données AWS. Expérience professionnelle : Participation à des projets de production avec Apache Flink. Démonstration de la capacité à optimiser des pipelines Flink pour des performances élevées.
Offre d'emploi
Data Analyst (H/F)
Contexte • Mission : Support transverse pour améliorer la performance opérationnelle des métiers via la valorisation des données. • Objectifs : Maintenir et développer des tableaux de bord Power BI pour des besoins métiers variés, améliorer la qualité des données et sensibiliser les métiers à leur importance. • Livrables attendus : Tableaux de bord Power BI, alertes qualités ciblées, vues / datasets spécifiés pour développement par le Data Engineer, et plans de test pour recette, supports et comptes-rendus des réunions avec les métiers, reporting projet, documentation des tableaux de bord, des règles qualités, des règles métiers, des erreurs rencontrées en production. • Lieu et télétravail : Montpellier, 3 jours sur site / 2 jours de télétravail • Début : Entretiens à partir du 03/01/2025.
Offre d'emploi
Développeur progiciel STEP
DÉBUT DE MISSION : 06/01/2025 DURÉE : 220 jours LIEU : Mode hybride – Minimum 2 jours sur site Nous recrutons pour le compte de l’un de nos clients un Développeur Progiciel STEP pour rejoindre une équipe dédiée à un programme de modernisation d’applications stratégiques dans le domaine du retail. Descriptif de la mission Vous intégrerez la Feature Team STEP , organisée en mode produit et Scrum, pour travailler sur le progiciel STEP de l’éditeur STIBO et sur des applications associées (ETL, API, Kafka, référentiel fournisseurs, etc.). Dans un contexte de modernisation, vous serez en charge de développer des fonctionnalités métiers à forte valeur ajoutée, tout en participant à la gestion et au décommissionnement progressif du périmètre actuel. Vos missions principales : Analyse : Contribuer à la définition des spécifications générales. Réaliser l’analyse technique et l’étude détaillée. Adapter et paramétrer les progiciels applicatifs (ERP). Réaliser le prototypage. Qualification : Élaborer les jeux d’essais pour les tests unitaires et d’intégration. Effectuer les tests unitaires et corriger les dysfonctionnements. Développement : Réaliser et assembler les modules (objets et composants logiciels). Rédiger des documentations techniques. Maintenance : Assurer la maintenance corrective et évolutive. Mettre à jour et administrer les composants logiciels réutilisables. Livrables attendus : Code documenté et conforme aux référentiels de l’entreprise. Composants performants, respectant les délais et les normes établies. Compétences requises : Expérience avec le progiciel STEP ou, à défaut, expérience sur un PIM/référentiel ou en gestion de données dans le retail. Maîtrise du JavaScript et du XML . Familiarité avec les environnements Gitlab/Github et outils de gestion tels que Jira . Pratique de la méthodologie Scrum (rituels et esprit agile). Bonne maîtrise de l’anglais (lu, écrit, parlé). Profil recherché : Un professionnel maîtrisant son domaine, capable d’allier rigueur technique et agilité, avec une expérience dans des environnements complexes liés à la gestion de données produit.
Mission freelance
📺📻 Product Owner Data Platform secteur médias
📺📻 Pour l'un de nos clients du secteur de l'audiovisuel, nous recherchons une prestation de Product Owner Data. Prestation temps plein de longue durée (15 mois renouvelables 36 mois max) avec 50% de télétravail dans les locaux de notre client à Paris. Data Platform structurée en trois zones pour valoriser les données des produits numériques (streaming et offre d'information). Collecte, nettoyage, centralisation et exposition des données brutes. Transformation des données brutes en informations raffinées pour répondre aux besoins transverses. Exploitation des données raffinées pour des cas d’usage avancés : pilotage, personnalisation, et data science. L’équipe en charge de la première zone est composée d’un PO Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. 1. Collecter et prioriser les besoins - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : Analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinente. - Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes. - Identifier les améliorations en continue sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités. 2. Gestion du Produit - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit - Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec les équipes pluridisplinaires suivantes - Les équipes Data platform : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, - les équipes en charge de la Gouvernance et de la conformité des données. - les Chefs de Projet technique de la direction du Numérique
Mission freelance
Data Engineer
Participer à des projets de data engineering basés sur un framework méthodologique Développer, industrialiser et maintenir des pipelines de données (principalement ETL et ML) Effectuer de l’exploration de données et du prototypage rapide Mettre en application les meilleures pratiques : versioning, tests automatisés, CI/CD Participer activement à l’automatisation des infrastructures basées sur des services de Cloud Computing Implémenter des architectures de type Lakehouse pour casser les silos Déployer des algorithmes de machine learning at scale et sur des flux de streaming Collaborer avec l’ensemble des équipes depuis les spécifications fonctionnelles jusqu’aux validations métiers des solutions implémentées Contribuer à la mise en place de méthodologies Agile de type Scrum
Offre d'emploi
Ingénieur DevOps - Exploitation (H/F)
🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; 🔸 Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; 🔸 Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; 🔸 Réaliser les mises en production ; 🔸 Rendre compte auprès du manager opérationnel 🔸 Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; 🔸 Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client 🔸 Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Ingénieur Intégration SI
Rôle : Ingénieur Intégration SI Concevoir, déployer, documenter et assurer les conditions d’une bonne MCO/MCS lors d’intégrations de systèmes applicatifs d’entreprise (ERP, CRM, PMS, CMS, RH...) dans des environnements cloud privés et publiques. Missions : S'engager avec les parties prenantes, les chefs de projet et responsables métiers, pour convertir les spécifications fonctionnelles en spécifications techniques appropriées. Porter les projets d'intégration, de la conception initiale au go live en veillant à l'alignement sur les objectifs de l'entreprise et les compliances sécuritaires, techniques et réglementaires. Sélectionner et mettre en œuvre les différentes plateformes présentes dans le catalogue de service ingénierie. Documenter les designs (HLD, LLD), codes sources et configurations d'intégration afin de maintenir un haut niveau de transparence et de faciliter le partage des connaissances au sein de équipes. Appliquer les meilleures pratiques en matière de sécurité, de DevOps et de CI/CD au sein de l’écosystème d'intégration. Monitorer et optimiser les intégrations, en travaillant activement à l'amélioration des performances, de la fiabilité et de l'évolutivité. Fournir un support applicatif de Niveau 3.
Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS
Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise
Offre d'emploi
Ingénieur Poste de Travail Windows
Rédiger et mettre en œuvre les spécifications techniques détaillées des OS et des composants techniques pour délivrer les socles Postes de Travail : OS Windows 10 Entreprise, Office 2016 et 365, composants de sécurité, drivers matériels, paramètres de configuration Assurer une cohérence technique avec les équipes techniques à l'international Réaliser les évolutions techniques des composants existants Tester et valider les évolutions dans un environnement de pré-production Livrer au RUN les évolutions et les documentations associées Assurer le niveau 3 avancé du support poste de travail Ajuster le plan de test pour la vérification du bon fonctionnement des évolutions des matrices dans une démarche d'amélioration continue Présenter régulièrement les évolutions aux équipes techniques Internationales pour leur permettre de s'approprier les livrables Définir et mettre en place les processus de fabrication des socles PdT Ajuster / mettre en place les évolutions des moyens de fabrication (OSD, MDT,USMT) Participer aux transformations des moyens d'industrialisation (zéro master, direct provisionning...) Assurer le build to RUN Assurer le support pour la prise en charge des socles par le RUN Assurer le support pour la prise en charge des moyens d'industrialisation par le RUN
Offre d'emploi
Gestion des certificats et IAM -
Titre de la mission : Gestion des certificats et IAM Type de mission : RUN – Long terme (pas de période de fin définie a priori) Contenu de la mission : Début de mission : Certificats à 100% Montée en compétence sur la gestion des certificats du client Traitement des demandes simples de création ou renouvellement de certificats A moyen terme (environ 3 mois) : Certificats/IAM (répartition 50/50) IAM : Traitement de demandes simples (gestion de comptes/droits AD, RACF, partenaires, …) IAM : Réponse aux incidents de l’équipe en binôme A plus long terme (6 mois) : Certificats/IAM (répartition 50/50) IAM : Traitement de demandes plus complexes IAM : Traitement mensuel de réconciliation des départs
Offre d'emploi
Technicien support informatique itinérants H/F
Nous recherchons pour le compte de nos clients, 1 technicien support informatique itinérants H/F au niveau national sur les villes de Rouen, Nantes, Bordeaux et Toulouse, afin d'intervenir sur des incidents informatiques sur les différents sites clients : Assistance aux utilisateurs conformément à la planification journalière Gestion des incidents et demandes conformément au processus mis en place (différents par client) Solides connaissances en réseau requises Savoir changer des switchs, gestion des serveurs, brassage et différents incidents ponctuels en corrélation avec Liste non exhaustive Postes à pourvoir en CDI-C asap sur de la longue durée. Nous accordons une importance primordiale à la protection de vos données personnelles, et nous nous engageons à respecter pleinement les normes et réglementations du RGPD pour garantir votre vie privée et la sécurité de vos informations tout au long de notre processus de recrutement. Vous pouvez demander à tout moment à consulter notre notice d’information sur le traitement des candidatures.
Offre d'emploi
DEVELOPPEUR .NET / DEVOPS F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Rédiger les spécifications techniques Assurer les développements .Net Réaliser les tests nécessaires Participer au delivery Environnement Technique : C#, .Net, .Net Core, , Ansible, Docker, Elastic Search, Kibana, Git, GitHub, Jenkins, Jira, Kubernetes, Oracle, PL/SQL, Sonar, Windows Server, Agile Scrum Le poste est basé à Nantes (44). Dans le cadre de vos fonctions, vous devrez pourrez bénéficier de 2 à 3 jours de télétravail par semaine.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.