Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data engineer
Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2
Offre d'emploi
Développeur - Ansible
Nous recherchons un Développeur d'outils d'automatisation pour rejoindre notre équipe technique. En tant que membre clé de notre équipe, vous serez responsable de la conception, du développement et de la mise en place de solutions d'automatisation à travers des outils comme Ansible. Vous interviendrez sur l'ensemble du cycle de vie des projets d'automatisation, depuis l'analyse des besoins jusqu'à la mise en production. Missions : Concevoir et développer des solutions d'automatisation pour améliorer l'efficacité des processus internes. Rédiger, tester et maintenir des playbooks Ansible pour l'automatisation des tâches courantes. Participer à l'intégration des outils d'automatisation dans l'infrastructure existante. Identifier et résoudre les problèmes d'automatisation tout en assurant la stabilité du système. Travailler en collaboration avec les équipes DevOps et Infrastructure pour intégrer des solutions d'automatisation dans les pipelines de CI/CD. Analyser les besoins des utilisateurs et définir les spécifications techniques des outils à développer. Assurer le suivi et l'évolution des solutions d'automatisation en fonction des retours utilisateurs. Garantir la documentation technique des outils et des processus d'automatisation. Participer à l'amélioration continue des processus d'automatisation et de l'architecture d'infrastructure.

Offre d'emploi
DEVELOPPEUR PYTHON F/H | STRASBOURG (67)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Analyser les applications existantes développées en Python Renforcer la sécurité des développements en identifiant et appliquant les meilleures pratiques en matière de protection des applications et des bibliothèques Standardiser l’usage des outils et encadrer leur adoption grâce à une veille technologique active et au suivi des recommandations Développer et mettre en place une solution d’intégration et de déploiement continus (CI/CD) dédiée aux projets Python Accompagner les équipes dans son utilisation. Contribuer à la normalisation des images utilisées dans le cloud privé. Environnement Technique : Python, Pycharm, Visual Code Studio, Unix, Windows, WSL2, Jenkins, CloudBeed CI/CD, Kubernetes, Openshift, Shell, Powershell Le poste est basé à Strasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier d 'un jour de télétravail par semaine après votre période d'intégration (~environ 3 mois).
Offre d'emploi
Administrateur système expérimenté Dynatrace - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Administrateur/trice système avec une expérience confirmée en administration Dynatrace MISSIONS PRINCIPALES : Participer à l'amélioration et à l'automatisation des processus d'administration système Assurer le suivi des performances et la gestion proactive des ressources Coordonner les mises à jour et garantir la stabilité des versions de Dynatrace Participer à la conception et au déploiement des architectures GateWays locales et clusters Assurer la gestion des droits et des accès utilisateurs

Mission freelance
Consultant DevSecOps administrateur Gitlab
Consultant DevSecOps administrateur Gitlab (pas utilisateur) Ses missions sont: - Expertise technique sur le produit Gitlab (incluant Gitlab-CI) et les pratiques associées afin de gérer les montées de version, les changements d'architecture, le support N3. - Maitrise des socles Linux, Windows, Docker et Openshift. - Documentation les solutions (How to, maintenance fonctionnelle et technique). - En support du déploiement de la solution auprès des clients. Compétences demandées : OS : • Red Hat • Linux • CentOS Technologies : • Kubernetes • Openshift • VMware • Terraform Plates-forme : • Ansible • Apache Kafka • Atlassian • JFrog Artifactory / Xray Outils : • Atlassian Jira, • Docker • Grafana, • HashiCorp Vault • Jenkins • OpenShift • Prométhéus • SonarQube BDD : • PostgreSQL • Mongo DB Langage de programmation (build) : • Java • Python • .Net (.net Core & .Net Framework) • JS

Offre d'emploi
Consultant Data Engineer
Missions: Modéliser et structurer des bases de données en fonction des besoins analytiques. Implémenter des DAGs en python pour alimenter les entrepôts de données. Contribuer à la définition et l’optimisation des normes de développements de l’équipe Data Automatiser et enrichir les contrôles permettant de garantir la fiabilité des données alimentées. Réaliser la documentation fonctionnelles. Réaliser la documentation technique. Contribuer à la définition et l’exécution des plan de tests pour valider le bon fonctionnement des DAGs et assurer la cohérence et fiabilité des jeux de données. Maintenir les entrepôts de données. Participer à la mise en place de tableaux de bord Préparer, suivre les phases d'homologation et de déploiement des réalisations. Assurer un support technique et fonctionnel auprès des équipes métiers sur l'utilisation des données et des outils analytiques. Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils). Livrables: Documentation technique Cahiers de tests Note de recommandations pour améliorer l’efficacité des DAGs DAGs Guides de bonnes pratiques
Offre d'emploi
Développeur Python Interfaces Cloud (H/F)
Au sein d'une équipe de 5 personnes et rattaché au responsable du service FinOps au sein de la BU Cloud d'un des plus gros éditeurs de logiciel Européen, vous interviendrez en tant que Développeur Python afin de connecter les différents cloud utilisés par la société, récupérer certaines données et les stocker sur un Hub unique. La plateforme d'analyse ouverte unifiée permettant de générer, déployer, partager et gérer ces données de l'entreprise est la plateforme Azure Databricks. Vous devrez ensuite utiliser Power BI pour analyser et mettre en visibilité ces données. Les compétences pour ce poste sont les suivantes : - La connaissance et compréhension des API est indispensable. - La maîtrise du langage Python est également indispensable. - La connaissance et gestion de Power BI est un vrai +. - Des connaissances dans la gestion et l'utilisation de bases de données sont fortement recommandées. - La connaissance de la plateforme Azure Databricks n'est pas obligatoire, une formation sera réalisée en interne à ce sujet.

Offre d'emploi
DevOps-DataOps(Apache Spark)
Contexte : Dans le cadre d’un projet stratégique pour une banque de renom, nous recherchons un DevOps-DataOps pour automatiser et industrialiser les pipelines de données. Ce rôle exige une expertise avancée dans la gestion des environnements Kubernetes on-premise , ainsi qu’une forte compétence sur Apache Spark pour des traitements de données à grande échelle. Missions Principales : Installer, configurer et gérer des clusters Kubernetes on-premise , en assurant leur haute disponibilité et leur scalabilité ; Intégrer Kubernetes avec des outils de traitement de données tels qu’Apache Spark , en optimisant les performances et la résilience des pipelines de données ; Déployer et gérer des microservices et des workflows complexes sur Kubernetes, en assurant leur intégration fluide dans des pipelines CI/CD ; Automatiser le traitement des données avec Apache Spark (PySpark, Spark SQL, Spark Streaming), tout en optimisant les performances des jobs et leur interaction avec des plateformes comme Databricks ou EMR ; Concevoir et déployer des pipelines CI/CD robustes (Jenkins, GitLab CI, ArgoCD) pour des flux de données critiques, incluant des processus d’automatisation des tests et des déploiements ; Implémenter des solutions de monitoring avancées pour Kubernetes et Spark (Prometheus, Grafana, CloudWatch), en mettant l’accent sur le scaling automatique et la gestion proactive des performances ; Déployer des stratégies de sauvegarde et de restauration des données, en garantissant la résilience des systèmes face aux défaillances.

Mission freelance
Ingénieur Cloud & Production IT
Missions Dans le cadre d’un projet pour un client du secteur du luxe , nous recherchons un Ingénieur Cloud & Production IT spécialisé sur Azure et GCP , avec une forte expertise en gestion des infrastructures Cloud et en automatisation des services. La mission est composée à 80 % de RUN (OS / Cloud) et à 20 % de DevOps . Vos tâches seront les suivantes : Gestion des infrastructures Cloud : Administration et exploitation des services IaaS et PaaS en collaboration avec les partenaires Cloud. Supervision et gestion des serveurs Windows (90%) et Linux (5%) sur Azure (85%) et GCP (10%) . Maintien en condition opérationnelle de niveau 3, en lien avec les hébergeurs et infogérants. Automatisation et optimisation : Déploiement et gestion des services via Terraform et outils CI/CD . Rédaction et mise à jour des documents techniques (DINS, DEX, cahiers des charges, documentation d’architecture et d’exploitation) . Support et amélioration continue : Identification et mise en œuvre d’améliorations sur les infrastructures existantes. Participation à l’élaboration des bonnes pratiques ITIL pour optimiser l’exploitation Cloud.

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Offre d'emploi
Profil CI CD automatisation de test
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons le profil suivant : Administrer les environnements de tests, de développements et de préproduction, en garantissant leur disponibilité et leur stabilité. Compétences techniques Maîtrise des outils de CI/CD - Confirmé - Important Maitrise des outils de surveillance et de loggin - Confirmé - Important Connaissance des outils d'automatisation des tests - Confirmé - Important Bonne connaissance de Linux et Windows - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Ce poste consiste à gérer et à maintenir les environnements de test, de développement et de préproduction, en garantissant leur disponibilité et leur stabilité. Une expérience sur l'automatisation des tests est requise, expérience de 4 à 10 ans. Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD* Nombre de jour souhaitable sur site 5 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Mission freelance
Service Owner (H/F)
Service Owner – Infrastructure et BI Contexte et rôle Nous recherchons un Service Owner expérimenté pour piloter et garantir le bon fonctionnement des projets techniques liés à l’infrastructure et à l’environnement décisionnel (BI). Ce poste exige une forte capacité à allier gestion de projet technique, adaptabilité à des outils variés, et supervision des opérations de RUN. Expérience requise : 5 ans minimum d’expérience dans un rôle similaire. Responsabilités principales 1. Gestion de projet technique (Build 80%, Run 20%) Piloter des projets d’infrastructure technique en collaboration avec les équipes de production. Gérer les priorités en cas de multiples incidents, en s’appuyant sur les ingénieurs de production pour résoudre les problèmes. Analyser les retours d’expérience (REX) et comprendre les actions correctives mises en œuvre. Maintenir une vision stratégique et prendre de la hauteur sur les sujets complexes. 2. Supervision de l’environnement décisionnel (BI) Gérer les projets BI en maîtrisant plusieurs outils du marché : Power BI, Tableau, Talend, Looker, Cognos , etc. Adapter rapidement ses compétences aux différents outils selon les besoins du projet. Apporter une culture solide en BI pour concevoir des tâches et des processus analytiques efficaces. Idéalement, avoir une expérience ou des connaissances sur Snowflake . 3. Suivi opérationnel (RUN) Garantir le bon fonctionnement des solutions sur son périmètre. Être à jour sur les incidents en production, suivre les actions des équipes techniques et communiquer efficacement avec les parties prenantes internes et externes. Servir de point de contact et porte-parole auprès des clients internes (notamment les équipes DIA), avec des points réguliers pour faire état des opérations. 4. Documentation Produire, mettre à jour et structurer des documents techniques et fonctionnels. Avoir une appétence pour la documentation claire et rigoureuse, afin de faciliter la collaboration et la continuité des projets.
Offre d'emploi
un Développeur C# .NET/React Js
🚀 Nous recrutons un Développeur C# .NET pour notre équipe ! 🚀 Vous êtes passionné par le développement et maîtrisez l'écosystème .NET et ReactJS ? Rejoignez-nous pour concevoir et déployer des applications robustes en approche agile ! 🎯 Vos missions : Développement, tests et documentation Code review et support technique dans la gestion des incidents Contribution à la chaîne CI/CD et aux choix technologiques Développement d’API et de composants en .NET Core 6, déploiements avec GitLab Votre profil : Expertise en C#/.NET Core, SQL Server et ReactJS Expérience en CI/CD (Git, GitLab, Octopus) Connaissance des normes de sécurité (OAuth2, JWT) et de l’architecture microservices Vous travaillez en mode agile (Scrum, Kanban) Si ce défi vous intéresse, postulez dès maintenant ! 🎯

Offre d'emploi
Lead SAP SD
RÔLE & RESPONSABILITÉS Devenir un référent fonctionnel sur le domaine des ventes. Développer une compréhension approfondie des processus métier et de la stratégie de l'entreprise grâce à une collaboration étroite et un engagement régulier avec les parties prenantes clés et les responsables des processus métier. Identifier les améliorations clés et veiller à ce que les bonnes pratiques soient bien adoptées. Collaborer avec les autres équipes pour assurer l’intégration et la cohérence des processus de bout en bout. Participer et/ou diriger des sessions de conception, des démonstrations, des prototypes, ainsi que des ateliers de tests et de formation avec les utilisateurs métier. Guider l'équipe de développement pour concevoir, configurer et mettre en œuvre la solution afin de répondre aux exigences métier. ➡ Toutes ces responsabilités vous offriront de réelles perspectives d'évolution vers d'autres postes au sein du département IT ou dans les activités de l'entreprise. PROFIL Plus de 6 ans d'expérience sur le module SD et une bonne compréhension des modules de la chaîne d'approvisionnement. Solide expérience en configuration, capacité à déterminer quand utiliser la configuration plutôt que du code, ainsi que des compétences avancées en résolution de problèmes. Capacité à évaluer l'impact des nouvelles exigences sur une solution existante. Capacité à traduire des spécifications fonctionnelles en documents de conception technique, à fournir des estimations et à livrer les fonctionnalités attendues. Expérience réussie du travail en équipe requise. Capacité à s’adapter facilement à un environnement flexible et international. Aptitude démontrée à communiquer efficacement, tant à l’oral qu’à l’écrit, à tous les niveaux de l’organisation. Maîtrise de l'anglais et du français avec une expérience opérationnelle dans un environnement international. Le poste est basé à Paris La Défense et pourra nécessiter des déplacements professionnels. FORMATION Master en commerce, informatique, systèmes d’information ou autre domaine connexe requis. Une certification SAP est appréciée.
Offre d'emploi
DATA ANALYST POWER BI ( avec 2-3 ans d'Expérience ! H/F)
Au sein du Département Marketing et Veille stratégique du groupes, l’équipe Digital and Payments met de la science dans l’art des pratiques business, dans un contexte où il est nécessaire de s’adapter à des outils DATA en constante évolution, apprendre des best in class et saisir les opportunités data en terme d’innovation. Le Data Analyst interviendra principalement sur l’accompagnement des phases d’avant-vente et sur l’implémentation d’analyses à destination de sociétés, clientes. La ressource recherchée pourra le cas échéant intervenir sur la partie Observatoires, pour mettre à disposition des visions enrichies du marché, des tendances pour aider la prise de décisions et favoriser les initiatives sur les axes stratégiques majeurs, grâce à une meilleure autonomie dans la consommation de data. Description : • Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données • Fournir un appui analytique à la conduite d’exploration et à l’analyse complexe de données • Créer des algorithmes de recherche de données qui permettent d'explorer les données utiles • Procéder aussi à l'industrialisation du procédé pour les données les plus intéressantes. Et organiser, synthétise et traduit les informations pour faciliter la prise de décision. • Gérer les opérations et l'administration, la modélisation et l'architecture des gisements de données. Et s'assurer que les bases de données existantes fonctionnent bien et en cohérence • Donner un sens aux données à l’aide de ses connaissances analytiques (SQL, analytics/BI, statistiques basiques) • Travailler en collaboration avec le management pour résoudre des questions business en se focalisant sur l’analyse du passé
Offre d'emploi
Data Engineer QuickSight AWS
Nous recherchons un profil Data Engineer Quicksight AWS pour travailler sur la plateforme BI d'un client du secteur du retail. La mission a pour but de transformer l'expérience des équipes de développement en optimisant l’utilisation des outils de delivery. Pour piloter les activités, le client a développé une solution interne basé sur Amazon Quicksight . Le but étant de suivre les indicateurs de qualité et DevSecOps de l’organisation. Objectif : Construire des rapports avec Quicksight sur le cloud pour des donnés de cybersécurité. Responsabilités principales : Collecter les Flow Metrics des Feature Team et les publier sur l’outil interne. Définir le besoin et configurer la collecte de donnée, les datasets et la représentation dans les dashboards Améliorer l’expérience des utilisateurs de l’outil interne en proposant les Topics pour créer des Visuals Quicksight en langage naturel, en intégrant des modèles prédictifs via SageMaker , en proposant une expérience conversationnelle avec AWS Bedrock .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.