Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Trélazé - Référent Fonctionnel N2
SRE - Sous l’autorité du SDM de la prestation, le référent Fonctionnel N2 est un acteur clé dans le dispositif Atos. Il doit être un facilitateur au quotidien et s’assurer notamment de: Exploitation Maintenance et fiabilité des systèmes : Assurer la disponibilité, la surveillance et la maintenance des infrastructures et services critiques. Gérer les incidents et les problèmes, y compris l’analyse post-mortem et l’implémentation des solutions correctives. Automatisation et optimisation : Développer et maintenir des outils d’automatisation pour améliorer l’efficacité opérationnelle. Optimiser les performances des systèmes pour garantir des temps de réponse rapides et une fiabilité élevée. Collaboration et communication : Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques de fiabilité dans le cycle de vie du développement logiciel. Communiquer efficacement avec les parties prenantes sur les problèmes de fiabilité et les mesures correctives. Planification de la capacité et gestion des risques : Évaluer et planifier les besoins en ressources pour soutenir la croissance et l’évolution des services. Identifier et gérer les risques associés à l’infrastructure et aux services. Innovation et veille technologique : Explorer et intégrer de nouvelles technologies et pratiques pour améliorer la fiabilité et les performances. Se tenir informé des dernières tendances et meilleures pratiques en matière de fiabilité des sites
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Data Engineer - SDDS Finance
Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.
Mission freelance
RTE- Scrum Master
CONTEXTE Une structure projet/produit a été définie et se repartie en 4 équipes : • CCoE : En charge de la gouvernance et de la trajectoire • Outillage du développeur : en charge de la mise à disposition des outils pour les différents types de développeurs • Automatisation du déploiement : Mise à disposition des moyens d’automatisation de déploiements d’infrastructures et applicatifs • Infrastructure as Service : Mise à disposition de services managés d’infrastructures, ces services sont regroupés dans un train appelé PCP (Private Cloud Platform). Afin d’accompagner cette transformation, l’objectif de la mission est d’aider, en proximité avec le Product Manager, l’équipe PCP en tant que Release Train Engineer, dans la gestion des backlogs, la coordination entre les équipes, et l’animation des moyens visant au succès des releases (planification/livraison). MISSION : • Participer aux PI plannings et s'engager sur les produits et services à livrer dans chaque release • Garantir la livraison dans les temps des engagements pris • Collaborer étroitement avec les PO concernés pour optimiser la gestion du Product Backlog et la clarification des objectifs associés, et pour que l'équipe atteigne ses objectifs sur chaque itération • Animer/coordonner les backlogs des équipes qu’il/elle accompagne • Gérer les dépendances et la communication avec les parties prenantes • Accompagner les collaborateurs, en s'assurant de leur bonne compréhension des objectifs, du périmètre, de la clarification des User Stories et déclinaison en incréments, dans le traitement des freins et/ou irritants • Planifier, co-animer et faciliter les cérémonies Scrum
Mission freelance
Pessac - Release Manager
Nous sommes à la recherche d'un profil Release Manager (5 ans / 10 ans d'expérience) pour l'un de nos clients RETAIL. Démarrage début janvier 2025, profil bordelais ou habitant Bordeaux obligatoire. Connaissance du retail vraiment appréciée. Description de la mission : Dans le cadre du déploiement d'un outil de gestion commerciale, notre client cherche une personne pour piloter la validation des versions (évolutions et incidents) Profil recherché : Niveau d'expérience 5-10 ans Connaissance du retail
Mission freelance
Machine Learning - Data Engineer
Data Driven , powerBI/Loocker, Compétences techniques Python,Shell, CI/CD, Airflow, Dataflow - Expert - Expert - Impératif AppEngine, FastAPI - Expert - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Stack technique: GIT, GitHub, bigQuery, Finder, PowerBI/loocker Télétravail 2 jours par semaine - 3 jours en présentiel Le projet ne nécessite pas d'astreintes Mission de 1 an Il est donc préférable que le consultant habite dans la métropole lilloise. Utilisation de la Méthode Scrum, Kanban
Offre d'emploi
ingénieur réseau & sécurité (Proxy SKYHIGH)
Nous recherchons pour un de nos clients, un ingénieur réseau sécurité pour renforcer ses effectifs sur le site de Toulouse. Les missions sont les suivantes Expertise N3 sur les infrastructures de Proxy SKYHIGH : architecture, installation, configuration, mise à jour... - Maitrise N2 ou + d’au moins une des technologies suivantes : Firewall Fortinet, F5 LTM, WAF Ubika, sonde Trellix, Cisco ISE, VPN Cisco Anyconnect - Maitrise des concepts et des technologies réseau : INA gère des infrastructures de sécurité, qui doivent s’intégrer dans le réseau BPCE-IT - La connaissance de nos outils d’exploitation est un plus : Service Now, Centreon, Ansible, Python, Jira, Confluence… - Un bon niveau d’anglais oral et écrit En sus des compétences techniques, les qualités attendues sont : - La rigueur d’exécution dans un environnement de production critique, - L’autonomie et la capacité d’analyse sur des situations complexes, - La solidarité et l’esprit d’équipe, - L’envie d’apprendre et d’innover.
Mission freelance
Expert Intégrateur BI - SAP FC
Nous sommes à la recherche d'un Expert Intégrateur BI - SAP FC dans le cadre de la mise en place d’un outil de Dataviz branché en aval de l’outil de consolidation Groupe SAP FC. Profil Technico - Fonctionnel 5 ans d'expérience effective exigée (minimum) dans ces missions. Le projet sera composé de plusieurs volets : Volet principal Outil de BI comprenant : - La mise en place d’un outil de BI performant et intuitif, avec une interface Excel disponible (en vue de répondre a minima aux besoins actuels) et avec une BDD indépendante de l’outil SAP FC permettant de restituer les données de consolidation - La mise en place d’une interface avec SAP FC permettant la récupération des données issue des traitements de consolidation en moins de 5 minutes. Volet Reprise de données et paramétrages comprenant : - La vague 1 de reprise de données pour pouvoir initier l’exploitation des données historisées : données réelles mensuelles YTD de fin avril à fin décembre 2024 (8 périodes), du budget annuel (1 période) et mensualisé (12 périodes) 2025, de l’estimé 1 2025 (1 période) et des premières clôtures réelles mensuelles YTD de fin février à fin mai 2025 (4 périodes). - La vague 2 de reprise de données suivra dans un planning restant à définir en vue de couvrir les données réelles mensuelles YTD de fin décembre 2019, YTD de fin décembre 2020, YTD de fin décembre 2021, YTD de fin décembre 2022, YTD de fin décembre 2023, puis les périodes restantes YTD de février et mars 2024. Des arbitrages sur les périodes historiques reprises seront menés en fonction du coût et des délais requis pour ces opérations de reprise. La reprise des données historiques de la « vague 1 » devra cependant permettre une reprise aussi industrialisée que possible étant entendu que le modèle de données demeure hérité de SAP FC (simplification du processus de reprise). - Le paramétrage de l’interface utilisateur de l’outil BI suivant les profils d’utilisateurs - Le paramétrage des droits d’accès aux données suivant les profils d’utilisateurs (doivent correspondre aux droits déjà présents dans SAP FC) Volet Infrastructure comprenant: - les travaux sur l’infrastructure techniques, installations d’environnements, reprise de données, VAT, mise en production. - Le respect des aspects sécurité des systèmes et cybersécurité dans un contexte de données ultra sensibles avec des utilisateurs à l’international, y compris hors UE
Mission freelance
Ingénieur de données / Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Ingénieur Infrastructure Systèmes (H/F)
Pour l'un de nos clients, nous recherchons un Ingénieur Infrastructure Systèmes . Concevoir, coordonner et réaliser les solutions d’infrastructure en garantissant la fiabilité et la performance des systèmes. Superviser l’évolution de l’ensemble du parc d’infrastructure (serveurs, réseaux, stockage) et proposer des plans d’amélioration continue. Gérer et maintenir les environnements multi-plateformes (UNIX, LINUX, Windows, Power IBM, X86, Cisco convergé/hyperconvergé). Piloter l’environnement de stockage (SAN/NAS, stockage objet multi-constructeurs) et assurer la protection des données. Superviser les environnements de virtualisation (VMware, Kubernetes, Rancher) et de conteneurisation. Assurer la gestion des bases de données et des environnements SGBD (SQL, automatisation, scripting). Superviser les réseaux IP orientés LAN/Datacenter , y compris la segmentation et le filtrage. Collaborer avec les équipes métiers et techniques pour analyser les besoins, proposer des solutions et participer à la conduite du changement.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
MLOps
Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.
Mission freelance
Ingénieur d'Infrastructure et d'Exploitation Réseau N2
Nous recherchons un Ingénieur d'Infrastructure et d'Exploitation Réseau N2 expérimenté pour accompagner un projet stratégique dans le secteur des médias et des télécommunications. Missions principales : Participation aux projets d'infrastructure : Contribuer à la définition et à l’évolution des architectures réseau et sécurité. Apporter une expertise technique pour soutenir les équipes projet. Exploitation et maintenance : Assurer le maintien en condition opérationnelle (MCO) des infrastructures en tant que support N2. Veiller à la sécurité et à la fiabilité des systèmes d’information. Mettre à jour les informations dans les outils de gestion du service. Documentation et livrables : Rédiger et maintenir à jour les documents d’architecture, d’installation et d’exploitation. Élaborer des procédures pour garantir un fonctionnement optimal des infrastructures. Supervision et collaboration : Participer aux astreintes et intervenir en cas d’incidents critiques. Transmettre les connaissances et savoir-faire aux autres membres de l’équipe. Reporting : Assurer un reporting régulier auprès des responsables.
Offre d'emploi
Consultant BI
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que Consultant BI. En tant que Consultant BI (H/F), vous assurez les missions suivantes : Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet. Technos utilisées : - Environnement Azure - Databricks
Mission freelance
Ingénieur CloudOps
Quelle sera votre mission ? Concevoir et mettre en œuvre une architecture Cloud scalable, performante et résiliente sur Azure, à travers notamment la technologie Azure Virtual Desktop Assurer la disponibilité, la performance, la scalabilité et la résilience de nos infrastructures en production Mettre en œuvre l' automatisation des déploiements et la gestion des infrastructures (IaC, CI/CD) Veiller à la fiabilité des systèmes, services et produits pour nos collaborateurs comme pour nos clients en apportant un état d' esprit DevOps Piloter la stratégie relative à la sécurité, la surveillance et la récupération des données Assurer une veille régulière pour optimiser les performances et les coûts des services cloud
Offre d'emploi
Data Analyst (Exp. Secteur Média OBLIGATOIRE) - Suisse
Intégrer une équipe en charge des problématiques de Data Engineering et Data Analytics. Équipe de 5 personnes. Collecte, Traitement, Nettoyage et Analyse des données (plateforme web / mobile, streaming, ...). Conception et maintenance des dashboards. Requetage des bases SQL. Restitution, exploitation et reporting des données sous Power BI. Solides connaissances en développement (ex : Python) un gros plus. Solides connaissances des concepts d'orchestration des données, GIT, DBT, ... un gros plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.