Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Data expérimenté
Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.
Mission freelance
Data Manager
Nous recherchons pour notre client, un Data Manager dans le cadre d'un projet Salesforce, en Freelance ou Portage salarial Mission : Maîtrise de l’architecture et des composants de modélisation Salesforce S’approprier les notions de référentiels de données relatives aux business du groupe Comprendre les dépendances relationnelles entre les différents objets et processus métiers Traduire un besoin fonctionnel en spécification détaillées digitales Expérience sur des projets d’intégration de données, participer aux workshop intégration avec le digital (ERP <> CRM) Notion de gouvernance et compliance Alimenter le département Data Gouvernance avec catalogue de données, data owners, assurer le lien avec les projets Notions de compliance RGPD, data retention Conseiller l’équipe sur la conception technique des modèles de données, grâce à sa compréhension des données et de l’impact sur les activités data (intégration de données, reporting, analyse de données)
Mission freelance
PMO/Chef de projet MDM-référentiels produits
Dans le cadre du développement de projets data complexes, notre client recherche un PMO Senior Data en freelance, capable de faire le lien entre les besoins métiers et la delivery des projets. Le PMO senior interviendra sur une plateforme de données comprenant des systèmes comme SAP, Salesforce, Informatica, et des référentiels clients, et devra assurer la bonne coordination entre les différentes équipes projet tout en respectant les contraintes métier. En tant que PMO Senior Data , vos responsabilités seront les suivantes : Médiation et Coordination : Servir d'intermédiaire entre les différentes parties prenantes, en particulier les équipes métier et les équipes techniques (data engineering, analytics, etc.). Suivi des projets Data : Assurer la bonne gestion des projets data, de la planification à la livraison, en garantissant le respect des délais, des coûts et des objectifs. Gestion des référentiels : Apporter une expertise sur les référentiels clients et autres données essentielles (MDM - Master Data Management), et superviser la gouvernance des données. Communication avec les parties prenantes : Garantir une communication fluide avec les responsables métiers pour comprendre leurs besoins et les traduire en exigences techniques claires. Pilotage de la delivery : Suivre les indicateurs clés de performance (KPIs) des projets data, en identifiant rapidement les risques et en proposant des solutions pour les résoudre. Mise en place des bonnes pratiques : Mettre en place des processus et des méthodologies adaptées à la gestion de projets data complexes, tout en renforçant la gouvernance des données.
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Offre d'emploi
Ingénieur DevOps - Exploitation (H/F)
🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; 🔸 Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; 🔸 Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; 🔸 Réaliser les mises en production ; 🔸 Rendre compte auprès du manager opérationnel 🔸 Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; 🔸 Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client 🔸 Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Mission freelance
Expert Azure Cloud H/F
En tant qu'Expert Azure Cloud, vous serez responsable de la conception, de l'implémentation et de la gestion des solutions cloud sur Microsoft Azure. Vous jouerez un rôle clé dans l'optimisation et la sécurisation de l'infrastructure cloud. Principales responsabilités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure Gérer et optimiser les services Azure existants pour garantir la performance, la fiabilité et l'efficacité des coûts Développer et mettre en œuvre des procédures de monitoring, backup et sécurisation des objets Azure Assurer la sécurité et la conformité des environnements cloud Azure Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD Fournir un support technique et former les équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure Assurer une veille technologique sur les dernières innovations Azure
Mission freelance
MCO / deploiement d'applications digitale
La mission se concentre autour de 2 grands périmètres : le Maintien en Conditions Opérationnelles des applications sur le domaine digital (compte clients, frontaux) l'homologation en pre-production et la mise en production des applications La mission se réalisera dans un contexte "devops". - Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; - Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; - Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; - Réaliser les mises en production ; - Rendre compte auprès du manager opérationnel - Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; - Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client - Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Data Engineer Expert GCP | Casablanca 100% Remote
skiils recrute un Data Engineer Expert GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Python, Spark Kafka & Kafka-stream Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible dans une environnement cloud GCP . Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Mission freelance
Chef de projet Data Galaxy (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet Data Galaxy (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Nous sommes à la recherche d'un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. Les missions attendues par le Chef de projet Data Galaxy (H/F) : Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) Être un support des équipes techniques et Data office dans leurs tâches sur l'outil. La personne doit être autonome, force de proposition et faire preuve de prise d’initiatives. Elle doit être capable d'animer une équipe et de tester par elle-même les fonctionnalités / modélisations de Data Galaxy. La connaissance préalable de Data Galaxy serait un plus. La connaissance de PowerBI / Talend serait un plus. Démarrage ASAP avec 3 jours sur site, en région grenobloise.
Offre d'emploi
Data Engineer Snowflake
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake Tâches: Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un chantier de refonte des schémas de stockage de nos données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et TF1+ (Product Owners, Data Analysts et opérationnels) Vous maîtrisez les technologies suivantes : -Snowflake -SQL avancé -RBAC -Terraform -Azure -Azure DevOps / JIRA /Confluence Vous êtes familier avec la culture DevOps et l’Agilité, le travail en équipe et la gestion de projet technique, dont la méthodologie est déjà établie, éprouvée et très largement adoptée.
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'alternance
Chef de projet SEO/SEA (H/F) - Alternance
L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Chef de projet SEO/SEA (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Gestion des Campagnes SEO : Élaborer et mettre en œuvre des stratégies de référencement naturel pour améliorer le classement des sites web sur les moteurs de recherche Réaliser des audits SEO et des analyses concurrentielles pour identifier les opportunités d’optimisation Optimiser les contenus existants et proposer des recommandations pour les nouvelles créations de contenu Suivre les évolutions des algorithmes de recherche et adapter les stratégies en conséquence Gestion des Campagnes SEA : Concevoir, lancer et optimiser les campagnes publicitaires payantes sur les moteurs de recherche (Google Ads, Bing Ads, etc.) Gérer les budgets publicitaires, surveiller les performances et ajuster les stratégies pour maximiser le ROI Effectuer des analyses régulières des performances des campagnes et produire des rapports détaillés Analyse et Reporting : Utiliser des outils de web analytics (Google Analytics, SEMrush, Ahrefs, etc.) pour suivre les performances SEO et SEA Analyser les données de trafic, les taux de conversion et les autres KPI pour évaluer l’efficacité des stratégies Préparer des rapports réguliers pour les parties prenantes et proposer des actions correctives basées sur les résultats obtenus Collaboration et Coordination : Travailler en collaboration avec les équipes de contenu, de design et de développement pour assurer la mise en œuvre des recommandations SEO/SEA Coordonner avec les agences externes et les partenaires pour optimiser les campagnes et les initiatives de référencement Participer à la formation des équipes internes sur les meilleures pratiques en SEO/SEA Conditions de l'offre : Une opportunité unique de travailler sur des projets de communication digitale variés et stimulants Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Offre d'emploi
Développeur java/data H/F
MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO
Mission freelance
PM Data (Lille 2j TT)
Cherry Pick est à la recherche d'un "PM Data" pour un client dans le secteur du Commerce de détails. Contexte de la mission Au sein de notre organisation produit Data, nous recherchons un·e Data Product manager pour gérer la collecte des données de nos MarketPlace, contribuer à l’alimentation de données de processus opérationnels et organiser la restitution au travers de DashBoards. En contact permanent avec le business, dans un contexte agile (Scrum) et en animation fonctionnelle de votre équipe produit (9 Ingénieurs de données: 3 DE, 2 AE, 2 BI ENG, 1 DA, 1 DS) localisée en France (5 pers), Allemagne (3 pers), Pologne (1 pers) : Vous collectez, structurez et priorisez les besoins Vous mettez en place et garantissez la performance des pipelines d'alimentation des données dans notre Datalake Vous faites évoluer et mettez en place des DashBoards de restitution des données au service des acteurs de la MarketPlace Vous managez votre roadmap d’innovation et IAs Vous garantissez un RUN de qualité pour respecter le niveau de service attendu par vos utilisateurs Vous contribuez à l'animation du processus agile scrum (Daily, Refinement, Sprint Planning, Retro, Démo) Vous interagissez avec vos différents stakeholders : représentants business, product manager logiciels et data, Data Manager, Data Owner Profil : Product Manager confirmé et vous avez de solides expériences dans la data Soft Skills : Leadership / Force de proposition / Communicant / Esprit d'équipe / Responsable /Problem-solver Hard Skills : Cf compétences ci dessous Environnement technique : AWS (S3, Lambda, Airflow), DataBricks, Github, DBT, Spark, Tableau Software Objectifs et livrables Vision & Stratégie Construire la roadmap du produit, la partager, l’adapter et animer sa mise en œuvre (#vision) Explorer les besoins & problématiques des métiers (#discovery) Définir le modèle de données (#data_modeling) Animer un comité de pilotage pour communiquer sur les avancées & faire acter les arbitrages/décisions (#gouvernance) Concevoir le produit Ecrire les User Stories et les prioriser sur chaque sprint (#value) "Raconter" et faire vivre le besoin de l’utilisateur au sein de l’équipe produit (#sens) Identifier et gérer les dépendances avec les autres produits/services logiciels ou data (#lineage) Faire vivre le produit Faire évoluer le modèle de données (#data_modeling) Valider & vérifier la conformité des données avec les besoins des utilisateurs (#data_quality) Vérifier l’impact des évolutions produit et mesurer la satisfaction utilisateurs (#value) Communiquer sur la vie, les évolutions du produit (#newsletter) et développer son utilisation (#usage_follow_up) Contribuer à la formation et l’accompagnement des utilisateurs (#upskilling) Garantir la maintenabilité, l’évolutivité et la fiabilité du produit (#robustness #sla)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.