Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur DevOps / BIG DATA
Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place
Mission freelance
Développeur Back-End Java/ Cloud - Toulouse (H/F)
Dans le cadre du développement de ses activités, notre client va rechercher un développeur freelance expérimenté sur la partie Back-end. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Poste disponible à Toulouse 3 jours de présentiel sur site, 2 jours de TT Anglais courant / écrit est obligatoire
Mission freelance
Développeur Back-End Java (Big Data) - Toulouse (H/F)
Dans le cadre du développement de ses activités, notre client va rechercher un freelance expérimenté sur la partie Back-end dans un environnement Big Data. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Vos activités seront les suivantes : Concevoir et développer de nouveaux modules ou fonctionnalités pour notre logiciel, en utilisant Java et les dernières technologies Back-End. Vous serez en charge de concevoir et développer des solutions de traitement de données en mode batch et en temps réel (streaming). Vous contribuerez à la collecte, à l’agrégation et à l’analyse de données critiques, permettant ainsi d’extraire des informations précieuses pour notre solution logicielle. Vous jouerez un rôle essentiel dans la compilation et l’analyse de données complexes . Vous assurerez également la maintenance de la solution actuelle en production, offrant un support technique à plus de 60 clients à travers le monde. Examiner et évaluer les processus et le code existants pour proposer des solutions d’optimisation et garantir une meilleure efficacité opérationnelle. Poste disponible à Toulouse 3 jours de présentiel sur site Anglais courant / écrit est obligatoire
Offre d'emploi
Technicien Telecom Datacenter
Réalisation des gestes de Proximité Telecom en Datacenter avec déplacements possibles inter -DCs. Réaliser du cablage LAN (étude, réalisation, validation) Réaliser du cablage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : photométrie, réflectométrie lire et comprendre un plan de frettage comprendre les plans d'urbanisation réseau d'un DC Connaitre les différentes technologies FO Savoir configurer des cartes type IDRAC,ILO ... Réalisation des gestes de Proximité Telecom en Datacenter
Mission freelance
Développeur Data
MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.
Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.
Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.
Mission freelance
SAP MDG - Part time
RED recherche pour l'un de leurs clients un consultant freelance SAP MDG à temps-partiel , afin d’apporter son retour d'expérience terrain pour ses équipes. L'équipe souhaite bénéficier d'un retour d'expérience pratique sur l'utilisation de SAP MDG ( Master Data Governance ). L'objectif est que quelqu'un ayant déjà travaillé avec cet outil partage ses expériences concrètes et leçons apprises sur le terrain . Cela permettrait à l'équipe d'avoir une discussion ouverte sur les avantages, défis, et bonnes pratiques liés à l'utilisation de MDG.
Mission freelance
Product Owner MDM - Lille
Projet : En tant que Product Owner, vous êtes responsable de la gestion, de la priorisation et de la vision produit pour REPERE et FCT au sein d'une équipe Agile. Vous travaillez en étroite collaboration avec les équipes de développement, les architectes et les parties prenantes pour garantir que les évolutions et la maintenance des produits répondent aux besoins métiers et aux objectifs stratégiques du groupe. Vous pilotez le backlog, en priorisant les demandes d'évolution et les corrections, et en vous assurant de la bonne intégration des contributions projets (traitements ODI, Semarchy xDI, etc.). Vous animez les cérémonies Agile (sprint planning, review, rétrospectives), tout en veillant à la qualité et à la performance des livrables. Votre rôle inclut également l'alignement des parties prenantes autour de la roadmap et la gestion des dépendances avec d'autres projets du groupe.
Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution
Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio
Offre d'emploi
Customer Success Manager F/H
Envie d’évoluer dans un environnement technique riche ? Envie d’allier la technique au relationnel ? Sens du service et satisfaction client te définissent ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Direction des Opérations d’Archivage Electronique afin de développer l’usage de nos solutions d’archivage électronique et d’être le garant de la satisfaction client. Ton quotidien sera rythmé par : L’accompagnement des clients et notamment grands comptes en développant les usages La mise en place du reporting de ton activité avec la réalisation d’un plan d’action et le suivi de ses indicateurs de performance (KPI) L’animation des comités de suivis des prestations prévus dans les contrats La fidélisation de l’ensemble de la base client en veillant à leur satisfaction sur les services & produits vendus tout en s’assurant qu’il n’y ait pas de réclamations Le suivi de la mise en œuvre des actions vendues au client en coordonnant les équipes Xelians (administration fonctionnelle, chefs de projets BUILD, DSI, commerce…) La stimulation de la vente de nouveaux services/modules/fonctionnalités (up-selling) et nouveaux produits (cross-selling) pour augmenter la satisfaction client La remontée aux CPO des besoins de nouvelles fonctionnalités La collaboration avec le Responsable Support et Data dans la structuration de l’activité de supervision du RUN
Offre d'emploi
Product Owner MDM
Profil : Requis : capable d'encadrer 1 autre PO plus juniors et assez technique et de suivre les sujets en adhérence dans les PI SAFe de la DSI Expérience confirmée en tant que Product Owner dans une équipe Data (au moins 3 ans). Compétences techniques : SQL, bases de données, modélisation. Bonne compréhension des enjeux métier liés à la gestion des données clients (MDM, Data Gouv flux entrants/sortants, intégrations, validation des données). Capacité à recueillir, prioriser et traduire les besoins métiers en solutions fonctionnelles. Participation active aux instances projets (notamment PI SAFe des autres programmes en adhérence). Suivi des features jusqu'à leur réalisation et validation, parfois comme participant à la recette. Apprécié mais pas requis : Expérience sur un référentiel MDM, idéalement Semarchy Connaissances en gouvernance des données et architecture d'entreprise. Expérience dans des environnements complexes, en grande entreprise ou assurance. Durée mission : 6 mois renouvelables Site : Mons en Baroeul (Lille), 2 à 3 j / sem sur site
Offre d'emploi
Data Engineer Python / SQL / Azure
Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.
Mission freelance
Développeur Big Data
Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View
Mission freelance
Développeur ODI confirmé (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur ODI confirmé (H/F) à Lille, Hauts-de-France, France. Contexte : Les missions attendues par le Développeur ODI confirmé (H/F) : Développement de flux sur ODI Maîtrise des normes techniques et concepts de la modélisation décisionnelle (Modélisation, Alimentation) Très bonne maitrise SQL Maîtrise des KM (Knowledge Modules) Maîtrise des principes de calcul de statistiques sur une base de données Oracle Rigueur et esprit d'analyse, capacité relationnelle et autonomie. Maîtrise d’un environnement complexe (+ 1000 tables et 250 scénarios ODI sur le périmètre) 5 ans d'expérience en développement ODI minimum
Offre d'emploi
Architecte Data & Solution
🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.
Offre d'emploi
Data engineer (H/F)
Teksystems recherche un(e) Data engineer (H/F) En tant que Data Engineer, votre rôle principal dans l'organisation est de construire et de mettre en place des solutions de données. En tant que membre d'une équipe de données, vous suivrez les directives et les pratiques en matière d'architecture et de sécurité informatiques, et serez responsable de la création de flux de données et de processus dédiés pour : Ingérez des données dans la plateforme de données de l'entreprise Améliorez la qualité des données en suivant les principes de gouvernance des données Assurer le respect de la loi sur la protection des données Automatiser les calculs de données (à des fins de Business Intelligence et de Machine learning) Système opérationnel de flux utilisé par les utilisateurs finaux (Marketing, CRM, solutions commerciales) En tant que spécialiste data, vous mettrez en œuvre des jobs data rentables et industrialisés sur une infrastructure hybride (on-premise / cloud) mélangeant plusieurs technologies : API Rest, bases de données SQL & NoSQL, batch, et fichiers... avec différentes latences (du lot au temps réel). En tant que membre de la communauté mondiale des données, vous devrez participer activement à des projets mondiaux impliquant votre pays : conception et évolution de plateformes de données mondiales, processus de remontée des données des filiales, réunions de suivi et de coordination des fonctionnalités de l'équipe agile, et stand-up.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes