Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Infrastructure Architect (Ref : AG)
Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)
Mission freelance
Administrateur applicatif Big Data sénior
Au sein du Pôle Administration & Transition (ATR) de la Direction des Opérations (DOP), l'administrateur applicatif Big Data sénior interviendra en tant qu’administrateur des applications du client. Veuillez noter que la durée du bon de commande mentionnée est estimative. Elle est sujette à ajustement en fonction des besoins et des évolutions du projet. Objectifs et livrables La principale mission est de participer à : La maintenance en condition opérationnelle des services applicatifs sur la base des meilleures pratiques ITIL ; La mise en œuvre de nouveaux projets pour le client. Mission complémentaire: S’assurer du bon niveau de résolution des incidents et problèmes des Middlewares. Support à la mise en œuvre des changements et des mises en production (Recette d’exploitabilité). Mise en place du Monitoring des nouveaux Middlewares. Participer avec la MOE/MOA aux évolutions des Middlewares. Identifier les impacts des évolutions Middlewares et mettre en place les actions et procédures d’exploitation associées. Rédaction des fiches d’exploitation des Middlewares. Assurer un reporting régulier auprès de son Manager. Spark :Confirmé Kafka :Confirmé Linux (RH, CentOS …) :Confirmé Cassandra :Confirmé Hadoop :Confirmé
Mission freelance
Data scientist (H/F)
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Concevoir, développer et mettre en œuvre des modèles en utilisant des techniques avancées d'apprentissage automatique et de statistiques. · Travailler en collaboration avec les équipes métier pour comprendre les objectifs, identifier les variables clés et définir les critères de succès pour les modèles. · Collecter, nettoyer et préparer les données nécessaires à l'entraînement des modèles. · Utiliser Python et d'autres outils analytiques pour développer des scripts et des pipelines de données efficaces. · Évaluer la performance des modèles, ajuster les paramètres et effectuer des améliorations continues. · Communiquer efficacement les résultats des analyses et des modèles aux parties prenantes non techniques.
Mission freelance
BI Consultant
1. Gouvernance et alignement des données o Établir et maintenir un cadre structuré de gouvernance des données au sein du département. o Veiller à l'utilisation cohérente de sources de données alignées dans tous les tableaux de bord pour éviter des analyses contradictoires. o Promouvoir et initier des efforts visant à améliorer la qualité des données et à harmoniser les sources de données à travers les fonctions métier. o Servir de point de contact central pour les questions d'alignement et de gouvernance des données. 2. Définir un plan de rationalisation des dashboards commerciaux : o Evaluer l’existant (recensement / évaluation pertinence) o Formaliser les besoin utilisateurs prioritaires (identifier les key users, comprendre les attentes) o Identifier les redondances et simplifications o Définir la cible et le plan pour atteindre cette cible 3. Gestion du changement et formation o Collaborer avec des équipes internes (y compris l'Académie, l'équipe de gestion du changement de la transformation des lignes & tarification et les réseaux des lignes) pour sensibiliser aux tableaux de bord disponibles et à leurs cas d’usage. o Développer et exécuter un plan de rationalisation pour réduire le nombre de tableaux de bord et améliorer leur accessibilité. o Diriger des sessions de formation des utilisateurs et créer des stratégies d’adoption pour les tableaux de bord nouveaux et existants. o Travailler en partenariat avec les parties prenantes métier pour garantir la bonne mise en œuvre des processus de gestion du changement. 4. Collaboration avec les parties prenantes o Travailler en étroite collaboration avec des équipes transversales, y compris l’équipe IT BI et les unités métiers, afin de garantir un alignement fluide des efforts de gouvernance des données et de formation. o Servir d’intermédiaire entre les utilisateurs métiers et le département BI pour répondre aux préoccupations et aux retours liés aux données.
Offre d'emploi
Architect IA et Data
engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Architecte IA et Data Pour accompagner son client
Mission freelance
Data Engineer (Python, SQL, et Scala) (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un(e) Data Engineer (Python, SQL, et Scala) Rythme: 3 jours sur site + 2 jours de télétravail Durée estimée : plus de 12 mois Lieu : Île de France, 92 Rôle : • Conception et Développement de Pipelines de Données • Gestion et Maintenance de l’Infrastructure Data • Qualité et Sécurité des Données • Support aux équipes Data Science et BI • Veille Technologique et Innovation • Collaborer avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données Profil recherché : Formation : Informatique, data engineering, data science ou équivalent Expérience : Minimum 5 ans d'expérience en tant que Data Engineer, idéalement au sein d'une entreprise des secteurs de la construction, de l’énergie, ou de la promotion immobilière. Compétences techniques : • Maîtrise des langages de programmation tels que Python, SQL, et Scala • Expérience avec les Framework(s) de traitement de données • Connaissance des solutions de gestion de données sur le cloud (Idéalement certification Azure) • Compétence en modélisation de données (schémas), transport et transformation de la donnée et Data Marts • Bonne compréhension des systèmes de bases de données relationnelles et NoSQL. Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Offre d'emploi
Data engineer GT Lake
Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Profils Data en pré-embauche
Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Ingénieur DATA-BI H/F
AT&C Monaco recherche pour l’un de ses clients sur Marseille, un Ingénieur DATA-BI H/F en CDI à pourvoir rapidement. Rattaché au Responsable de production, en tant qu’Ingénieur DATA-BI vous intégrerez le pôle Data et travaillerez conjointement avec les équipes de développement et les chefs de projets métier en apportant votre expertise et votre support sur l’ensemble du cycle de vie de développement des entrepôts de données décisionnelles. Vos missions : Conception de l’architecture des entrepôts de données : o Analyser et modéliser les besoins « métiers » o Participer et co-animer les ateliers métiers o Rédiger les comptes-rendus de réunions et les spécifications technico-fonctionnelle o Participer à la conception et au développement de l’architecture de l’entrepôt de données décisionnel et du Datalake o Maintenir les traitements d’alimentation du DataWareHouse (DWH) o Maintenir la documentation du DWH et du Datalake Restitution des données et formation des utilisateurs : o Développer les domaines métiers, les rapports et réaliser des extractions en fonction de la feuille de route ou de demandes Ad-Hoc. o Assurer la présentation des données selon les besoins de l’utilisateur o Assurer la formation des utilisateurs à l’utilisation des outils décisionnels o Structure les accès au décisionnel liés aux rôles et périmètres Support technique et assistance aux utilisateurs : o Participer aux corrections d’incidents, demandes d’évolutions et d’informations utilisateurs et chefs de projet métier o Accompagner le déploiement à l’ensemble du groupe d’un nouvel outils de Reporting : PowerBI o Assurer la veille technologique et traiter l’obsolescence technique o Suivre et gérer les performances du DWH et du Datalake
Offre d'emploi
Ingénieur Data (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur Data (H/F) 🚀 Votre mission est pour un client du secteur social opérant sur tout le territoire français . 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Administration de la plateforme Dataiku DSS, gestion des environnements, surveillance des performances, gestion des utilisateurs, et maintenance. 🔸 Support aux utilisateurs, accompagnement sur les projets, bonnes pratiques, et résolution d'incidents. 🔸 Optimisation de l'architecture, collaboration avec l'éditeur pour améliorer et optimiser la plateforme. 🔸 Construction d'une offre de service autour de la plateforme DATA/IA fédérée.
Offre d'emploi
Data Ingénieur Big Data
Taches : Travailler avec le PO pour l'alimentation et la gestion du backlog Implémenter les fonctionnalités validées par le métier Revue de code Préparation et déroulement des plans de tests et de recette Réception, validation et intégration des données : Base de données relationnelles Web services Fichiers Analyse et résolution des incidents : Supervision des applications pour s'assurer de ; La bonne exécution des traitement / La complétude et cohérence des données Attendue de la mission : Rédaction et affinage des récits utilisateurs Design et réalisation des applications Big Data Etude de faisabilité et réalisation des POC Chiffrage des évolutions et étude d'impact Participation à des rituels Agile Résolution des incidents Support et Assistance technique des utilisateurs Migrations et montées de version Packaging des versions et déploiement CI / CD Tests unitaires Tests intégration Assistance et accompagnement pour les plans de recette
Offre d'emploi
Directeur de projet migration Data - snowflake
🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management
Mission freelance
CLOUDERA DATA ANALYST
Nous recherchons un Administrateur Bases de Données (DBA) freelance pour une mission stratégique. Vous serez responsable de la gestion et de l’optimisation des bases de données d’une application critique. Vos principales missions incluront : Assurer le bon fonctionnement et la maintenance des bases de données. Optimiser l’exploitation et la performance des applications. Participer aux décisions de mise en production et gérer les incidents. Rédiger des retours d’expérience et maintenir la documentation à jour.
Offre d'emploi
Skiils recherche son Expert data quality
Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.
Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes
DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.