Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Analyst -Expert Etudes
Contexte Dans le cadre de la Squad Data Métrologie et de la production d’un tableau de bord de suivi des usages M365 et de son adoption. MISSION : - Communication avec les équipes Participer aux ateliers d’expression des besoins internes. Comprendre les problématiques métiers et les traduire de manière analytique. Etudier / réaliser le cahier des charges du rapport de métrologie attendu. - Analyser et explorer les données de plusieurs sources (BDD SQL, Active Directory, Azure Cloud, Microsoft Graph connectors …). Réaliser les tableaux de bord. Réaliser des tests statistiques sur les données. - Documentation / Transfert de connaissance Réaliser le Dossier d’Architecture Technique des cas d’usage. Amender les Dashboard avec les explications pour accompagner l’utilisateur sur la compréhension de la donnée. Accompagner les collaborateurs sur la compréhension des calculs du Dashboard.
Mission freelance
Chef de projets Data Management & IA (H/F)
Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.
Mission freelance
Expert tableau / Data engineer
ous recherchons Expert TABLEAU / DATA Engineer H/F Lieu de Travail à Montreuil (93), en mode hybride 50% Concrètement votre mission : • Analyse, compréhension et formalisation des besoins métiers • Conception fonctionnelle des solutions applicatives adaptées aux attentes métiers • Développement d'application Tableau Software (Desktop, Server) • Développement et optimisation de scripts (Sql, Vues) • Optimisation des performances des dashboards • Maintenance évolutive et corrective des dashboards • Dépannage et résolution sur des problématiques fonctionnelles et techniques • Documentation des développements et des bonnes pratiques • Installation et administration de l’infrastructure Tableau Environnement de travail : Vous travaillerez dans nos nouveaux locaux en flex-office et bénéficierez du télétravail. Vous rejoignez une équipe dynamique de la division Quality & Process, conviviale et à taille humaine, et vous dépendrez de l’équipe BI Datavisualisation de la DSI. DATA Engineer/Développeur TABLEAU ! Bac+2 à Bac+5 en école d’ingénieur ou d’informatique, avec une expérience de 10 années minimum en développement TABLEAU Software. Maitrise : • Tableau Software (Desktop, Server) • SQL, PL/SQL Connaissances en : • Bases de données Oracle, SQL Server, PostgreSQL • JIRA • Méthode Agile • Power BI, Cognos Anglais est courant, avec la capacité à communiquer à l'oral et à l'écrit
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Offre d'emploi
Ingénieur(e) Data
Nous concevons des usines que nos clients devront exploiter et entretenir pendant plusieurs décennies. Pour cela, ils ont besoin de données bien structurées, incluant une liste complète des composants de l'usine ainsi que leurs propriétés spécifiques (numéro de commande, fabricant, modèle, numéro de série, poids, débit, et autres données techniques). Mon équipe est responsable de la collecte, de la consolidation, de la structuration et de la livraison de ces données, à la fois pour le client, mais aussi pour les équipes de construction (avec des structures et périmètres distincts). Rôle du Methods & Data Engineer : - Configurer notre base de données standard (Aveva Engineering) en fonction des exigences du projet, en coordonnant avec les utilisateurs et les équipes de développement. - Analyser les besoins spécifiques du projet et déterminer les ajustements à apporter à la base de données pour y répondre. - Réaliser des activités de configuration de premier niveau (listes de référence, configurations d'import/export, mappings...). - Pour les besoins plus complexes, rédiger les spécifications à destination de l'équipe d'administrateurs, tester les modifications, préparer les procédures d'utilisation, et fournir un support aux utilisateurs. - Veiller à la qualité des données importées dans la base et à celles exportées dans divers rapports. L'objectif est d'utiliser les processus et outils existants, sans développer de nouveaux outils.
Offre d'emploi
Développement Azure et Azure Data Explorer
Au sein du service Ingénierie Logicielle et Data qui à la charge du développement des nouveaux produits, nous recherchons une prestation dans le développement de solutions à base de cloud Azure et particulièrement ADX (Azure Data Explorer) Mission: Assistance en ingénierie sur le projet, qui est une plateforme cloud de supervision des sites de stockage pour les énergies renouvelables. La prestation consiste à concevoir, tester,déployer et maintenir l'infrastructure et les scripts Azure (dont ADX ), dans une approches DevSecOps
Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera
Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
Data Architect Kafka
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de data engineering, point de référence aussi bien pour l’équipe de réalisation des projets (build) que pour les équipe de production (RUN). Les missions sont: - Maintien en condition opérationnelle des services opérés autour du streaming (Kafka, Kafka Connect, Flink) - Amélioration continue des services opérés - Implémentation des solutions définies avec le PO (services actuels ou dans le cloud IBM) - Maintien d'une veille technologique permanente - Mode Agile - Astreintes sur les services existants Environnement/ technologies: - Analyse et développement de « produits transverses posés sur étagère pour nos Métiers » - Java jusqu’à l’intégration avec les chaines CI/CD. Des développements JAVA peuvent être réalisés dans le contexte de besoins spécifiques. - Langages de programmation suivant : Java, Python (dans un contexte Big Data) - Plateformes de configuration et gestions des installations : (Ansible, …) - écosystème object storage et kubernetes : (API S3, Helm,…) - écosystème Hadoop (HDFS, Hive, ,…), ElasticSearch - écosystème transport de données : Kafka Connect, Kafka - Framework spring : Spring-Boot, Spring-Security… - Concepts NoSQL et maîtrise d’au moins une solution parmi celles-ci : MongoDB, PostGres. - Concepts de streaming : Flink - Openshift
Offre d'emploi
Data Product Manager (Data Solution Architect)
Contexte de la mission En tant que membre de l'équipe Data As a Service Customer, vous serez chargé de mener des évaluations/études dans le segment HPS (High Performance Solutions) et de participer à la phase d'exécution du projet après l'évaluation. Profil : Senior Compétences attendues : - Excellente communication en français et en anglais - Exploration, analyse et modélisation des données (modélisation conceptuelle et physique) - Connaissance suffisante des systèmes ERP (SAP, QAD) et CRM (Salesforce) ; une connaissance des systèmes de fabrication est un plus - Forte capacité à appliquer les méthodes, travail rigoureux et organisation efficace - Orientation client (réalisation d'entretiens, temps de réponse rapide et concis) Objectifs et livrables - Organiser l'étude et collecter les besoins de toutes les parties prenantes - Comprendre les ambitions, enjeux et objectifs de l'entreprise - Organiser et animer des ateliers avec les équipes métier - Collecter tous les éléments nécessaires à l'étude - Documenter l'architecture fonctionnelle - Faire de la modélisation des données / conception des couches métier (couche Silver) - Coordonner les contributeurs Data As a Service (Architecte Technique, Ingénieurs Data & BI) - Documenter la valeur de la solution - Préparer le budget et la planification de la phase de construction/exploitation - Formaliser les propositions finales de “Go to project” Compétences demandées : Analyse de données - Expert ERP - Confirmé Business Intelligence - Confirmé Plateforme Cloud Data - Confirmé Communication - Expert Modélisation de données - Expert SQL - Expert Anglais - Expert
Offre d'emploi
Data Product Manager (Data Solution Architect)
Contexte de la mission : En tant que membre de l'équipe Data As a Service Customer , vous serez chargé de mener des études et évaluations dans le cadre de projets data, et de participer à la phase d'exécution après l'évaluation. Profil : Senior Compétences requises : Excellente communication en français et en anglais. Maîtrise de l'exploration, de l'analyse et de la modélisation des données (modélisation conceptuelle et physique). Connaissances suffisantes des systèmes ERP (SAP, QAD), CRM (Salesforce). Une connaissance des systèmes de fabrication est un plus. Forte rigueur dans l'application des méthodes, organisation efficace et travail minutieux. Orientation client (conduite d'entretiens avec les clients, réactivité rapide et concise). Objectifs et livrables : Organiser l'étude et recueillir les besoins de toutes les parties prenantes. Comprendre les ambitions, enjeux et objectifs du business. Organiser et animer des ateliers avec les équipes métiers. Collecter toutes les informations nécessaires pour l'étude. Documenter l'architecture fonctionnelle. Effectuer la modélisation des données et la conception des couches métiers (Silver Layer). Coordonner les contributeurs Data As a Service (Architecte Technique, Ingénieurs Data & BI). Documenter la valeur de la solution. Préparer le budget et le planning pour la phase de construction/exécution. Formaliser les propositions finales de “Go to project”. Compétences demandées : Expertise en analyse des données. Compétence confirmée en ERP. Compétence confirmée en Business Intelligence. Compétence confirmée en plateforme Cloud de données. Expertise en communication. Expertise en modélisation des données. Expertise en SQL. Anglais courant.
Offre d'emploi
Product Owner DATA
Expériences requises dans des projets DATA Rattaché(e) à la Direction des projets métiers, sous la responsabilité du manager du Pôle Data auquel il appartient, le Product Owner est responsable de porter la vision du produit Data Platform par la déclinaison opérationnelle . Il est piloté par la stratégie du Produit définie par le Product Manager. Missions : Owner du product backlog : Alimentation de product backlog de façon itérative et continue Partage des US en fonction de la DOR établie par la DEV team Déclinaison des objectifs des sprints tout au long du PI, Validation avec l’équipe du périmètre des sprints et réajuste si besoin Affinage également le backlog avec l’équipe au fil des sprints Responsable de l’incrément produit : Porte la vision du produit par une déclinaison opérationnelle pour maximiser la valeur métier Anticipation des besoins clients et construit un plan de delivery sur plusieurs sprints Supervision du développement technique, challenge les peer review et technical maturation Maitrise de toute la stack du Produit Data (pipeline, modeling, sécurité, etc) pour être en capacité de vendre et d’accompagner l’usage du produit aux clients Responsable unique de la livraison en production Au service de l'organisation : Alimenter une équipe de Dev constituée de 8 collaborateurs Challenger l'équipe en toute bienveillance Evangéliser les bests practices de la DATA
Mission freelance
Lead Data Engineer
Nous recherchons pour l'un de nos clients, un(e) Lead Data Engineer. Intégré(e) à la DSI en tant que DataOps Engineer, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. Vous comprenez les attentes techniques des clients et vous ferez évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
Mission freelance
Data Analyst 5-8 ans
Nous recherchons un ANALYTICS/WEB ENGINEER pour le compte d'un grand client des secteurs de médias en place parisienne. Vous aurez à les accompagner sur le produit d'Activation au sein de la DATECH, avec un fort penchant sur les problématiques publicitaires. Vous devrez : - Gérer la DMP (Mediarithmics) en mettant à jour les collectes dans celle-ci, assister sur la création de segments et vérifier la bonne diffusion de ces derniers - Prendre en main les contraintes de ciblage sur les différents environnements en collaboration avec les différentes entité de DATECH et PUB - Travailler sur la mise en place de partenariats datas avec des annonceurs / data providers - Aider à la mise en place de tests publicitaires avec les équipes L'environnement technique de l'équipe : Snowflake, Databricks, Airflow, Azure DevOps, Mediarithmics, Liveramp
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.