Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer ls flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Développeur Cockpit
Nous recherchons un développeur talentueux pour rejoindre une équipe dynamique dans le cadre d'un programme de transformation digitale des métiers du soutien. Votre mission principale sera de maintenir et faire évoluer une solution de cockpit basée sur la technologie QliK Sense. Missions principales : Maintenir et produire le cockpit sur la base des technologies existantes Collaborer avec l'équipe en charge de la refonte de la couche technique sous-jacente Prendre en main l'architecture existante Participer aux corrections des anomalies techniques en production Définir les données nécessaires avec les experts métier pour afficher des indicateurs pertinents Documenter et mettre en œuvre le pipeline de données (Qlik, API, Kafka) Participer à la définition de la refonte de l'architecture de données
Mission freelance
Techlead JAVA ANGULAR en IDF
Nous sommes un opérateur de technologies digitales pour les entreprises. Notre activité historique d'opérateur télécom a été enrichie et nous comptons près de 500 collaborateurs. Nous accompagnons les entreprises et organisations publiques et privées en France et à l'International dans leur transformation numérique. Au travers de nos Business Units Télécom, Mobility et Cybersécurité, nous déployons et opérons des infrastructures de télécommunications, développons des logiciels de traçabilité et de mobilité et proposons une expertise en cybersécurité. Nous sommes engagés dans une politique RSE audacieuse visant à réduire notre impact environnemental, à agir en employeur responsable et en favorisant la diversité et la solidarité. Localisation : Roissy-en-France + 2 jours de Télétravail possible Vos principales missions : • Intégration d’une équipe agile • Participation dans les développements d’un projet de refonte de la brique Inventaire et provisionning de notre SI sous une architecture microservice. Expertise souhaitée Profil : • Diplômé d’une école d’Ingénieur • 4 ans d’expérience minimum en tant que Développeur Full-Stack Java - Angular • Une expérience sur les développements dans un environnement micro-services est fortement recommandé. • Connaissance de la méthodologie SCRUM Environnement Technique : • Angular 12+ • Java 17 • Spring Boot / Spring Cloud / JPA / Junit 5 / Mockito • Mongo DB • SQL Server • Kafka • Git / Maven / Jenkins / SonarQube / GitLab • Nginx • Linux (CentOs) • Architecture et concepts Microservices (CQRS, DDD, Events sourcing, etc.) • Docker / K8S / Helm • Elastic Search Soft-Skills : • Travail en équipe • Capacités de communication • Autonomie • Polyvalence • Excellente élocution
Mission freelance
Data Engineer
PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes
Offre d'emploi
Développeur backend Open
Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.
Offre d'emploi
LEAD TECH WINDOWS à Niort
Mission : - Expertise des environnements Windows - Expertise forte de Microsoft Configuration Manager (MCM) - Expertise de Active Directory (ainsi que DNS/DHCP) - Maitrise des languages de programmation Powershell (Python apprécié). - Avoir des bases ansible pour créer des rôles/playbook en liens avec les assets Windows - Connaitre et savoir utiliser l'environnement GitLab - Acculturation aux bonnes pratiques de l'ANSSI - Capacité de rédaction de modes opératoire et procédures en suivant le formalisme attendu. - Expérience d'administration des outils de supervision et d'observabilité Dynatrace et Zabbix - Connaissances des mécanismes de gestion des certifcats TLS (protocole ACME) - Connaissances des environnements de virtualisation VMware - Participer aux cérémonies AGILE
Mission freelance
Data sharing Governor Assurance
Nous recherchons un consultant Data sharing Governor pour le compte d’un de nos clients assurance basé à Paris dans le cadre d’un projet stratégique de transformation Data. Contexte Dans le cadre de la transformation Data, le Data Management Office (DMO) cherche à renforcer ses capacités de gouvernance des données en recrutant un consultant indépendant. Le DMO est responsable de la définition et de la mise en œuvre de la stratégie de gouvernance des données de l’entreprise. La mission se concentre sur l'harmonisation des pratiques de partage de données, tant internes qu'externes, afin de garantir la conformité aux nouvelles régulations et d’optimiser les échanges de données au sein du groupe. Rôles et responsabilités En tant que Data Sharing Governor, vous serez directement rattaché au responsable du DMO. Vos principales missions seront les suivantes : Data Manager du Domaine Données Externes : Définir le cadre d’usage des données externes (principes, standards, procédures) pour piloter et adapter la roadmap 2024-2026. Accompagner les initiatives transverses, notamment dans les programmes de données entreprises et de gestion des risques géographiques. Cartographier les usages et attentes des métiers, et effectuer une veille de marché. Contribution au programme FIDA (Open Insurance) : Accompagner la mise en conformité avec la nouvelle réglementation européenne FIDA, en lien avec les associations sectorielles. Interlocuteur du groupe pour le programme One Data Mesh : Faciliter les échanges de données entre le groupe et ses entités, en optimisant les processus de partage au sein de l'écosystème de l'entreprise. Compétences requises Diplôme Bac +5 en informatique, statistique, gouvernance des données ou équivalent. Expérience significative en data sharing, idéalement en tant que Chef de Projet, avec une exposition à des projets réglementaires (ex. DSP2). Excellente capacité à vulgariser les concepts complexes et à travailler avec des équipes multidisciplinaires. Compétences en gestion de projets, avec une expérience dans le secteur de l’assurance et/ou de la banque de détail appréciée. Maîtrise du français et de l'anglais. Détails de la mission Durée : 6 mois, renouvelable. Date de démarrage : Dès que possible. Lieu : Mission basée à Paris, avec possibilité de télétravail partiel. Freelance Temps plein
Mission freelance
Data analyst
Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet
Offre d'emploi
Business Data Analyst
Le Business Data Analyst (BDA) est l'interface entre l'équipe Data et l'équipe Business. Il est chargé de comprendre les demandes du département des Achats et de planifier et fournir soigneusement une solution. Il vise à identifier des opportunités de croissance, d'optimisation et d'amélioration des processus d'affaires d'une organisation. Sa fonction est celle de la vision et de la mise en œuvre de la stratégie. Responsabilités : - Avoir une expérience avérée dans l'analyse métier axée sur les données, tant pour des problématiques simples que complexes ; - Prendre en charge la priorisation des exigences métier en fonction des objectifs demandés ; - Collaborer avec les utilisateurs ou les experts métier pour définir les attentes ; - Analyser les exigences et participer à la conception de la solution avec l'équipe technique ; - Se situer à l'intersection de l'analyse de données et de l'analyse métier ; - Créer et modifier des programmes informatiques pour extraire des informations des bases de données de l'entreprise ; - Interagir avec les ingénieurs de données et les data scientists pour comprendre comment les données doivent être converties, chargées et présentées ; - Développer et déployer des tableaux de bord et des rapports pour collecter des informations fondées sur les données ; Interpréter les principaux ensembles de données métier ; - Fournir des insights sur les opportunités de croissance, d'optimisation et d'amélioration ; - Travailler de manière transversale sur les stratégies basées sur les données qui améliorent les processus métier et la prise de décision ; - Être responsable de la rédaction ou de la fourniture des User Stories et/ou des règles métier.
Offre d'emploi
Cloud DevOps (Pré-embauche)
Contexte: Le DataLab développe des pratiques MLOPS pour optimiser le cycle de vie des projets IA. Un premier volet a été adressé au niveau du versioning des modèles et l’industrialisation de l’IA en se basant sur un socle basé sur Kafka / Kubernetes. L’objectif de la mission est de packager des IA de contrôle et d’extraction d’informations dans les documents: - Se focaliser sur la phase DevOps en automatisant la pipeline d’apprentissage, le versioning et déploiement du modèle ; - Automatiser l'exécution du pipeline de ML afin de ré-entraîner les nouveaux modèles avec de nouvelles données ; - Configurer un système de livraison continue pour déployer fréquemment de nouvelles versions de l'intégralité du pipeline de ML (CI/CD). L’idée est de rendre les modèles de machine learning (ML) évolutifs et de les déployer en production aussi simples que possible, en laissant Kubernetes faire ce qu'il fait de mieux : - Déploiements faciles, reproductibles et portables sur une infrastructure diversifiée ; - Déploiement et gestion de microservices ; - Mise à l'échelle en fonction de la demande ; - Mise en place du socle DataOps – industrialisation des microservices IA ; - Former l’équipe sur les pratiques DevOps/DataOps ; - Participer sur les différents projets ; - Gérer l’exploitation du cluster Kubernetes et l’orchestration des ressources. Exigences Techniques: -Packaging & API : De fortes compétences CI/CD – Docker - API ; - Développement (Python) : Python avancé ; - Architecture & Infrastructure : Définir l’architecture cible et Travailler avec le producteur informatique pour mettre en place l’infrastructure cible et participer au déploiement.
Mission freelance
Data Analyst E-commerce (H/F)
Nous recherchons un Data Analyst Freelance expérimenté pour rejoindre notre équipe data e-commerce et finance. Vous serez responsable de l'analyse et de l'interprétation des données financières et e-commerce pour aider à la prise de décisions stratégiques. Missions principales : Collecter, analyser et interpréter des données e-commerce. Utiliser SQL pour interroger des bases de données et extraire des informations pertinentes. Programmer en Python pour l'analyse de données, l'automatisation des tâches et la création de modèles prédictifs. Collaborer étroitement avec les équipes métier pour comprendre leurs besoins et fournir des insights actionnables. Présenter les résultats des analyses de manière claire et concise aux parties prenantes.
Offre d'emploi
Data Scientist Junior- Whisper H/F
Analyser et interpréter des ensembles de données complexes pour identifier des tendances, des modèles et des opportunités d'amélioration; Développer et mettre en œuvre des modèles prédictifs et des algorithmes d'apprentissage automatique pour répondre aux besoins commerciaux; Collaborer avec les équipes interfonctionnelles pour définir les exigences et traduire les problématiques business en solutions techniques; Visualiser et communiquer les résultats de vos analyses de manière claire et concise à des parties prenantes non techniques; Maintenir et améliorer les systèmes de gestion des données et les pipelines de traitement;
Mission freelance
Analyste-Développeur Java JEE
Nous recherchons un Analyste-développeur Java JEE confirmé pour renforcer notre équipe de développement. Sous la supervision du responsable de l'équipe de développement WEB, vous concevrez et développerez des WebServices REST dans la couche middleware ou applicative en J2E 6 à 11. Vous travaillerez également sur des applications web J2E 8 à 17 en utilisant des frameworks tels que Spring, Hibernate, Struts, Springboot, Thymeleaf et Jquery, avec des serveurs WildFly 10 ou Tomcat 9. En parallèle, vous développerez des batchs Java 6 à 17 avec Spring Batch. Vous serez amené à utiliser des technologies telles que ESB et l'API Management WebMethods, et à contribuer aux évolutions sur WebCenter (Oracle). La mission inclut également la conception avec des compétences en UML et la rédaction de documents.
Offre d'emploi
skiils se renforce et cherche son Data scientist sénior
Nous recherchons notre expert dans le développement de modèles et plus particulièrement dans les méthodes d'inférence statistique (eg, causal inference, synthetic control), afin de définir et implémenter la mesure de performances de notre solution d'optimisation de l'assortiment produit. Poste destiné en priorité aux CDI Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particuliers des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA Maîtrise indispensable de Python et de ses librairies Data Science Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. Maîtrise de l’Anglais indispensable.
Mission freelance
DATA Engineer
Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit
Offre d'emploi
Intégrateur progiciel - Sophia Antipolis / (H/F)
Contexte de la mission : Le pôle Transversal Core & Revenue est responsable des applications socles qui soutiennent le développement des solutions dans divers domaines, y compris les aspects digitaux et de gestion des revenus. Le cœur de ces applications est un progiciel logistique déployé sur des infrastructures spécifiques et développé par un fournisseur international reconnu. Le projet consiste à upgrader ce progiciel vers une nouvelle version, en intégrant les technologies compatibles avec Tomcat et les dernières librairies frontend et backend, telles qu'Angular Material. Objectifs de la mission : Construire un nouvel environnement technique Tomcat en remplacement de Websphere. Configurer les interfaces nécessaires avec les applications satellites (MQ, WS, Event, échange de fichiers, batch). Adapter le monitoring existant au nouvel environnement. Tâches principales : Participer à l'architecture technique en lien avec le Domain Architect. Valider les documents fonctionnels (FDD) et techniques (ITDD). Participer aux chiffrages de l’activité et analyser ceux du partenaire externe. Assurer les déploiements des packages du progiciel sur tous les environnements (DEV, RCT, QAL, PROD) en visant une automatisation accrue. Garantir la qualité des livraisons en participant aux tests de qualification, en mettant en place un monitoring pertinent, et en validant techniquement les services livrés. Suivre la performance du progiciel (temps de réponse) et analyser sa compatibilité avec les besoins actuels et futurs. Suivre les anomalies sur les environnements de tests et de production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes