Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Senior Anonymisation de données
Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.
Mission freelance
Data Specialist
Nous recherchons pour le compte d'un de nos clients un expert Data. Le client est en pleine implémentation de Salesforce et recherche un expert autour de la donnée. Le consultant sera en charge de : Mapper la donnée entre Salesforce et les différents outils satellites du client (essentiellement ERP) dans ses différentes filiales et pays S'assurer de la qualité de la donnée (data collection, data cleansing, data analysis) entre les différentes outils CRM/ERP/MDM Collecte de la donnée pour la mise en place de KPI dans Salesforce
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Expert dynatrace
Dans le cadre de la mission votre objectifs sera de réaliser un déploiement massif de monitoring sur un périmètre applicatif et technique Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident
Offre d'emploi
Ingénieur QA technico Fonctionnel - back end – Aix en Provence H/F
Nous recrutons un Ingénieur QA Technico Fonctionnel Back end (F/H) pour renforcer nos équipes chez notre client dans le secteur tertiaire proche d'Aix en Provence. Notre collaborateur QA travaillera sur des applications dans un SI complexe. Les tâches de la mission seront : Revue et analyse des spécifications fonctionnelles Participer aux critères d’acceptation des User Story et affinage. Préparer les campagnes de tests fonctionnels et techniques Concevoir les plans de test, conception et exécution des test Préparer les jeux de données Réaliser des requêtes SQL complexes sur des bases de données relationnelles Oracle Réaliser les tests de Webservices Réaliser les tests de flux. Configurer et lancer les batch Analyser et remonter les anomalies Rédiger les rapports de test Echanger avec l’équipe de développement 2 jours de télétravail et 3 jours de présentiel – Premier mois d’intégration sur site 15 min d’Aix.
Offre d'emploi
Technico-fonctionnel CALYPSO
Description de la mission : En tant que Technical Analyst, vous participerez à l’évolution des chaînes business pour plusieurs produits et serez impliqué(e) dans les aspects de CI/CD. Vous collaborerez avec l'équipe d'architecture pour définir des solutions et assurerez le suivi des développements jusqu'à la phase de tests UAT. Responsabilités : Estimer les charges et élaborer les plannings de réalisation. Proposer des solutions techniques en partenariat avec l’équipe d’architecture. Suivre les développements et accompagner les tests utilisateurs (UAT). Documenter les solutions, rédiger les cahiers de tests techniques et accompagner les mises en production. Apporter des suggestions pour améliorer la plateforme technique.
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Offre d'emploi
Analyse données d'inventaire et qualité des référentiels
🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission s'inscrit dans le cadre du programme Safety & Trust consistant en l'amélioration de nos référentiels et de la maîtrise du système d'information. Il s'agira de procéder à plusieurs vagues de nettoyage et d'amélioration de la qualité et de l'exhaustivité des données stockées dans plusieurs de nos référentiels mais également de coordonner l'implémentation d'outils de monitoring et de contrôle de nos inventaires et de nos assets. Il s'agira également d'accompagner les équipes DEV/APS de Pologne afin d'implémenter des nouveaux outils de l'écosystème Inventaires Hardware Assets Management.
Offre d'emploi
Tech Lead en IA Generative
Descriptif de la prestation Prestation complexe sur une technologie de niche innovante ou en cours de raréfaction. Projet de grande envergure. Présence de certifications liées au contexte de la prestation. Contexte & Objectifs de la prestation Dans le cadre de l'initiative IA Gen, un chantier socle commence autour de l'architecture et la construction d'une plateforme IA Gen, mobilisant des briques à orchestrer autour des LLM du marché, le RAG, l'architecture Cloud, le prompting, la sécurité et la gestion des droits. Nature et étendue de la prestation Prestation de cadrage technique et de pilotage de la mise en oeuvre du socle technique GenAI : - Challenge d'une première version de l'architecture macro réalisée par les équipes Data/Architecture - Organisation d'ateliers d'affinage de la vision et définition du plan d'actions nécessaire pour la réalisation - Animation des ateliers avec les experts Data engineers, Architectes, Data Scientists
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Mission freelance
Data Product Manager
Au sein de l'équipe Data As a Service Customer, vous dirigerez des évaluations/études dans le segment d'activité HPS (High Performance Solutions) du client et participerez, après l'évaluation, à la phase d'exécution du projet. Missions & livrables : - Organiser l'étude et recueillir les exigences de toutes les par?es prenantes - Comprendre les ambitions, les enjeux et les objectifs de l'entreprise - Organiser et animer des ateliers avec le métier - Collecter tous les éléments nécessaires pour l'étude - Documenter l'architecture fonctionnelle - Faire de la modélisation de données / concevoir les couches métier (couche Silver) - Organiser les contributeurs Data As a Service (Architecte Technique, Ingénieurs Data & BI) - Documenter la valeur de la solution - Préparer le budget et le planning de la phase de construction / exploitation - Formaliser les propositions finales pour le lancement du projet ("Go to project") Processus : 2 entretiens Go - No Go
Mission freelance
Ingénieur DevOps
Du build Participer au développement de la CI/CD et de l'infra as code Apporter de l'expertise sur le choix des solutions Accompagner les équipes de delivery sur les aspects d'opérabilité (résilience, observabilité, performance) Du run Effectuer les mises en production et fournir les outils permettant à l’équipe de réaliser les mises en production S’assurer du bon fonctionnement de la production et veiller à l'opérabilité du monitoring Assurer le maintien en condition opérationnelle de l'infrastructure Réaliser les actions d'amélioration continue Participer à l'analyse d'incident Assurer l'astreinte technique Contribution à la vie de l'équipe et du projet : Etre acteur des cérémonies agiles Participer à la réalisation des éléments du backlog Etre force de proposition sur l'amélioration continue Stack technique : CD/CI : Gitlab-ci Infra As code : Terraform (Services managé AWS, K8S) Suivi : Kibana/Grafana, Superset, Instana, AWS Cloudwatch Service Mesh : istio Serverless : AWS lambdas, AWS API Gateway Caches : Redis, Varnish Stockage de données : Mongo, DynamoDB, AWS S3
Mission freelance
Cloud Designer AWS & Data
Au sein de département dédié à l'infrastructure, notre client recherche un expert Cloud AWS ayant une maitrise DATA pour architecturer, définir et accompagner à la mise en place d'une nouvelle infra dédiée aux projets data. Vos missions : ● Maitrise en profondeur les concepts du Cloud AWS et notamment les services réseau, sécurité et IAM. ● Possède une expérience de mise en œuvre de plateforme data intégrant Gouvernance, ingestion, transformation, stockage, exposition, Analytics. ● Sera amené, à realiser le design des features de la plateforme permettant aux métiers de developper et exploiter des Data Products/Data Sets. ● Il intègrera dans ses propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considèrera comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Objectifs et livrables : Prendre part au cadrage et à la définition de l’architecture des features du workplan et rédigera les spécifications associées
Mission freelance
Développeur Senior Python/GO
Nous sommes à la recherche d'un développeur Senior Python/GO, capable de concevoir et de maintenir des applications robustes et performantes. Le candidat idéal devra posséder une solide expérience en développement logiciel et être à l'aise avec les technologies de traitement des données. Il sera amené à travailler en étroite collaboration avec les équipes produit et technique pour définir et implémenter des fonctionnalités avancées, tout en contribuant à l'élaboration de solutions innovantes qui répondent aux besoins stratégiques de l'entreprise et soutiennent son plan de croissance à long terme.
Offre d'emploi
Expert ODI
Bonjour, Nous recherchons pour notre client de renom en France, dans le secteur de la construction, un Expert ODI (Oracle Data Integrator) pour une mission à fort enjeu technique. Dans le cadre de l’évolution des projets Data de notre client, vous interviendrez sur des problématiques d’intégration de données en environnement complexe. Vous serez amené(e) à : Analyser les besoins métiers et proposer des solutions techniques adaptées Contribuer à la conception et au développement des flux d’intégration sous Oracle Data Integrator (ODI) Effectuer des tests et veiller à la qualité des données traitées Optimiser les processus d'extraction, de transformation et de chargement (ETL) Participer à la documentation technique et fonctionnelle des solutions mises en œuvre
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.