Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte d'entreprise et solution Assurance Finance et Risques
Nous recherchons un Architecte d'entreprise et solution pour intervenir de la phase d'étude d'opportunité jusqu'à la mise en production des différents projets de notre client Assureur. Vos missions : Produire deux livrables par projets (diagnostique d'architecture et dossier d'architecture fonctionnelle) vérifier la conformité d'implémentation des impacts documenter toutes les connaissances dans l'outil référentiel d'architecture (lean IX) et dans le dictionnaire de données de notre client. Prérequis : Bac+5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte d'entreprise et solution pour des grands compte de l'assurance. (Assurance de personnes, épargne, et ou assurance de biens) Connaissance du domaine finance/risque et des spécificités assurantielles telles que Solvency II Expérience en processus RH et intégration de progiciels RH (idéalement Workday) Maitrise de la modélisation de processus (norme BPMN V2), et approche Data au sein du SI Stack techniques : On Premise, Cloud (AWS)), Mainframe, digital développé en interne, solutions SaaS ou progicielles. Anglais courant obligatoire
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
IA Program Manager
Au sein du département Data Science, vous serez en charge de développer, déployer et maintenir un périmètre de solutions basées sur l’IA, en veillant à leur alignement avec les objectifs stratégiques de l’entreprise. Votre rôle Gestion du programme et coordination des ressources · Traiter la demande commerciale, la conception, la planification, les priorités, le développement, les essais et la documentation associée · Collaborer avec le chef de projet informatique · Coordonner les ressources internes et externes pour soutenir le développement et l’implémentation du produit · Déployer les application au sein des unités opérationnelles en assurant la transition fluide des solutions et leur adoption Création de valeurs · Proposer des solutions innovantes pour soutenir de nouveaux cas d’utilisation · Evaluer la performance des modèles génératifs et des solutions NLP/NLU · Identifier les améliorations possibles Sécurisation de l’exécution et de la maintenance des applications basées sur l’IA · Suivre les accords de niveau de service (SLA) et collaborer avec les équipes de support · S’assurer que la documentation est maintenue à jour avec les évolutions de chaque produit Gouvernance et gestion du changement · Sécuriser le processus de gestion du changement afin d’assurer l’adoption et l’utilisation continues des solutions IA · Gérer les indicateurs clés de performance (KPI) relatifs aux projets IA · Etablir et animer une communauté IA au sein de l’entreprise
Mission freelance
Chef de projet Adjoint - Amélioration continue des programmes
Opportunité dans le secteur Aéro/Spatial/Défense. Au sein de la direction Qualité, vous aurez en charge le support au chef de projet pour le suivi et la mise en œuvre des différents projets pilotés par le département d'amélioration continue des programmes. Livrables attendus : pilotage de planning organisation d'évènements animation de réunions animation d’ateliers de travail réalisation et déploiement de formation support pour déployer et fédérer le réseau d'acteurs réalisation et mise à jour de documentation. Profil recherché : Certification green Belt souhaitable, 70% amélioration continue & 30% gestion de projet. Maîtrise de l'ISO 9001 et EN9100, Lean/6SIGMA Déplacements potentiels en Europe. Anglais courant nécessaire.
Offre d'emploi
Business Analyst en Finance de Marché
Dans un contexte où la data devient de plus en plus clé dans les processus métiers de l'Asset Management, la prestation sera rattachée au service Data, au sein du pôle Back To Front & Clients Externe. A ce titre, les principales missions à mener sont : o Contrôle des Holdings o Mise à jour les KPIs clients - Optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs - Automatisation de Alto Dashboard - Traitement des demandes Jiras des clients sur la partie securities, portefeuilles et Atlas - Support de second niveau auprès de nos utilisateurs (Alto Ticketing, jiras et mails) - Automatisation Python et VBA pour l'équipe de Production pour améliorer nos météos et automatiser notre activité pour les clients externes - Garantie de la cohérence de nos processus avec les principes de la Gouvernance des données - Contribution à l'optimisation et à l'amélioration continue de nos processus métiers, opérationnels et notre plateforme data management pour accompagner la croissance mondiale du Groupe - Automatisation de la configuration alto pour les clients externe - Automatisation du Dashboard alto pour les KPIs clients Stack Technique : Outils bureautiques (Excel, Word, PowerPoint) / Bloomberg / Reuters /SQL/ VBA/ Python Anglais indispensable Resultats attendus / livrables : - Contrôle de la production quotidienne des intégrations des flux d'alimentation des administrateurs de fonds, dépositaires par application des procédures de contrôles qualités - Contrôle de la production transverse MDS de la prestation Back To Front pour l'ensemble de nos clients externes. o Contrôle des Holdings o Rapprochement et création des instruments financiers o Mise à jour des KPIs clients - Proposition d'optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs La mission est à pourvoir ASAP, se dérouleras dans Paris Intramuros. 2 ou 3 jours de télétravail par semaine sont prévus.
Mission freelance
Expert Databricks - Développement Python
Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.
Mission freelance
Architecte technique Flux EDI / EAI TRADEXPRESS
Notre client a pour objectif de proposer des offres de services répondant aux besoins des filiales. L'architecte technique flux doit pourvoir concevoir les architectures en accompagnement des différentes sociétés du groupe dans le cadre de leurs projets. Nous recherchons en urgence un architecte technique flux, expert sur la plateforme EDI / EAI Tradexpress. - Accompagner les clients et les chefs de projets dans la conception technique et fonctionnelle en relation avec les échanges inter-applicatifs au sein du groupe. - Construire, mettre à jour et faire évoluer la cartographie technique du système d'information. - Proposer différents des scénarios - Design des schémas des flux - Mise à jour les référentiels documentaires, rédaction de document d'architecture technique des flux, réalisation et suivi des demandes d'ouverture de flux. - Préconiser des choix techniques afin de garantir la sécurité et l'intégrité des échanges de données. - Accompagner les chefs de projets et les différents acteurs du SI sur le choix des protocoles et des standards applicables - Animation / participation aux réunions, ateliers d'analyse, comité de validation. - Assistance technique, coordination et collaboration avec les équipes TMA et support N2 et N3
Mission freelance
CHEF DE PROJET TECHNIQUE API MANAGEMENT ET EDI
Responsabilités: Point d'entrée des demandes de développement des API et EDI Gérer les projets de développement de bout en bout Définition des contrats de service (API) et connaissance des formats standards EDI (EDIFACT, ANSI X12 …) Ecriture des US fonctionnelles et techniques relatives à la mise en place des API/EDI Supervision des déploiements de l'API via l'API Management retenu Des EDI sur la plateforme EDI (webMethods) Garant de la sécurisation d'accès à chaque API + activités de CP classiques Assurer la planification et les étapes de la roadmap Organiser les réunions de suivi de projet et communiquer avec les parties prenantes Assurer la qualité de la livraison, gérer les risques et les problèmes Assurer une communication claire et efficace Fournir régulièrement un reporting et des analyses des projets API
Offre d'emploi
DATA ENGINEER GCP
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative
Mission freelance
Développer C# - Python
- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).
Offre d'emploi
Technicien(ne) VIP
Pour l’un de nos clients, nous recherchons un Technicien VIP (H/F). Votre mission principale sera de garantir le support dédié aux VIP afin d’atteindre les objectifs fixés, en collaboration avec le responsable Helpdesk et le Digital Workplace Manager. En tant que Technicien VIP, vous organiserez et mettrez en œuvre des séances de coaching pour accompagner les VIP et leurs assistantes dans l’utilisation des nouveaux outils et usages digitaux (Apple, M365). Vous serez également force de proposition pour l’amélioration des processus et l’implémentation de nouvelles technologies facilitant leur quotidien numérique. MISSIONS Support VIP Coordonner, gérer et animer le support VIP des membres des comités de division en lien avec le Help Desk et le Digital Workplace Manager. Assurer l’assistance téléphonique via un numéro dédié et le support de proximité. Vérifier et préparer les salles de visioconférence haut niveau (écrans, propreté, tests de présentation). Suivre les actions d’amélioration continue à l’aide de tableaux de bord. Proposer des solutions pour améliorer la productivité des VIP et de leurs assistantes (support proactif). Gérer la sécurité et la sauvegarde des postes de travail nomades. Supporter les équipements : tablettes, smartphones, etc. Apporter une assistance personnalisée sur des problématiques informatiques personnelles. Assister le Digital Event Manager pour des événements spécifiques (visioconférences, salons, déplacements). Gérer les incidents VIP en priorité absolue. Coaching Organiser et animer des séances de formation dédiées et personnalisées sur les outils et solutions (M365, Apple, etc.). Rédiger des supports pédagogiques si nécessaire. Sensibiliser les utilisateurs aux enjeux de cybersécurité. Communiquer sur les nouveaux outils, usages et dysfonctionnements éventuels. Gestion de projets Accompagner les VIP lors de migrations techniques ou applicatives.
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Offre d'emploi
TechLead Data GCP
Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Mission freelance
Consultant technique Cognos BI
CONSULTANT MOE COGNOS BI Descriptif détaillé de la mission : ➢ Développement et maintenance évolutive des solutions BI et de reporting en relation avec les équipes AMOA BI, Data BI, IT et des keys-users. ▪ Centralisation et analyse des besoins exprimés ▪ Conception et modélisation de solutions BI ▪ Evolution des rapports et packages, & éventuellement des traitements d'alimentation. ▪ Rédaction de documents/spécifications techniques. ▪ Environnement technique de la mission : ➢ +++++COGNOS BI 11 (Framework Manager, Report Studio, Transformer) ➢ +++SQL SERVER 2016 - 2019 ➢ ++Microsoft SSIS ➢ +Tableau Desktop, Tableau Prep, Tableau Server
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Offre d'emploi
Ingénieur Support Infoblox
Support technique de niveau 2/3 : Diagnostiquer et résoudre les incidents liés aux solutions Infoblox. Analyser les problèmes complexes, identifier les causes racines et appliquer les correctifs appropriés. Élaborer des rapports d’analyse et de résolution. Maintenance et administration : Configurer et maintenir les plateformes Infoblox (DNS, DHCP, IPAM). Effectuer les mises à jour logicielles et les patchs de sécurité. Superviser les performances et l’intégrité des systèmes. Documentation et formation : Rédiger les procédures, guides utilisateurs et documents techniques. Former les équipes internes ou les clients sur l'utilisation des outils Infoblox. Collaboration et escalade : Travailler en collaboration avec les équipes réseaux, sécurité et infrastructure. Escalader les incidents critiques au support Infoblox lorsque nécessaire. Amélioration continue : Proposer des améliorations pour optimiser l’utilisation des solutions Infoblox. Participer aux audits et évaluations techniques. Rapports réguliers sur les incidents et leur résolution. Documentation technique mise à jour. Tableaux de bord sur la performance et la disponibilité des systèmes Infoblox. Plan d’amélioration des services DDI.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.