Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Business Analyst Senior
La Tribu « CRM & Communication client » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation clientbanque et des outils de conformité. Vous intégrerez la Squad E2C « Equipement & Connaissance client » dont la raison d’être est d’apporter des outils performants et des données fiables sur l’équipement et la connaissance du client, pour sa satisfaction, à travers nos conseillers, dans un esprit de cohésion, en qualité de Business Analyst. Methodologie AGILE
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
EXPERTISE ORACLE N3
La présente consultation a pour objet la mise en place d’une prestation d’expertise Oracle N3 au sein du Domaine Exploitation. L’expertise BDD a pour principal objectif de fournir les moyens efficients au maintien en conditions opérationnelles des BDD Oracle et Appliances Oracle du parc. L’accompagnement des Conduites Techniques et des Projets dans le cadre de nouveaux besoins fera également partie du rôle premier de l’expert Oracle. La prestation sera effectuée en étroite collaboration avec les autres équipes du domaine Exploitation et des autres domaines de la DSI, ainsi qu’avec nos partenaires (Infogérant, TMA, Editeurs). La prestation sera réalisée sous l’autorité directe du responsable du Pôle Expertise BDD et de ses appuis au pilotage. Description de la prestation : - Administration des BDD Oracle 12c, 19c et 23c. o Montée de version, patch des infrastructures et des BDD o Mise en place mode RAC / RAC one Node o Mise en place et maintien de DataGuard o Audits et analyse de performances Oracle (BDD et Infrastructures) o Migration / transformation des environnements Oracle vers PostgreSQL - Oracle Enterprise Manager (OEMcc) 13 o Suivi des alertes de Production et optimisations o Supervision et planification des travaux via OEMcc o Génération et interprétation de rapports de performances et de rapports capacitaires via BI Publisher ou OAS o Analyse des performances et optimisations SQL vie OEMcc o Déploiement et Supervision des BDD via OEMcc o Mise en place et maintien des sauvegardes RMAN - Administration des infrastructures o Administration des systèmes Exadata et ZDLRA o Définition des chronogrammes d’opération o Pilotage technique dans le cadre d’une cellule de crise Analyses, plan d’actions o Conseil sur les best-practices à adopter pour optimisation des infrastructures o Conseil sur les best-practices à adopter pour optimisation des configurations des BDD Oracle dans le contexte Exadata Opérationnel sur les sujets suivants o Documentation Rédaction de procédures, plan d’actions et rapports d’analyses à la destination des expertises DBA et/ou management Mise à jour des dossiers d’architecture et Règles d’Ingénierie o Suivi des demandes et des actions des fournisseurs Ouvertures et suivi des SR Oracle (en anglais) via le portail MyOracleSupport Challenger les prestations Oracle OBLIGATOIRE : Oracle Exadata Version 23 à maitriser
Mission freelance
Ingénieur développement Adobe Campaign H/F
Nous recherchons un Ingénieur de développement Adobe Campaign Confirmé (H/F) pour le compte de notre client spécialisé dans le secteur des assurances à Montpellier (34) Il s'agit d'une mission longue (3 ans) avec 3 jours de télétravail possible par semaine Période de démarrage : ASAP Mission: - Estimer, concevoir et développer des évolutions sur Adobe Campaign. - Analyser et résoudre les problèmes liés aux diffusions et workflows. - Collaborer avec les équipes pour garantir la qualité et la satisfaction client.
Mission freelance
Développeur EDI IBM Sterling confirmé (H/F)
Nous recherchons pour l'un de nos clients un.e Développeur EDI (niveau intermédiaire ou senior) pour participer à la conception et à l’intégration de solutions EDI dans le cadre d’un projet de transformation technologique. Vous interviendrez sur l’ensemble du cycle de vie des projets, de l’analyse technique à la mise en production, avec un rôle clé dans l’intégration des données et des systèmes. Participation aux phases du projet : Analyser les besoins techniques, concevoir l'architecture du système et participer au développement. Réaliser l’intégration et les tests des systèmes, avec un support technique post-mise en production. Configuration des systèmes EDI : Configurer les systèmes EDI, les profils des partenaires commerciaux et mettre en place des protocoles de communication sécurisés (AS2, SFTP, HTTP/S). Développement et optimisation : Créer et gérer des processus métier personnalisés pour les transactions EDI. Intégrer l’EDI avec d’autres systèmes d’entreprise (ERP, CRM, WMS) via middleware, APIs ou connexions directes. Concevoir des connecteurs ou des flux de données pour garantir des échanges fluides entre l'EDI et d'autres applications. Gestion de données : Développer et optimiser des requêtes SQL et des procédures stockées pour la récupération, la journalisation et le reporting des données. Développer des scripts pour des alertes, notifications et surveillances de transactions personnalisées. Support et formation : Fournir une formation et un soutien aux équipes sur les opérations EDI et les meilleures pratiques. Documentation des solutions techniques (architecture, spécifications, plans de tests). Solutions techniques conformes aux besoins fonctionnels. Plans de tests et exécution des tests d’intégration.
Mission freelance
Digital Business Anayst
Contexte La numérisation des laboratoires de contrôle qualité a été identifiée comme une initiative clé pour Roquette. Le but est de : - Contribuer au positionnement de Roquette en tant que champion Pharma - Augmenter la productivité dans le laboratoire de contrôle qualité - Contribuer à diminuer le BRT et le GRT (Batch/Global Release Time) - Augmenter l'intégrité et la traçabilité des données -... Le périmètre fonctionnel couvrira 3 axes principaux : - Digitalisation des laboratoires (LIMS/LES) -Connectivité des équipements de laboratoire -Interface SAP
Mission freelance
Product Owner Orienté Data et SLA
Dans le cadre de la gestion d’un fournisseur de services de l'un de nos clients, nous recherchons un profil capable de piloter la prestation de ce fournisseur. Le candidat sera responsable de la supervision des SLA, du suivi des nouvelles fonctionnalités, ainsi que de la gestion quotidienne avec les fournisseurs et les équipes internes. Bien que le poste ne soit pas technique en termes de développement, des compétences techniques seront nécessaires pour gérer les flux et interagir avec les fournisseurs et les équipes. Ce poste est stratégique pour garantir la bonne qualité des services fournis et le respect des engagements contractuels. Supervision des SLA : Suivre les niveaux de service (SLA) contractuels avec les fournisseurs et assurer leur respect. Suivi des fonctionnalités : Gérer le déploiement et le suivi des nouvelles fonctionnalités fournies par les prestataires. Interface fournisseurs/équipes internes : Assurer une communication fluide entre les fournisseurs et les équipes internes (techniques, produits, etc.). Gestion de la qualité des données : Utiliser vos compétences en SQL et en data pour superviser la qualité des données dans le cadre de la prestation. Gestion de projet : Piloter les aspects techniques et contractuels du projet, avec un suivi rigoureux des contrats et des prestations fournies. Collaboration avec les équipes internes : Collaborer avec les équipes techniques et les Product Owners pour s'assurer que les objectifs sont atteints en temps et en heure. Expérience opérationnelle : Vous avez une solide expérience dans la gestion de projet et dans le suivi de prestations fournisseurs. Expertise en data : Vous avez une excellente maîtrise des outils de gestion de données, notamment BigQuery, et êtes capable de superviser et de garantir la qualité des données. Compétences techniques : Bien que vous ne serez pas directement impliqué dans le développement, des compétences en SQL et une bonne compréhension des technologies comme Kafka sont indispensables. Pilotage et gestion des SLA : Expérience dans le suivi et la supervision des niveaux de service contractuels. Autonomie et curiosité : Vous êtes autonome dans votre travail, curieux et capable d'interagir de manière proactive avec les équipes techniques.
Offre d'emploi
BA Contrôle (Loi Eckert)
Ce périmètre a en charge les activités de contrôle de conformité internes et externes. On y retrouve l'application TSM (Tiers Sans Mouvement) qui répond à la loi Eckert de 2015 pour identifier les tiers ayant des comptes sans mouvement dont les avoirs au bout d'une période définie qui varie selon le produit peuvent être transférés à la Caisse des dépôts. La surveillance permanente au niveau siège et réseau est réalisée au travers des assets GCT et PECH qui sont tous deux des moteurs de collecte et d'échantillonnage de dossiers de contrôle. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Assistance Maîtrise d'Ouvrage SI. Dans ce cadre, la prestation consiste à contribuer à/au(x) : • Divers besoins des différents Utilisateurs et/ou Bénéficiaires et diverses traductions associées. • L'assistance lors des phase de l'homologation bancaire • Aux différents livrables selon planning prédéfini • La remontée d'informations/événements/ alertes, ... • L'interface avec les différents Utilisateurs et/ou Bénéficiaires pour l’ensemble des questions fonctionnelles • L'Identification, l'analyse et la traduction des besoins utilisateurs • La définition des solutions à mettre en place et faire une analyse des impacts et adhérences • La documentation des spécifications fonctionnelles • Assistance aux Product Owners sur l'homologation bancaire en fonction de leurs besoins • L'assistance des utilisateurs (fixation des priorités, prononciation des arbitrages en fonction des risques et des résultats attendus) • L'assistance sur les changements (analyse d’impact, communication et conduite du changement auprès des utilisateurs, démarrage, déploiement) • La consolidation des documents de pilotage projet et conduite du changement associée • Run de la solution Module AC et diverses remontées (incidents, ....) • L'assistance aux différents Utilisateurs et/ou Bénéficiaires
Mission freelance
Data Engineer (H/F) - Lille
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - AWS - Scheduling Airflow - DBT - Databricks - Pyspark Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous implémentez des solutions selon les règles fonctionnelles définies - Vous documentez vos actions - Vous créez des pipelines scalables de données structurées - Vous réalisez le support utilisateur en répondant à leurs questions - Vous documentez les flux implémentés - Vous prenez part à l’élaboration des bonnes pratiques de l’équipe - Vous partagez vos savoirs avec les autres Data Engineers Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/DAENDE/111
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Offre d'emploi
Développeur Calypso Bonds (H/F)
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Le prestataire rejoindra l'équipe BUILD (Étude et Projets) en charge des applications client pour accompagner les nouveaux projets au sein de la filière RSF. Les responsabilités incluent : 🔸 Études et développements sur les applications client 🔸 Proposition et mise en œuvre d’éléments liés au CI/CD 🔸 Collaboration avec les équipes d'architecture pour proposer des solutions 🔸 Suivi des développements et accompagnement des phases de tests utilisateurs (UAT) Livrables et résultats attendus : 🔸 Documentation des solutions développées 🔸 Développements techniques 🔸 Cahiers de tests techniques 🔸 Accompagnement des livraisons en production
Offre d'emploi
: Data Engineer & Développeur d'Applications Python – Domaine de l’environnement (H/F)
📑 CDI (45-48K€) – 🏠 2 jours de télétravail / semaine – 📍 Toulouse– 🛠 Expérience de 4 ans minimum📍 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer & Développeur d'Applications Python pour intervenir chez un de nos clients dans le domaine de l’environnement 💻💼 Vous avez une solide expérience en gestion de gros volumes de données et en développement d’applications ? Vous maîtrisez Python et des outils comme Airflow, NiFi, Prefect, ou Kafka ? Nous avons peut-être le projet qu'il vous faut ! Voici un aperçu détaillé de vos missions 🎯 : - Participer à l'acquisition, au stockage et à l'optimisation des données ; -Concevoir et développer des applications pour gérer ces volumes massifs ;
Mission freelance
Product Owner (H/F) - Lille
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Product Owner (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - BiQuery - Kafka Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous définissez et suivez les KPIs - Vous réalisez et faites évoluer les Dashboard - Vous communiquez avec toutes les parties prenantes du projet - Vous définissez la roadmap Produit - Vous réalisez des User Stories - Vous contribuez aux rituels de l’équipe Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/POLMA/104
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Développeur Java (Spring Batch)
Vos principales missions seront : Participer à l’analyse des besoins et à la rédaction des spécifications techniques. Développer et maintenir des applications Java JEE en utilisant le framework Spring, avec un focus particulier sur Spring Batch. Optimiser et refactoriser le code existant pour améliorer la performance et la maintenabilité des applications. Assurer l’intégration continue et la mise en production des solutions développées. Participer aux phases de tests unitaires et d'intégration. Collaborer étroitement avec les autres équipes (DevOps, Frontend, Product Owner, etc.) pour assurer la cohérence et la qualité des livrables. Rédiger et maintenir la documentation technique. Veiller à la mise en œuvre des bonnes pratiques de développement et de sécurité.
Offre d'emploi
Administrateur bases de données (H/F)
Ce qui vous attend : Vous rejoindrez une agence dédiée pour un grand groupe français. Vous intégrerez une équipe dédiée au RUN de 3 personnes. Vos responsabilités : • Mise en place d'outils de surveillance des bases de données (Développement de scripts Shell et Powershell) ; • Contrôles quotidiens de la disponibilité des bases et du fonctionnement de la sauvegarde ; • Diagnostiques et résolutions des incidents et des anomalies ; • Audits bases de données et audits de performances système Windows et Linux ; • Conseil et support pour améliorer la disponibilité et la performance des bases de données ; • Écoute et accompagnement du client pour exprimer son besoin, et proposer des solutions ; • Conseil et dimensionnement des serveurs ; • Création, paramétrage et dimensionnement des bases de données ; • Partitionnement des tables de grand volume ; • Création du plan d'indexation ; • Tuning des requêtes SQL Utilisateur ; • Mise en place de la haute disponibilité : Oracle Data Guard / SQL Server Always On ; • Administration, maintenance, migration et optimisation de base de données ; • Gestion de sécurité et des privilèges sur les environnements ; • Mise en place des stratégies de sauvegarde et de restauration ; • Rédaction des documentations techniques ; • Respect et promotion des normes et des processus qualité ; • Suivi et mise à jour des informations sur les bases de données au niveau de la CMDB ; • Participation aux réunions des instances client de suivi d'activité ; • Technologie : les principaux SGBD utilisés sont : SQL Server, PostgreSQL, Mysql/Mariadb et Oracle. Référence de l'offre : f3h0t94agc
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.