Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Business Analyst SOA
Pour notre client, acteur majeur dans le domaine de la maîtrise des risques, nous sommes à la recherche d'un Business Analyst SOA. Ce poste clé consiste à produire les spécifications fonctionnelles de nouveaux flux répondant aux besoins recensés par les architectes avec le métier, mais aussi maintenir et faire évoluer les documents existants. Animation, communication et planification : Identifier les parties prenantes Planifier les ateliers de conception des flux et les tâches de réalisation Définir le contenu des ateliers Piloter les ateliers avec les différentes maîtrises d’ouvrage/œuvre et les architectes fonctionnels Lancer et coordonner les analyses des impacts applicatifs Analyse des besoins : Analyser les besoins des parties prenantes Analyser, comprendre les objectifs, les activités et les processus métiers Rédiger des spécifications fonctionnelles Affiner la définition et la description des objets métiers d’un point de vue fonctionnel Identifier avec l’aide des MOA/Architectes les Mapping / Transcoding / Enrichissement inter applications Affiner la définition et la description des formats pivots Réaliser un modèle UML des pivots liés aux objets métiers Rédiger des livrables (cf. ci-dessous) Accompagner la rédaction par les applications de spécifications relatives à certains composants techniques réalisés par l’équipe flux inter-applicatifs sous responsabilité applicative (adapters) Mettre à jour l’outil de cartographie Participer au transfert de connaissances vers les autres équipes Livrables : Synthèse des flux SFD : Spécifications Fonctionnelles Détaillées Pivots (JSON Schéma) CSM : Contrat de Service Métier Mapping/Transcoding Enrichissement/Composition Modèle UML Séquencement de flux
Offre d'emploi
Responsable Opérationnel d'Application CRM H/F
Le Prestataire s’engage à effectuer les missions définies ci-dessous : Dans le cadre de la mission, il sera demandé au prestataire de réaliser les tâches suivantes : •Contrôle de la disponibilité de l'application et de ses composants •Contrôle de la bonne exécution des traitements ordonnancés de la nuit. •Prise en charge des INC afférant à l'application dans l'outil ITSM •Réalisation des analyses et recherches nécessaires à la mise en oeuvre d'un contournement, d'une réparation, ou tout simplement d'un transfert au service de Qualification. •Prise en charge des demandes de travaux afférantes à l'application dans la solution ITSM. •Documentation de ces recherches dans les fiches d'incidents ou dans les documents d'exploitation. •Analyse et proposition d’amélioration des procédures de mise en production • Rédaction des documents techniques d’exploitation de la solution (DTE) • Réalisation et homologation des procédures de sauvegarde / restauration • Suivi de la prise en compte des exigences d’exploitation pour l'application. • Répétition de la mise en service informatique • Exécution des tests de préproduction • Saisie dans l’outil ALM des tests réalisés Durant l’exécution des Prestations, le Prestataire communiquera les livrables définis ci-dessous: • Compte rendu d’activité • Document technique d’Exploitation • Procédures d’exploitation • Incident et Demande de travaux Les livrables seront communiqués selon le calendrier suivant : • Compte rendu d’activité : A la fin de chaque mois •PV d'homologation : avant chaque MEP • Mise à jour DTE : A la fin de chaque MEP (si requis)
Mission freelance
developpeur Big Data
Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Offre d'emploi
Consultant Informatica H/F
Storm Group accompagne ses clients de tout secteur d’activité dans la réalisation de leurs projets IT. Forts d’une riche expérience avec de grands groupes du domaine bancaire et de l’assurance, nous utilisons nos connaissances pour répondre à vos besoins d’évolutions technologiques. Storm Group adresse aujourd’hui 7 offres de services pour vous assister lors de vos transformations en alliant les meilleurs talents à vos projets. Contexte : Dans le cadre du projet de développement des nouvelles offres, nous recherchons un(e) Ingénieur Informatica pour renforcer nos équipes. Missions : - Conception technique - Développements Informatica, shell scripts, SQL Scripts - Dossier de tests unitaires - Collaboration avec les équipes Nearshore Responsibilities : ETL Delivery
Mission freelance
Consultant / CDP Talend - Pré embauche possible // 4 jours sur site
Si pour vous être Consultant Talend Cloud Confirmé / Sénior c’est : Avoir de l’expérience dans la mise en place des outils de DATA Intégration, qualité de données et ESB, Être à l’initiative ou contributeur de projet de mise en place de l’outil TALEND CLOUD , Optimiser les performances des flux déjà en place, Être au centre de tous les échanges du SI, Savoir traduire le besoin métier / utilisateur en réponse technique, Savoir chiffrer de manière réaliste la charge de développement (et la respecter), Et faire grandir des profils juniors en partageant les bonnes pratiques,
Mission freelance
Tech Lead .NET – Pôle éditique, GED, et ETL
Contexte : Dans le cadre de la modernisation de notre pôle éditique et de la gestion de la documentation d'entreprise, nous recherchons un Tech Lead .NET pour piloter les initiatives de développement autour de la GED, des stratégies documentaires et du CCM (Customer Communication Management). Ce poste stratégique vous permettra de travailler sur des projets d’intégration de données et de dématérialisation des documents, en collaboration avec des équipes pluridisciplinaires. Gestion de la documentation et des solutions éditiques : Définir et mettre en œuvre des stratégies documentaires en lien avec les besoins métiers et réglementaires. Piloter les solutions de CCM (Customer Communication Management) pour optimiser la communication client et les processus éditiques. Garantir la performance et la sécurité des outils GED, et assurer leur évolution. Conception et développement en .NET : Définir l’architecture des solutions .NET (C#, ) en accord avec les meilleures pratiques et les standards de l’entreprise. Superviser et encadrer les développeurs .NET dans la conception et le développement des applications GED et de gestion documentaire. Assurer la qualité des livrables par des revues de code et garantir la bonne application des standards de développement. Mise en place et optimisation des flux ETL : Concevoir, développer et maintenir des processus ETL sous Talend et SSIS pour l’intégration des données entre les systèmes GED, CCM et les différentes bases de données. Assurer la qualité des données lors des échanges entre les systèmes, et veiller à la conformité avec les exigences de l’entreprise. Optimiser les flux de données pour garantir une performance et une disponibilité élevées. Encadrement technique et gestion de projet : Apporter un support technique à l’équipe en tant que référent sur les technologies .NET, GED et ETL. Conduire les projets en collaboration avec les chefs de projet pour assurer la planification, le suivi et le respect des délais. Participer aux phases de conception, aux rituels agiles (Scrum), et coordonner les différents acteurs internes et externes. Veille technologique et innovation : Participer à la veille technologique pour rester à jour sur les innovations en GED, CCM, et ETL. Proposer des améliorations ou des technologies innovantes pour répondre aux besoins d’optimisation et de modernisation du SI.
Offre d'emploi
Développeur Talend (F/H)
📑 CDI (38-40k€) / Freelance / Portage Salarial - 🛠️ Expérience 3 ans minimum - 🏠 1 jours de télétravail / semaine - 📍 Bordeaux Vous avez au moins 3 ans d'expérience avec Talend et souhaitez rejoindre une équipe dynamique pour travailler sur des projets d’envergure ? Nous recherchons un.e Développeur Talend pour accompagner la transformation et la gestion des données au sein de notre équipe basée à Bordeaux ! Votre mission principale 🎯 : En tant que Développeur Talend, vous serez responsable de concevoir, développer et optimiser des flux de données pour répondre aux besoins fonctionnels et techniques de nos projets. Vous participerez à l’intégration des données et à l’amélioration continue des processus, en collaboration avec les équipes techniques et métiers. Vos responsabilités : - Concevoir et développer des flux de données en utilisant Talend pour répondre aux besoins des projets, - Assurer la maintenance et l’optimisation des jobs Talend existants, - Collaborer avec les équipes métiers pour analyser les besoins et transformer les spécifications fonctionnelles en solutions techniques, Participer aux phases de tests et de validation pour garantir la qualité et la fiabilité des flux de données, Contribuer à la documentation technique et aux bonnes pratiques en matière de gestion de données.
Mission freelance
Chef de projet Talend Cloud H/F
Lieu : Remote / Brest, TJM : 600€, Rythme : Remote après 1 semaine sur site et 2j par mois ensuite Nous recherchons pour notre client, groupe industriel multisites et multimarques, un Chef de Projet pour migration vers Talend Cloud H/F pour une mission Freelance de 6 mois minimum. Démarrage prévu dès que possible. VOS MISSIONS : Coordonner le projet de migration vers Talend Cloud en assurant l'interface entre l'architecte DATA & SI et les développeurs Talend des différentes entités du groupe. Définir les normes et processus pour le développement des jobs et des flux de données. Animer et piloter les projets de mise en commun des traitements de données dans un nouveau schéma harmonisé. Accompagner le développement des jobs et flux Talend, avec un rôle d'expertise et de gestion de projet. Environnement technique : Talend Cloud, gestion de flux et traitement de données, méthodes de standardisation des données. VOUS : De formation Bac+5 en Informatique ou équivalent, vous justifiez d'au moins 5 années d'expérience en gestion de projet de migration et en expertise Talend. . La participation active à un projet de migration vers Talend Cloud est un impératif pour ce poste. PROCESS : Après une visio avec un membre de notre équipe, vous rencontrerez : - L'Architecte DATA et SI en visio - 2 journées "test" à distance (essais, rencontres, rapport d'étonnement et pistes de travail envisagées) - Décision sous 24h. Envoyez-nous votre CV et si votre profil correspond, vous serez contacté par un membre de l'équipe dans les 24h. Au plaisir d'un prochain échange, Squaar
Mission freelance
Data Engineer expert IICS / Snowflake
En tant que Data Engineer Expert IICS et Snowflake, vous serez responsable de la conception, du développement et de l'optimisation des solutions de gestion de données en exploitant l'intégration cloud et les technologies modernes de data warehouse. Vous travaillerez en collaboration avec des équipes multidisciplinaires pour assurer une transformation efficace des données, leur intégration et leur exploitation à grande échelle. Concevoir et mettre en œuvre des pipelines de données en utilisant Informatica Intelligent Cloud Services (IICS) et Snowflake . Assurer l'intégration des données provenant de diverses sources vers Snowflake. Optimiser les processus ETL/ELT et garantir la performance des flux de données. Collaborer avec les équipes d’analystes et data scientists pour répondre aux besoins métiers. Maintenir une documentation technique à jour et participer aux bonnes pratiques de gouvernance des données. Assurer la qualité, la sécurité et la conformité des données.
Mission freelance
Développeur Talend
Bonjour, Je suis à la recherche d’un Développeur Talend : Tâches : Développer, déployer et maintenir des flux de données ETL/ELT complexes en utilisant Talend. Concevoir et implémenter des solutions de stockage et d'analyse de données sur Google Cloud Platform (GCP), en particulier avec BigQuery. Collaborer avec les équipes techniques et commerciales pour comprendre les besoins en données et les traduire en solutions techniques efficaces. Optimiser les performances des processus ETL/ELT et des requêtes BigQuery. Surveiller et assurer la qualité des données tout au long du pipeline de données. Documenter les processus et les flux de travail, et fournir un support technique aux utilisateurs finaux.
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Consultant Snowflake (H/F)
Nous recherchons pour le compte de l'un de nos clients un développeur intégration Snowflake (H/F) dans le cadre d'un remplacement. Les missions : Conception et Développement des Pipelines de Données : Créer, optimiser et maintenir des workflows ETL dans Matillion pour ingérer, transformer et stocker les données dans Snowflake, en respectant les exigences de performance et de sécurité. Intégration de Sources de Données Multiples : Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake via Matillion, tout en assurant la qualité et la cohérence des données. Optimisation de la Performance : Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake pour réduire les coûts de stockage et de calcul, en analysant les logs et en ajustant les configurations Matillion et Snowflake. Surveillance et Débogage : Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Mission freelance
Expert - Dev Talend
Dans le cadre de la modernisation de son système d’information, notre client, un acteur dans le domaine des assurances, recherche un Expert Dev Talend. Le consultant intégrera l’équipe pour participer aux projets de migration, de développement et d’optimisation de flux de données. Client : Société spécialisée dans les assurances, basée dans les Hauts-de-Seine (92) Type de mission : Freelance / Mission longue durée Expérience requise : Minimum 5 ans d’expérience sur Talend Démarrage : ASAP Dans le cadre de la modernisation de son système d’information, notre client, un acteur important dans le domaine des assurances, recherche un Expert Dev Talend. Le consultant intégrera l’équipe Data pour participer aux projets de migration, de développement et d’optimisation de flux de données.
Mission freelance
Talend Data Integration Architect
Notre client recherche un Talend Data Integration Architect pour travailler sur un contrat glissant de 6 à 12 mois basé sur les détails ci-dessous : À propos du travail En tant qu'architecte senior Talend Data Integration, vous jouerez un rôle stratégique dans la préparation et la mise en œuvre de nos projets de données. Chez nos clients, vous porterez la vision technique des plateformes Middleware & API Management et serez également responsable de la définition et de la conception des architectures techniques de ces plateformes.
Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala
💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.