Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer AWS et Big Data
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer Senior AWS et Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/DATA/4612 dans l'objet de votre mail Contexte de la prestation : Notre client cherche à développer une plateforme technologique transverse pour accompagner ses métiers dans l’industrialisation de leurs cas d’usage Data et IA. Cette plateforme inclut des solutions avancées d’enrichissement des métadonnées par l’IA et le GenAI. Prestation : Conception, construction et gestion de l’infrastructure AWS de la plateforme. Développement de microservices AWS pour soutenir les cas d’usage métiers liés aux médias. Industrialisation des processus Data pour garantir qualité, fiabilité et accessibilité des données. Création et optimisation des pipelines de données orientées média. Collaboration avec les équipes Data Science pour comprendre leurs besoins et proposer des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
Data Engineer AWS et Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Data Engineer AWS
Nous recherchons un Data Engineer AWS expérimenté pour intervenir sur un projet d’envergure dans le secteur bancaire. Le rôle inclut : L’ingestion, la transformation et l’exposition des données à l’aide de services AWS . L’optimisation des flux de données et l’intégration dans un environnement Cloud AWS . La mise en œuvre de solutions robustes pour le traitement et l’analyse des données. Vous serez amené(e) à collaborer avec les équipes techniques et métiers pour garantir des livrables de qualité dans un environnement dynamique et innovant.
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
AWS Data Engineer
Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme
Offre d'emploi
Architecte - 4/7 ans expérience, double expertise SI et métier (assurance vie, retraite et épargne)
Accompagner la transformation digitale d’une organisation opérant dans le secteur de l’assurance, avec un accent particulier sur les enjeux financiers, règlementaires, et RH. Contexte et Environnement Projet : Le projet s’intègre dans le cadre d’une stratégie d’entreprise visant à moderniser les processus, aligner les systèmes d’information (SI) avec les exigences métiers, et assurer la conformité règlementaire. L’Architecte Projet intervient depuis les phases d’études d’opportunité jusqu’à la mise en production, en produisant des livrables critiques pour la gouvernance de l’architecture SI. Piloter les études et exigences d’architecture dans un environnement complexe. Garantir la cohérence et la durabilité des choix technologiques. Accompagner des projets critiques dans les domaines de la finance, de l’assurance, et des processus RH. L’environnement technologique est complexe et varié : Technologies utilisées : systèmes On-Premise, Cloud (AWS), solutions SaaS, progiciels, et développements internes. Parc applicatif : inclut des systèmes mainframe legacy, des solutions modernes et des référentiels d’architecture SI (VISTA/Lean IX, Data Galaxy). Contexte métier : assurance vie, épargne retraite, processus RH, et normes règlementaires telles que Solvency II. Défis spécifiques : Structuration et circulation des données dans un environnement hybride. Prise en compte de la vision 360 des clients et distributeurs, intégrant des dimensions décisionnelles et opérationnelles. Modernisation des systèmes legacy et migration vers le cloud. Objectifs et livrables Livrables Attendues : Diagnostic Express d’Architecture (DEX) - Évaluation rapide des besoins et préconisations., Présentation hebdomadaire en comité DSI. Dossier d’Architecture Fonctionnelle (DAF) - Analyse détaillée des états existants et futurs, impacts des scénarios, et trajectoires cibles. Les livrables couvrent plusieurs couches : Fonctionnelle : flux métiers, fonctions, principes directeurs. Macro-applicative : composants et socles applicatifs. Macro-solution : intégration de solutions complexes. Suivi et capitalisation : Les travaux sont intégrés dans des outils référentiels (VISTA, Data Galaxy) pour assurer leur traçabilité et réutilisation.
Offre d'emploi
Ingénieur Cloud - Lille / CDI
Vous serez un point de contact privilégié des équipes métiers pour leur présenter les principes de migration et coordonner vos actions avec les leurs : Mise à jour de Documents d`architecture Cible prenant en compte l`architecture des nouvelles landing Identifier les Matrices de flux à autoriser dans le contexte d`hébergement cible. Cahier de recette technique Pré/Post Migration Chiffrage des couts d`infrastructures Cloud lors des migration Etablissement des Playbook de Migration Transfert de connaissance au partenaire assurant les opérations Accompagner les BU et autres SLS dans la migration des applications vers les nouvelles Landing Zone Azure.
Mission freelance
Developpeur Javascript - expertise Retool eCommerce
Pour notre client, acteur e-Commerce international, nous recherchons un développeur expert sur la solution e-Commerce RETOOL. Vos missions : Comprendre de manière autonome les exigences métier/techniques, concevoir, implémenter et tester des solutions de haute qualité. Travailler dans un environnement de développement en équipe avec une base de code modulaire, des code-review , code source control et documentation. Viser constamment la qualité, l'évolutivité, la performance et une architecture solide, tout en respectant les bonnes pratiques, la sécurité et la conformité. Participer à un processus de développement rapide et agile. Contribuer activement et de manière proactive à l'optimisation des applications Retool, des processus et des méthodologies. Être prêt(e) à aider ses collègues, en faisant partie d'un environnement collaboratif pour les tâches de développement, de test et d'automatisation.
Offre d'emploi
Business Analyste Assurance Data H/F
🌟 Quel sera ton poste en tant que Business Analyste Assurance Data H/F chez SYD ? 🌟 📍Lieu : Sur site client et télétravail 👉 Contexte client : Dans le cadre de notre mission, tu auras pour responsabilité d'analyser, de modéliser et d'optimiser les processus liés à l'Assurance Data. Tu seras le garant de la qualité et de la pertinence des solutions mises en place, en veillant à répondre aux besoins des utilisateurs et aux enjeux de l'entreprise. Tu auras pour missions de : Analyser les besoins des utilisateurs et traduire ces besoins en spécifications fonctionnelles claires et précises. Participer à la conception et à la mise en œuvre des solutions Assurance Data, en collaboration étroite avec les équipes techniques. Assurer le suivi des projets, en garantissant le respect des délais, des coûts et de la qualité. En tant que Business Analyste Assurance Data H/F, tu seras un acteur clé de l'optimisation des processus liés à l'Assurance Data, contribuant ainsi à l'amélioration de la performance opérationnelle de nos clients. Rejoins une équipe dynamique et passionnée, où ton expertise sera valorisée et où tu pourras contribuer activement au succès des projets. Postule dès maintenant et participe à l'aventure SYD ! 🌟
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Consultant BI (H/F)
Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Radiation Micro entreprise - Declaration dernier chiffre d'affaire
- Mini activité - faire bilan seule ?
- Création application avec Fluterflow
- Prélèvement à la source pour EURL IS
- EURL ou Micro-Entreprise ? Besoin de conseils !
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?