Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Lead Developer Python/React (fullstack)
Contexte : - Mise en place d'un outil de supervision unifié pour relier les deux entités - Objectif : - Créer un outil centralisant toutes les fonctionnalités et assurant une passerelle entre les deux entités - Problématique : - Forte dette technique due aux précédents travaux non aboutis - Plusieurs prestataires se sont succédé sans succès - Besoin urgent d’un lead pour porter le projet et en croire la vision - Profil recherché : - Développeur senior avec une solide expérience - Expertise en stack : React, Python, AWS - Bonne connaissance de l'architecture cloud - Expérience avec plusieurs technologies et langages - Mentalité agile, capacité à comprendre rapidement les enjeux - Phases du projet : 1. Audit : - Évaluation de l'état actuel et recensement de la dette technique 2. Design : - Proposition d'une architecture optimale 3. Build : - Réalisation, développement et livraison de l'outil - Compétences souhaitées : - Expérience en multi-technologies (cloud, DevOps) - Maîtrise de React, AWS et Python - Urgence d’un recrutement pour avancer rapidement dans le projet
Mission freelance
Ingénieur Devops
Dans le cadre de projets stratégiques avec notre client, nous recherchons un Ingénieur Devops orienté IA et Cloud public. Le collaborateur sera rattaché à uneéquipe et intégrera la tribu en charge du périmètre DATA, en proximité des squads Assurances. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Missions : En tant qu'Equipier Ops, les principales missions seront les suivantes : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes client, AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées - Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. - Contribuer et maintenir les référentiels et consignes d’exploitabilité - Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits - Sécurisation by design et revue périodiques Maintien des capacités dans le temps - Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Localisation du poste : Paris Expériences réussies dans le cadre de l’ingénierie DevOps/MLOps sur AWS avec une expertise sur Terraform . 5-7 ans d’expérience Environnements techniques : - AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch - Notebook, Python - Terraform (environnement Air Gap notamment), rebase - Artifactory, ECR, Helm - EKS, Kubernetes , Docker , ArgoCD - Jenkins - Grafana, CloudWatch, ELK, OpenSearch
Mission freelance
Data Manager (Architecte Data / Engineer)
Mission : En tant que Data Manager, vous serez responsable de la stratégie de gestion et de gouvernance des données. Vous identifierez les besoins métiers et les traduirez en exigences techniques, assurant ainsi une structure de données robuste et bien modélisée. Collaborant étroitement avec les équipes internes, vous soutiendrez le processus de transformation en alignant la gestion des données avec les objectifs de l’entreprise, depuis l’acquisition jusqu’à la valorisation des données. Compétences : Expertise confirmée en architecture de données avec maîtrise de SQL, Python et Snowflake pour la gestion et l'optimisation des données Expérience dans la gestion des processus de data governance et des flux de données, avec des compétences en modélisation de données et bonnes pratiques CI/CD Connaissances en outils de gestion de données dans un environnement AWS et Infrastructure as Code (Terraform)
Offre d'emploi
Data Analyst Fonctionnel
Minimum 8 ans d'experience Contexte : Le secteur Corporate and Institutional Banking est un leader mondial dans la fourniture de solutions financières variées, notamment en marchés de capitaux, services de sécurité, financement et conseil. Une équipe transversale, est chargée de superviser les risques non financiers et de garantir l'intégrité des activités. Dans ce cadre, un poste d'analyste de données est créé pour renforcer la gestion des risques opérationnels. Mission quotidienne : L'analyste de données sera responsable de : Fournir un leadership fonctionnel sur l'architecture des données et la modélisation des métadonnées. Analyser et améliorer le modèle de métadonnées pour la gestion des risques opérationnels. Collaborer étroitement avec des experts en la matière (SME) pour garantir la cohérence et l'efficacité des processus. Travailler avec les équipes informatiques pour mettre en œuvre les modifications nécessaires à l'écosystème. Assurer la documentation adéquate et contribuer à l'optimisation des contrôles et des activités réglementaires au sein du CIB.
Mission freelance
Gouvernance et Architecte Data
En tant que Responsable de la Gouvernance et de la Gestion de la Qualité des Données, vous serez chargé(e) de : Développer et mettre en œuvre des politiques et des processus de gouvernance des données. Assurer la qualité des données en définissant des normes et des critères de qualité. Collaborer avec les différentes équipes pour intégrer la gestion des données dans leurs processus. Mettre en place des outils et des indicateurs de suivi de la qualité des données. Former et sensibiliser le personnel à l'importance de la gouvernance des données. Réaliser des audits réguliers pour identifier les problèmes de qualité des données et proposer des solutions. Assurer la conformité aux réglementations en matière de protection des données
Mission freelance
Business Analyst Data
Dans le cadre sa transformation data (Construction d'une équipe pluridisciplinaire, Mise en place d'une "modern data platform", approche data driven), mon client une institution financière, recherche un(e) : Business Analyst Data : Missions : - Cadrage : Compréhension des besoins métiers, fouille des systèmes sources et identifications des problèmes de qualité de données. Travail de discovery pour optimiser les phases d'implémentation. - Spécification : Définition fonctionnelle de la solution cible, proposition de modélisation de données en fonction des enjeux et en collaboration avec les data engineer et analyst, proposition des visualisation de données les plus adaptées, documentation fonctionnelle de la plateforme. - Suivi : Tests et déploiement, accompagnement des utilisateurs, analyse des demandes récurrentes pour industrialisation, acculturation autour de la data pour porter la voix de l'équipe auprès des utilisateurs
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
Ingénieur développeur 3D - Défense F/H
📑 CDI (42-45K€) / Freelance / Portage Salarial - 🏠 1 jour de télétravail / semaine – 📍 Elancourt - 🛠 Expérience de 2 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e 3D dans un environnement Unreal Engine 5 pour intervenir chez un de nos clients dans le domaine de la Défense (projet HCD). Vos missions : - Implémenter des solutions techniques innovantes pour satisfaire les attentes des clients - Développer des logiciels applicatifs en conformité avec le plan de développement du produit - Réaliser les tests d’intégration et de validation des logiciels, et rédiger les rapports correspondants - Veiller au respect des règles de codage et à la bonne gestion de la configuration via Git
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Product Manager Data
Dans le cadre sa transformation data (Construction d'une équipe pluridisciplinaire, Mise en place d'une "modern data platform", approche data driven), mon client une institution financière, recherche un(e) : Product Manager Data : Missions : - Pilotage et priorisation de la roadmap data : Identifier la valeur, comprendre les usages, se synchroniser avec les autres PM et animer les différents comités data. - Gestion de projet : Dans un contexte agile, challenger le cadrage des solutions en collaboration avec les business analystes data, coordonner et prioriser les parties prenantes. - Communication et acculturation : Accompagner les utilisateurs dans l'adoption des solutions data. Promouvoir une culture data-driven au sein de l'entreprise. Porter l'approche "data as a product" sur les différents sujets : Analytique, statistiques (ML / IA) et opérationnels. - Analyse : Interprétation des données, identification de gains opérationnels, de réduction du risque ou d'avantages concurrentiels
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Mission freelance
Data Ingénieur Cloud
Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)
Offre d'emploi
Data Engineer Sénior
Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.