Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
chargé suivi de production (H/F)
Je cherche un profil « chargé suivi de production » junior ou confirmé pour une mission au sein de l’équipe avec les caractéristiques suivantes : Il interviendra principalement sur le périmètre DATA et devra s’assurer que le qualité de service réponde aux exigences utilisateurs Ses activités seront : Garantir la surveillance des processus techniques de bout en bout : Surveiller les applications en utilisant des outils et SLA définis Analyser les dysfonctionnements de production, proposer des solutions pérennes et suivre leurs mises en place, Mettre en place un monitoring technique et fonctionnel relatifs aux processus métiers Surveiller la croissance des applications et remonter les alertes le cas échéant. Garantir le suivi des traitements exécutés sur le périmètre qui lui est confié, Réaliser une analyse de premier niveau des incidents et rétablir le service lorsque possible (proposer et coordonner une éventuelle solution de rattrapage) Proposer dans un second temps des solutions d’amélioration pérennes pour la résolution d’incidents, S’assurer de l’exploitabilité des projets, Conseiller les projets pour sécuriser le suivi de production et le monitoring des nouveaux applicatifs, S’informer sur les évolutions techniques / fonctionnelles du SI pour garantir le suivi de production et le monitoring des applications. Gérer le capacity management et remonter les alertes aux tribus Être force de proposition d’actions d’améliorations, Analyser les causes des incidents récurrents. Proposer des actions dans le cadre des Post-Mortem afin d’éviter de nouvelles occurrences d’incidents Participer à la mise sous contrôle des changements impactant la production et mettre en place les dispositifs (astreintes, interventions) et les contrôles appropriés Améliorer le monitoring des applications pour diminuer le délai de résolution des incidents Avoir une appétence forte autour de l'orientation client savoir expliquer, convaincre savoir se mettre à la place du client afin d sortir de sa boite logique apporter la plus-value nécessaire à la croissance de la satisfaction client savoir traiter avec conviction les différentes situations pour lesquelles les interlocuteurs sont des fournisseurs de services (application en SaaS, progiciel)
Offre d'emploi
Développeur Python H/F
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Numérique, notre Tribu spécialisée dans le domaine du développement et du digital. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Digitale. Contexte de la mission : Dans le cadre du programme 4ALL de refonte de l’architecture tiers du Groupe DE de notre client du secteur bancaire, nous recherchons un(e) Développeur-euse Python. Descriptif de la mission : Le candidat aura une solide expérience en développement Python et sera capable de travailler de manière autonome sur des projets complexes. Responsabilités : - Développement des applications Python de haute qualité - Travaill en étroite collaboration avec les autres membres de l'équipe de développement pour concevoir et implémenter des fonctionnalités - Résolution des problèmes de manière efficace et créative - Participation à la revue de code et aux tests unitaires
Mission freelance
Ingénieur MLOPS
Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Mission freelance
Concepteur Developpeur ChatBot (H/F)
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Concepteur développeur chat bot H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Co-construire le parcours et dialogue avec les métiers et/ou les products managers · Prendre connaissance du référentiel de services, et étudier l'intégration possibles des services dans le parcours BOT · Concevoir et spécifier le parcours BOT afin de faciliter les développements · Développer sur le socle IA conversationnelle l'orchestration du parcours et des appels de service, le monitoring du BOT ... Tester les développements · Contribuer à l’amélioration continue du Socle IA conversationnelle ·
Mission freelance
Développeur Python
Nous recherchons un Développeur Python expérimenté pour effectuer l’audit de nos codes existants, identifier les points d'amélioration et proposer des solutions pour optimiser la performance et la maintenabilité du code. Le candidat aura pour mission de réaliser des audits approfondis, de mettre en œuvre un éventuel refactoring, et de fournir des recommandations claires et documentées. - Effectuer un audit complet du code existant afin d’identifier les failles, les redondances, les mauvaises pratiques et les zones à risque. - Proposer et réaliser un refactoring du code pour améliorer sa lisibilité, sa performance et faciliter sa maintenance. - Analyser la structure des projets Python et recommander des améliorations en termes d'architecture logicielle. - Assurer une meilleure conformité aux meilleures pratiques de développement et aux standards du secteur. - Rédiger des rapports techniques détaillés et des recommandations pour l'équipe de développement. - Collaborer avec les équipes pour implémenter les améliorations et partager les bonnes pratiques. - Suivre les KPIs post-refactoring pour évaluer l’impact des améliorations effectuées. - Veille technologique continue pour rester à jour sur les dernières tendances et outils Python.
Offre d'emploi
Développeur C++ client lourd
Secteur d'activité : Banque/Finance/Assurance Mission(s) : développement d'applications de trading orientées temps réel en C++ 11 et versions supérieures Attendu(s) : gestion de la performance des applications (haute disponibilité, low latency...), exigences des temps de traitements (temps réel à la ms), gestion de la mémoire, programmation multithreadée, fortes compétences en algorithmie (arbres binaires, méthodes de hachage, dichotomie...) Profil (s) : développeur client lourd, pas de système embarqué Méthodologie : agile Télétravail : 60%
Mission freelance
Data Engineer BI
➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Mission freelance
Tech Lead / dév Python / Vue JS
Pour les besoins d'un grand compte du secteur assurance nous recherchons un Tech lead Python / Vue pour aider le client à monter la filière Python permettant d'industrialiser de reprendre en maintenance des applications existantes, aider à les intégrer à leur chaîne DevOps, effectuer un audit de code, et réécrire les fronts avec nos normes d'architectures quand le front a été développé en Python. Vous intégrerez la direction études et plus particulièrement l'équipe Mobiles et applications spécifiques. Les connaissances sont obligatoires sur Python, FastAPI, technologies front Vue ou Angular, et DevOps.
Offre d'emploi
Data Engineer Java / Python / Scala / AWS
Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.
Mission freelance
Data Engineer GCP
Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français
Mission freelance
Lead Dev Computer Vision H/F
Notre client dans le secteur Énergie et ressources naturelles recherche un/une Lead Dev Computer Vision H/F Description de la mission: Notre client souhaite se renforcer sur le domaine de la vidéo intelligente. Les objectifs métiers : Définir les solutions technique svidéo répondant aux besoins des métiers Réaliser les expérimentations Maintenir et faire évoluer les installations existantes et être en appui à l'exploitation L'équipe est en cours de construction et se composera d'un CP, d'un expert Video, d'un référent lead tech La mission : Prendre le rôle de lead dev du périmètre Computer Vision Mettre en place une plateforme de développement Appuyer les architectes et les CP lors de la conception Expérimenter et tester les prototypes Implémenter et produire du code industriel définir les spécifications détaillées vielle technologique ... Compétences / Qualités indispensables : Expérience en computer vision , connaissance scientifique en traitement d'image , Dev Python avec Opency, Pytorch, Tensorflow, ONNX, Linux (redhat, Ubuntu), nvidia,cuda, Docker,Git
Mission freelance
AWS Platform Engineer (F/H)
La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
data ingénieur
Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert
Mission freelance
Ingénieur/ Intégrateur DevOps F/H/X
Dans le cadre de vos missions, vous serez principalement en charge de : Effectuer les montées de version OS Mettre en recette/production les applications qui n'ont pas encore été intégrées dans le CICD Assurer la supervision des services Piloter les contrats de maintenance des infrastructures Collaborer avec les développeur·euse·s pour améliorer les pratiques de développement et de test automatisé, et s'assurer de l'alignement sur les objectifs métier de l'entreprise Concevoir et mettre en oeuvre des pipelines de livraison continue pour les applications et les services, en intégrant les pratiques de sécurité dans une optique shift security to the left Agir en tant que chef·fe de projet pour les produits numériques d'infrastructure (Authentification, plateforme CI/CD, etc.), en s'assurant du respect des échéances et du budget, et en maintenant une communication régulière avec les parties prenantes Intégrer et administrer des outils du SI de gestion Automatiser les tâches de déploiement, de configuration et de gestion de l'infrastructure Mettre en place des pratiques de surveillance et de résolution des incidents pour garantir la disponibilité et la performance des applications Participer à l'amélioration continue des processus et pratiques DevOps, en contribuant aux comités ad-hoc
Mission freelance
data scientist
Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes