Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Mission freelance
Chef de Projet Sauvegarde (DataCenter On-Premise)
Nous recherchons un(e) Chef de Projet spécialisé(e) en solutions de sauvegarde pour diriger des projets critiques liés aux infrastructures DataCenter OnPremise, en veillant à la performance et à la robustesse des solutions déployées. Missions : Gestion de projets : Piloter les projets d’expertise sur les solutions de sauvegarde, incluant la création, l’évolution et la suppression des lignes de service. Support et expertise : Accompagner les équipes en BUILD et en RUN pour la résolution de problèmes et l’amélioration continue. Activités clés : Finaliser la migration de Networker vers Rubrik. Optimiser et répartir les infrastructures/appliances Rubrik. Définir et documenter les SLA. Gérer la migration des sauvegardes de l’ensemble des serveurs. Mettre en place l’externalisation des sauvegardes. Débloquer des situations complexes grâce à des audits de performance et des propositions d'amélioration. Participer aux réunions de suivi (COPROJ) et assurer la visibilité des avancées. Collaborer avec les architectes en amont pour garantir la qualité des solutions. Déployer les solutions en conformité avec la gestion du changement. Assurer la documentation et l’exploitabilité des solutions pour les équipes d’exploitation.
Mission freelance
Développement Python
Le Bénéficiaire souhaite une prestation d’accompagnement dans le cadre du maintien de la solution d’orchestration de la microsegmentation . La mission consiste à conduire la recherche expertise technique capable de permettre la continuation de l'évolution de la solution d'automatisation et d'orchestration des codages du Groupe Les missions sont: - Developpement de l'automatisation autour de la microsegmentation - Test unitaires - Qualification des Users stories Technologies utilisés: python, flask, celery, redis, docker, kubernetes
Mission freelance
Développeur python/Dash
Prestations et Attendus : Développer l’interface graphique (DASH, python) , ainsi que développer une interface graphique (Web app). Les taches attendus : Permettre à l’algorithme d’identifier les appareils de voie via la signature géométrique qui leur est propre sur le signal de l’écartement non filtré. • Inclure dans l’interface graphique une étape dans le processus de relocalisation afin de donner à l’utilisateur la possibilité de valider/invalider les changements de voie (via l’écartement non filtré). Une carte (type maps) permettra à l’utilisateur de localiser les ADV et de les confirmer/invalider. Le signal géométrique de l’écartement sera également affiché sur cette interface. Les images des cameras infrarouge à venir récupérer sur MDDS (serveur Microsoft Azure) seront affichées si disponible • L’ensemble des appareils de voies valider et invalider seront regroupés dans une BDD. La géolocalisation (GL) des points correspondant à chaque ADV sera déterminée puis ajouter à la base de données, au même titre que la ferro localisation (FL). Permettre à l’algorithme de consulter la BDD des ADV afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation. Ajouter une étape dédiée à la vérification et à l’ajustement des PK grâce au pas séparant chaque mesure (une valeur toutes les 25 cm). • Identifier les sauts de PK (irrégularité dans la continuité des PK) et ajuster les zones correspondantes dans le processus de relocalisation. Une BDD sera créée afin de regrouper l’ensemble de ces points singulier, en y greffant la GL et la FL. Permettre à l’algorithme de consulter la BDD des sauts de PK afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation. Permettre à l’utilisateur de modifier les noms de voies ainsi que les numéros de ligne. Une fois ces modifications faites, une phase d’approbation sera nécessaire (dans un onglet dédié par exemple) afin de valider ces changements et permettre de venir mettre à jour la BDD LOCINFRA pour les prochains utilisateurs. • Identifier les zones de tunnels et permettre à l’utilisateur de valider ou non les zones de tunnels à l’aide d’une carte type maps. Créer une BDD regroupant l’ensembles des tunnels avec la GL et la FL du début et de la fin des tunnels. Permettre à l’algorithme de consulter la BDD des tunnels afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation.
Mission freelance
Développeur PYTHON
Nous recherchons un développeur PYTHON expérimenté pour un de nos clients : Contexte : Le candidat sera responsable de la réécriture de l'outil d'exécution des tests en Python et JavaScript, avec pour objectif d'améliorer la fiabilité du processus de supervision. Il travaillera au sein de l’équipe de développement, afin de garantir le bon fonctionnement des applications du point de vue utilisateur. Tâches exercées : Refonte de l’outil d'exécution des tests Développement et optimisation des scripts de test Intégration continue et contrôle qualité Amélioration des outils internes pour faciliter l'analyse et la visualisation des résultats de tests Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises Il devra faire du transfert de compétence aux internes Migrer le code qui est écrit en JavaScript vers Phyton Migrer la pipeline GitLab CI existante vers Jenkins
Mission freelance
Data Scientist MLOps H/F
Imaginez-vous au cœur de l’action, travaillant pour un acteur majeur du secteur bancaire ! Dans le cadre d’un renfort d’activité, nous recherchons un Data Scientist MLOps H/F en Freelance, spécialisé dans le développement et le déploiement et modèles d’apprentissage automatique. Vous jouerez un rôle clé dans la mise en place et la gestion des pipelines Machine Learning. En tant que Data Scientist MLOps, vous serez en charge de : Développer et déployer des modèles d’apprentissage automatique Mettre en place et gérer des pipelines Machine Learning (MLOps et LLMOps ) Contribuer aux projets de Data Engineering impliquant PySpark Créer et maintenir une documentation détaillée des processus et solutions Assurer la qualité et la performance des modèles déployés
Mission freelance
Expert IAM Multi-Cloud (AWS + AZURE & GCP)
Missions : Évaluer les configurations IAM actuelles sur AWS, identifier les vulnérabilités potentielles, et définir des améliorations possibles Élaborer une stratégie de gestion des identités, des accès et des permissions adaptée aux besoins de l'entreprise et conforme aux règles de sécurité Appliquer les pratiques recommandées par AWS pour la gestion IAM (services : AWS IAM, AWS Organizations, et AWS SCP). Former et accompagner les équipes projet sur les concepts IAM et l’utilisation des outils AWS pour renforcer la culture de la sécurité dans l’organisation.
Offre d'emploi
SysOps H/F
Votre 1er projet : Vous accompagnerez notre client historique de la région, dans le domaine de la supply chain. Votre intégrerez une équipe chargée de développer plateformes et outils digitaux dédié à se contexte particulier. Le Sysops sera chargé de la mise en place des stacks technique (infrastructure, delivery, monitoring, ...) pour les environnements applicatifs tout en ayant la responsabilité de les maintenir. Vos missions : Garantir la disponibilité des applications Garantir la sécurité des infrastructures des applications Donner un maximum d'autonomie aux utilisateurs Analyser et résoudre les incidents Aider à la conception des nouvelles plateformes Cloud pour héberger les applications à venir Améliorer le monitoring Automatiser Contribuer au sein de la communauté d’experts interne Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Mission freelance
Data Scientist
As a member of the Data Science team, alongside our technical experts, you will get an opportunity to: Lead project delivery on data science aspect Participate in client meetings and workshops around data science deployment projects Scope clients needs and feedback and translating them to achievable data science tasks Manage data science team to ensure timely delivery of the project Learn about health data and healthcare insurance dynamics Improve OCR and NLP pipelines deployed on insurance claims data Enhance fraud detection machine learning models Explore and analyze big and challenging datasets Scale proprietary patient journey optimizer based on state-of-the-art optimal transport Supervise the implementation and optimization of associated algorithms Integrate this in our python/pytorch/react/postgresql/django stack __________ En tant que membre de l'équipe Data Science, aux côtés de nos experts techniques, vous aurez l'opportunité de : Diriger la réalisation du projet sur l'aspect science des données Participer aux réunions clients et aux ateliers autour des projets de déploiement de la science des données Évaluer les besoins et les commentaires des clients et les traduire en tâches de science des données réalisables Gérer l'équipe de science des données pour assurer la livraison rapide du projet En savoir plus sur les données de santé et la dynamique de l'assurance maladie Améliorer les pipelines OCR et NLP déployés sur les données de réclamations d'assurance Améliorer les modèles d'apprentissage automatique de détection de fraude Explorez et analysez des ensembles de données volumineux et complexes Optimiseur de parcours patient propriétaire à grande échelle basé sur un transport optimal de pointe Superviser la mise en œuvre et l'optimisation des algorithmes associés Intégrez ceci dans notre pile python/pytorch/react/postgresql/django
Mission freelance
Data Architecte
Le poste de Data Architecte consiste à renforcer l’équipe DataPlatform au sein de la DSI, en assurant le développement et la structuration de la plateforme Data pour garantir une intégration optimale des données provenant de diverses filiales. Le Data Architecte participera à l'analyse des besoins métiers, la modélisation des objets d’entreprise, et la mise en place d’architectures de données conformes aux standards. Il sera également chargé de superviser la modélisation de la plateforme, de spécifier techniquement les flux de données, et d'assurer le maintien et la documentation des contrats d’interface. La mission inclut la réalisation de tests unitaires et d’intégration, et le respect des bonnes pratiques en matière de modélisation et d’architecture.
Offre d'emploi
TechLead DevOps
Anglais : Courant Localisation : Issy Les Moulineux 2 jours de TT par semaine Au sein de l'équipe Infrastructure et Architecture, vous contribuerez à l'amélioration continue de notre infrastructure logicielle et de nos solutions d'hébergement pour les systèmes Core Group IT, en utilisant des technologies de pointe telles que Kubernetes, Kafka et des bases de données répliquées. Curieux d’apprendre de nouvelles technologies et doté de solides compétences en résolution de problèmes, vous collaborerez avec les équipes Agiles Infrastructure et SRE pour concevoir et implémenter les composants on-premises utilisés par les applications Geopost. Vous assurerez également le transfert de connaissances avec l’équipe SRE sur les systèmes développés. Les principales activités et responsabilités sont : - Participer aux cérémonies de l'équipe (Daily, Sprint Planning) ; - Concevoir et mettre en œuvre des composants d'infrastructure répondant aux besoins des applications ; - Participer aux revues de code ; - Documenter et maintenir les solutions techniques ; - Résoudre les problèmes système au fur et à mesure qu'ils surviennent ; - Mesurer la performance des systèmes mis à jour ou nouvellement installés. Exigences Techniques - Infrastructure : Kubernetes, Kafka, Redis, Apache Reverse Proxy, Ha Proxy,... ; - Continuous Delivery & Deployment: Git, Gitlab CI, Maven, Terraform, Ansible, Vault ; - CI/CD : Gitlab/Terraform/Vault ; - Solid Programming Language : Ansible/Python/Shell/Java ; - Database : PostgresQL, MariaDB, Cassandra, MongoDB, …
Offre d'emploi
Ingénieur DevOps(H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet d’envergure, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur DevOps(H/F) 🚀 🎲 Notre client est l’un des leaders des jeux d’argent en Europe, avec plus de 25 millions de Français adeptes d’une offre de jeux sécurisée, innovante et créatrice de valeur pour la collectivité. Il s’adapte continuellement aux usages pour proposer de nouvelles expériences de jeux, notamment en diversifiant le réseau de distribution (site web, points de vente, applications mobiles). 🎰 🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Développer et déployer des pipelines avec automatisation des tâches ; 🔸 Gérer la préproduction : stratégie de tests, déploiement applicatif, ordonnancement et communication ; 🔸 Préparer la Mise en Production (MEP) : participer aux réunions, répéter les opérations, et documenter les changements ; 🔸 Assurer la production : déploiement, Maintien en Conditions Opérationnelles (MCO), gestion des incidents et problèmes (ITIL).
Offre d'emploi
Ingénieur DevOps
Contexte : Le client souhaite faire appel à un Prestataire pour une mission d’assistance concernant le Maintien en Conditions Opérationnelles des applications dédiées aux activités tirages et sport en point de vente ainsi que l’amélioration des processus DevOps. Le prestataire étant spécialisé dans l’exploitation et l’industrialisation des applications basées sur les technologies Web. Missions : Dans le cadre de la mission, il sera demandé au prestataire de réaliser les tâches suivantes : Industrialisation des processus « DevOps » : Création et déploiement de pipeline sur tous les environnements Scripting et automatisation des tâches récurrentes Gestion de la production applicative : Sur les environnements de préproduction : Contribution à la stratégie des tests d’homologation Déploiement de composants applicatifs et prise en compte des consignes spécifiques, Mise en place de nouvelles chaines d'ordonnancement, Communication auprès du service des actions réalisées. Dans le cadre de la préparation de la Mise en Production (MEP) : Contribution au plan de MEP en participant aux différentes réunions, Répétition des gestes de MEP en respectant les modes opératoires prévus et le cadencement du plan de MEP Rédaction des tâches de changements. Sur l'environnement de production : Déploiement en production des applications, Assurer le Maintien en Conditions Opérationnelles (MCO) dans le respect des engagements de services communiqués, Gestion des incidents de production et des problèmes (ITIL).
Mission freelance
Data Scientist - Time Series
Analyser et modéliser des séries temporelles pour optimiser les processus décisionnels. Collaborer avec les équipes techniques et métier pour développer des solutions data-driven. Participer activement à la gestion et à l’amélioration continue des modèles en production. Compétences requises : Maîtrise des techniques de modélisation Time Series . Solides connaissances en Python et bibliothèques associées (Pandas, Numpy, Scikit-learn). Bonnes compétences en communication pour transmettre des insights aux équipes non techniques.
Mission freelance
DevOps
Contexte de la Mission : L’objectif de la mission est de fournir une assistance experte pour le Maintien en Conditions Opérationnelles (MCO) des applications métier en point de vente, tout en améliorant les processus DevOps. Le prestataire jouera un rôle clé dans l’exploitation et l’industrialisation des applications basées sur des technologies Web. Environnement Technique et Compétences Recherchées : • Systèmes : Unix/Linux et Windows • Langages de scripting : Shell et Python • Systèmes conteneurisés : Docker, Kubernetes, Rancher • Outils de déploiement continu : Gitlab-CI, Jenkins • Architectures distribuées et middlewares : Tomcat, Zookeeper, Hazelcast, Nginx/Apache, Kafka • Bases de données : SQL (DB2, Oracle, PostgreSQL) et NoSQL (MongoDB) • Outils d’ordonnancement et d’observabilité : Control-M, Alerta, Prometheus, Grafana
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.