Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Infrastructure Devops
Au sein de notre client bancaire, l’équipe Baremetal est en charge de la livraison des nouveaux serveurs de bout en bout, et de l'amélioration continue des services dont elle a la charge. Le but de la mission est de passer d’une gestion de serveurs physiques manuelle à une complète automatisation de provisioning de la maintenance de ces serveurs. Fortes compétences infrastructures et DEVOPS attendus. Au sein d'une équipe de cinq personnes vous prendrez part aux activités suivantes : - Prise de connaissance et analyse des besoins - Pilotage des réunions de suivi hebdomadaires avec les équipes multidisciplinaires afin de remonter et résoudre les points de blocage rencontrés à différents niveaux (techniques, stratégiques, ressources humaines ou matériels) Activités plus liées au pré-armement et au déploiement des nouveaux serveurs (Linux, Windows) - Vérification des prérequis techniques et déclenchement des actions adéquates auprès des équipes tierces (DC, réseaux, systèmes et infrastructure) - Mise en relation entre les différentes équipes contributrices - Livraison des serveurs physiques au client - Développement de l’offre de service / des outils des serveurs physiques (orchestration Baremetal) - Maintien de la documentation relative à l'activité Nous souhaitons que tous les collaborateurs de l'entité soient force de proposition et soient intégrés dans toutes les réflexions. A ce titre, le collaborateur devra : - Participer aux réflexions sur l'évolution des processus - S'inscrire dans une démarche d'amélioration continue et proposer des axes d'améliorations tant sur la partie technique qu'organisationnelle
Offre d'emploi
Lead Data Scientist NLP
AGH Consulting recherche pour un de ses clients un Lead Data Scientist NLP. Les missions consiste à : • Aider le commanditaire à cadrer le projet en étant force de proposition • Accompagner techniquement des data scientists • Requêter les bases de données du client • Recenser et agréger les données de différentes sources • Analyser et explorer les données • Modéliser en s’appuyant sur des techniques de Machine Learning, Deep Learning • Automatiser et optimiser les traitements • Analyser les résultats produits pour s’assurer de la qualité des livrables • Produire des data visualisations si nécessaire et en minimisant les actions de maintenance que cela impliquerait par la suite • Restituer les résultats des travaux à l’écrit mais également à l’oral devant des commanditaires et en équipe, en apportant une plus-value dans l’analyse • Accompagner les commanditaires dans la prise en main des livrables • Documenter les travaux réalisés sur les aspects techniques et fonctionnels • Capitaliser et travailler en équipe dans une démarche de boucle d’amélioration • Utiliser les données en veillant au respect du RGPD
Offre d'emploi
Senior Data Scientist H/F
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : Notre client recherche un(e) Senior Data Scientist expert(e) dans le développement de modèles et plus particulièrement dans les méthodes d'inférence statistique (eg, causal inference, synthetic control), afin de définir et implémenter la mesure de performances de la solution d'optimisation de l'assortiment pour les magasins de notre client. Détail de la mission : Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particulier des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA
Mission freelance
Ingénieur DATAOPS - Freelance – (H/F)
Description du poste : Notre client Grand-Compte recherche un/une ingénieur(e) DATAOPS. Principales missions : Automatisation des pipelines de données : Concevoir et mettre en place des pipelines qui automatisent l'extraction, la transformation et le chargement (ETL/ELT) des données entre différentes sources. Gestion des environnements cloud : Déployer et gérer des environnements cloud (AWS, Azure, GCP) pour le traitement des données. S'assurer que les solutions de gestion de données sont optimisées pour ces plateformes. Sécurité des données : Assurer la mise en œuvre des politiques de sécurité, de conformité et de gouvernance pour protéger les données sensibles.
Offre d'emploi
Ingénieur en Intégration des Systèmes d'Information
Rejoignez une équipe dynamique pour soutenir la transformation numérique de nos clients dans le domaine de l'enseignement. En tant qu'Ingénieur en Intégration des Systèmes d'Information, vous serez le référent technique, garantissant la bonne intégration de nos solutions SQOOL. Vous analyserez les problématiques clients, résoudrez les dysfonctionnements complexes, et documenterez l'architecture des SI. Vous participerez activement au déploiement et à l’automatisation des systèmes tout en garantissant le bon fonctionnement tout au long des projets.
Mission freelance
AWS Platform Engineer (F/H)
La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles
Mission freelance
Développeur Cloud F/H
Notre client dans le secteur Banque et finance recherche un Développeur Cloud F/H Descriptif de la mission: Le client est un acteur majeur du secteur bancaire. Dans le cadre du renforcement de sa Squad de développement pour un produit dans le cloud privé du client, une recherche est nécessaire sur un poste de développeur, capable de maintenir le produit existant et de réaliser le développement de nouvelles fonctionnalités. Les connaissances technologies nécessaires sont: - Java - Framework Spring boot (montée de version a venir) avoir à minima de l'expérience dans les environnements utilisant Kubernetes, Terraform et Python. L'application étant déjà en production, l'adaptabilité du candidat a reprendre de l'existant est très importante • Être force de proposition sur les choix techniques, savoir vulgariser et documenter pour les membres de l’équipe • Orientation client pour saisir les besoins, et les traduire en application technique • Correction des bugs 10 ans d'expérience nécessaire pour prétendre au poste Compétences / Qualités indispensables: Python,Cloud,DevOps,Kubernetes,Java Spring boot Compétences / Qualités qui seraient un +: Expérience bancaire
Offre d'emploi
Ingénieur QA Automatisation – Aix en Provence H/F
Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un Ingénieur automatisation ( F/H) pour renforcer nos équipes d’experts en test vers Aix -en- Provence. Réalisation de l’automatisation des tests Participation à la rédaction des Users Stories Rédiger les plans de test Préparer les jeux de données SQL Définition du processus de mise en œuvre de l'automatisation des tests Rédiger les scripts d'automatisation des tests à partir des spécifications Exécuter les cas de tests automatisation Mettre à jour les tests automatisés Rédiger les rapports de tests Télétravail Hybride = 3 jours de présentiel - 2 jours de remote – 1er mois intégration en présentiel –
Offre d'emploi
Support métier Middle office et trading
Activité du client : Secteur bancaire Poste : Support métier Middle office et trading Séniorité : à partir de 2 ans Bac +5 Maîtrise de l'anglais (aisance orale exigée) Profil : - Connaissances fixed income - Connaissances FOREX - Connaissances crédits - Suivi des incidents et requêtes - Support besoins des utilisateurs - Support Conduite du chagement Environnement technique : - Python - Scripting (GuitHub, Ansible, AWX, shell, vba) - SQL
Mission freelance
data ingénieur
Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert
Mission freelance
Architect Data
L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Offre d'emploi
DATA ENGINEER
Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.
Offre d'emploi
Data Engineer Java / Python / Scala / AWS
Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.
Mission freelance
Tech Lead / Développeur - Vue JS / Java Spring / Kafka (Lille 3j presentiel)
Cherry Pick est à la recherche d'un "Tech Lead / Développeur - Vue JS / Java Spring / Kafka" pour un client dans le secteur du commerce de détail. Contexte de la mission Situé dans le domaine Value Chain, le sous-domaine Logistics & Transport, spécifiquement dans la partie InBound & OutBound, l’amélioration de notre WMS contribue directement à l’un des 5 piliers composant notre stratégie d’organisation. En résumé : Un Tech Lead, un pivot, un bras droit du produit et de l'équipe de développement permettant de mettre de l'huile dans les rouages et d'accompagner l'équipe dans le bon mindset. L’objectif de la mission est de faciliter et contribuer avec l'équipe à développer et maintenir des modules avec une haute qualité technologique, une haute fiabilité et une haute disponibilité tout en respectant la gouvernance technique du Groupe, en co-construisant une architecture applicative adapté au besoin fonctionnel. En détail : L’objectif de la mission est d’intégrer la feature team Loading du programme WarehouseBox en tant que Tech Lead. Au sein d’une feature team, les objectifs sont les suivants : Assurer le suivi de la vision et stratégie technique Faciliter la conception et la réalisation des modules, tout en collaborant avec le produit Modulaire / Distribué / Cloud Neutral / Pattern en fonction du besoin Assurer et évangéliser la qualité applicative par les tests Tests fonctionnels Tests acceptances TU / TI / End-End / … Evangéliser et responsabiliser l'équipe sur l'adaptation, l'utilisation et la contribution de l'outil d'échange de donnée (Boomi) Comprendre, respecter, maintenir et adapter la CI/CD Démarche DevOps Ecriture de documentation C4 Doc as code, … Technico / fonctionnelle S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données Démarche SRE Mindset agile et de software craftmanship, le juste code pour le juste besoin Rotation d'astreinte avec l'équipe Partager avec pédagogie l’ensemble des compétences et connaissances Pair-programming / mob-programming, … Au sein du programme, des initiatives sont possible : Synchronisation cross feature Reporting, feedback, backlog cross tech Contribution cross programme Events, REX, POCs Modules génériques Tools, CI/CD, Starter, … Profil recherché : Tech Lead / Développeur confirmé / senior Nous cherchons un profil permettant de faire le pivot entre l'équipe de développement, le produit, les partenaires. Afin de s'assurer la communication entre les partie prenantes, l'utilisation des artefacts agile et d'assurer l'application de la stratégie technique du programme et dDu Groupe. Le profil sera également un membre à part entière de l'équipe de développement contribuant au build / run.
Mission freelance
Intégrateur applicatif Unix, Websphere, Shell, Java, SQL, Oracle Nantes (2 jours de TT)/du
Intégrateur applicatif Unix, Websphere, Shell, Java, SQL, Oracle, Jenkins, Ansible Nantes (2 jours de télétravail) Unix, Websphere, Shell, Java, SQL, Oracle, Jenkins, Ansible - Réalisation de l'intégration des applications - Réalisation des dossiers de mise en exploitation - Tests techniques - Support (investigation, vérification des logs) Nous recherchons un profil qui a au moins 3 ans d'expérience. Intégrateur applicatif Unix, Websphere, Shell, Java, SQL, Oracle, Jenkins, Ansible Nantes (2 jours de télétravail)
Offre d'emploi
Ingénieur.e développement Java
🎯 Rejoignez-nous en tant que Développeur Java en CDI ! 🎯 🔍 Nous sommes à la recherche d'un(e) développeur(se) passionné(e) pour explorer les micro-services et réinventer la gestion des données. Vous intégrerez une équipe dynamique et innovante, travaillant sur des projets à forte valeur ajoutée 🛠 Technologies à maîtriser : Java (versions 8 à 17+) MongoDB pour la gestion des bases de données Spring Boot avec Thymeleaf pour le développement d'applications web Docker pour la mise en place de pipelines CI 📈 Vos missions : Concevoir, développer et implémenter des micro-services modulaires et Manipuler et préparer des données complexes pour alimenter nos équipes d'analyste Optimiser et maintenir des API performantes et sécurisées, afin de garantir une communication fluide entre les services 💡 Bonus : Un intérêt marqué pour l’analyse de données, avec une envie d'exploiter au maximum leur potentiel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes