Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Administrateur Infrastructure de Sauvegarde
AGH Consulting recherche pour un de ses clients un administrateur des infrastructures de sauvegarde à Toulouse.
Mission freelance
Data Engineer Databricks
Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un Data Engineer Databricks La mission du Data Engineer est de developper et de maintenir la liaison entre les besoins du métier Asset management et l’équipe Data Plateforme du Pôle Data en place. A ce titre, il/elle doit : • Comprendre les enjeux et les problématiques métier, avoir une vision cohérente des activités de l’entreprise • Analyser, cadrer, synthétiser, prioriser les besoins des demandeurs (équipe Data A7M), pour être en cohérence avec l’architecture fonctionnelle de la solution cible de l’A7M • Analyser les traitements de données des données reçues via interface et formaliser les développements à réaliser • Bien connaître le Data Catalog, avoir une vision transverse des sujets adressés à l’équipe Data pour une évenuelle réutilisation des travaux réalisés • Définir et mettre en place les règles de gestion de nettoyage et de structuration des bases de données • Définir et mettre en place les algorithmes et traitements des données pour obtenir les indicateurs répondant aux besoins du métier • Réaliser des outils d’analyse / Rapports BI • Concevoir et dimensionner les bases de données et les traitements nécessaires ainsi que les normes et standards d’utilisation de ces bases qui vont accueillir les données nécessaires pour le programme de l’Asset Management • Capter les données nécessaires et d’une façon optimale (API) dans la mesure du possible pour le périmètre de l’asset mamangement • Définir et gérer les standards techniques • Echanger avec les équipes métier de l’Asset Management en sachant vulgariser ses travaux • Contribuer à la mise en place et à l’optimisation de la plateforme Data • Participer à l’étude d’impact pour le programme de l’Asset Management sur l’architecture existante ou prévisionnelle et préconiser des choix techniques en vue d’assurer la cohérence de cette évolution Diffusable • Promouvoir l’architecture de la plateforme Data auprès du reste de l’équipe • Expliquer le sens des informations exploitables en termes pertinents pour les métiers • Transmettre le processus de recherche et les suppositions qui ont mené à la conclusion LIVRABLES ET RESPONSABILITES : • Garant du bon déroulement du développement des traitements des données • Garant du bon déroulement des mises en production des livrables de l’Asset Management • Garant des vues du portail décisionnel de l’asset management sous PowerBI • Développements Python • Documentation des codes développés • Documentation des données utilisées et produites • Modélisations statistiques et Machine Learning • Rapports / Outils BI • Respect des choix opérés par le tech lead
Offre d'emploi
Développeur Python Flask
AGH Consulting recherche pour un de ses clients un développeur Python - Flask. La mission consiste à : - Receuil du besoin bénéficiaire et contribution à la rédaction des spécifications techniques - Développements d'API REST en Python 3 (Flask) - Etudes et à l'architecture des solutions proposées - Support Conduite du changement et documentation associées. Expertise : Réseaux informatiques Environnement Anglophone Les livrables attendus sont : - Développements d'API REST en Python 3 (Flask)- Développement de playbooks AnsibleContribution aux études des besoins bénéfiaires et à la conception des solutions - Maintien en conditions opérationnelles - Support et documentation associées
Offre d'emploi
Développeur Python Flask
Bonjour, Je vous envoie ce mail car pour un de nos clients situé en région parisienne nous recherchons ASAP un Ingénieur étude et développement habilité (ou habilitable) maîtrisant Python et Flask. Le profil devra être autonome et connaître si possible les méthodes agiles. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer SVP votre CV au format word en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Ingénieur.e de production N2 CONTROL-M
Vous interviendrez au sein de la DSI et plus particulièrement de l’équipe de production afin d’assurer la continuité de service des applications Legacy. Missions · Gérer de façon proactive les incidents remontés par les outils de supervision en menant des investigations approfondies et en apportant des solutions industrielles · Collaborer étroitement avec les équipes interne pour la résolution d’incidents en assurant un suivi rigoureux · Automatiser les processus pour optimiser la détection et la gestion des incidents · Implémenter et maintenir les briques nécessaires à la bonne exploitation et à la stabilisation des projets (CI/CD, sauvegardes, ordonnancement, amélioration de la performance avec Dynatrace, supervision). · Maîtriser parfaitement toute la chaîne des applications sous votre responsabilité
Offre d'emploi
Consultant Observabilité
Déploiement et gestion des solutions d'observabilité : Configurer, déployer et administrer les solutions AppDynamics et Dynatrace sur les systèmes en production et de préproduction, Assurer l’intégration des solutions dans les différents environnements, Paramétrer des alertes et des dashboards pour garantir une visibilité en temps réel des performances applicatives et des infrastructures. Création et automatisation des processus avec Python : Développer des scripts en Python pour automatiser des tâches répétitives, améliorer les processus de monitoring et simplifier la gestion des outils d'observabilité, Mettre en place des intégrations automatisées entre les outils d’observabilité et les autres systèmes internes. Optimisation de la plateforme d'observabilité : Identifier et analyser les goulets d’étranglement des systèmes à l’aide des outils de monitoring, Proposer des recommandations d’optimisation des performances des applications, bases de données et systèmes, Participer à la résolution des incidents en collaboration avec les équipes de développement et d’infrastructure. Support et expertise technique : Apporter un support technique de niveau expert sur AppDynamics et Dynatrace pour les équipes, Assurer la formation et le transfert de compétences aux équipes techniques sur les meilleures pratiques d'observabilité, Documenter les procédures, configurations et scripts utilisés dans le cadre des projets. Collaboration et gestion de projets techniques : Travailler en étroite collaboration avec les équipes DevOps, de développement et d'infrastructure pour assurer une intégration fluide des outils d’observabilité dans les pipelines CI/CD, Participer aux comités de pilotage technique pour garantir le bon déroulement des projets et leur alignement avec les objectifs stratégiques.
Offre d'emploi
Consultant Devops
Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Mission freelance
ML Engineer
L'équipe R&D de la Direction du Numérique et de la Stratégie de l'Innovation de notre client cherche un.e ML engineer en mission. La recherche concerne un.e ML engineer confirmé.e pour des projets de data science dans un contexte de R&D. Ci-dessous, les compétences recherchées. Data science : • Forte expertise sur le domaine du NLP • Maîtrise des techniques d'apprentissage automatique (Machine learning) • Excellente connaissance des bibliothèques open source clés telles que TensorFlow, PyTorch, scikit-learn, Numpy, et Pandas • Une expérience en traitement automatique du signal audio est pré requise • Une appétence pour la veille technologique Software/data engineering : • Parfaite maîtrise de Python • Appétence pour les travaux de préparation de données • Bonnes dispositions pour la mise en oeuvre de la CI/CD, comme Gitlab-CI • Connaissance de Kubenetes / Postgres appréciée Soft skills : • Une parfaite autonomie est un critère essentiel pour cette mission. La personne devra être en capacité de mener à bien des projets de R&D en autonomie technique et tactique. Il devra être capable de faire des choix techniques et de prendre des décisions pour répondre aux découvertes et difficultés rencontrées lors de ses travaux exploratoires • Une réelle aptitude à communiquer des concepts techniques à des non-experts, notamment pour expliquer les résultats des projets R&D aux autres membres de l'équipe et aux parties prenantes. • Une capacité à travailler efficacement en équipe, avec parfois des échanges interdisciplinaire (journalistes, documentalistes, etc.). Voici des exemples de projets sur lesquels elle/il pourrait être amené à travailler : la conception d'un algorithme chapitrage automatique de podcast basé sur le transcript, la détection de la géolocalisation d'articles et de contenus audio, l'optimisation d'un moteur de recherche sémantique fait maison, le fine-tuning de Whisper pour améliorer la qualité de la transcription, la détection de moments clés dans un contenu audio pour aider à la découpe d'extraits. Aspect primordial : nous cherchons une personne motivée, autonome et bonne communicante pour être à l'aise sur des travaux exploratoires dans une équipe de R&D. Enfin, un intérêt pour les médias et une capacité à être force de proposition pour de nouvelles idées seront des éléments très appréciés. La personne doit avoir au moins 3 ans d'expérience en data science, avec une partie importante en NLP et en traitement de l'audio.
Mission freelance
Administrateur Hadoop (H/F)
Teksystems recherche un(e) Administrateur Hadoop (H/F) Contexte : migration de Teradata vers Hadoop. Vous aurez la charge de : - Designer et délivrer de nouvelles plateformes Big Data - Automatiser les tâches via des scripts Python (PySpark) - Réaliser le développement des playbooks avec Gitlab, Ansible et Jenkins - Assurer les scale up / down de cluster via l'ajout ou décommissionnement de noeuds - Mettre en place des environnements de développements et de tests - Réaliser l'installation et la sécurisation des clusters - Assurer les migrations, les performance tuning et le scaling - Résoudre les incidents de niveau N3 - Travailler en approche agile (scrum) et DEVOPS
Mission freelance
Développeur NodeJS
La mission consiste à : - Développement back - Run & Build - Développement d'APIs - Recueil des besoins - Maintenir les applications en cours - Assurer la qualité des applications à venir - Apporter votre support aux membres de l’équipe sur les bonnes pratiques de développement et de méthodologie - Mission basée en métropole lilloise avec télétravail partiel Compétences demandées : - Expériences significatives comme développeur NodeJS - Python - Connaissances de la data (Snowflake, GCP BigQuery, Stambia, DBT ...) - Outils de CI/CD - Maîtrise et pratique de l’Agile - Anglais un+
Mission freelance
Data Engineer
PAS DE SOUS TRAITANCE // MERCI Nous recherchons un Data Engineer pour renforcer une équipe technique dans un projet lié à la mesure et à l’optimisation énergétique. Vous collaborerez avec les Data Scientists et les équipes techniques pour concevoir et maintenir des pipelines de données robustes et sécurisés, en utilisant les meilleures pratiques cloud. Vos missions incluront : • Conception et déploiement de pipelines de données serverless (e.g., step function, Lambda, S3, Redshift) pour la gestion de données énergétiques en batch et en streaming. • Structuration des données en zones fonctionnelles sur S3 et optimisation des formats (JSON, Parquet) pour améliorer les performances et réduire les coûts. • Automatisation de workflows CI/CD/CT avec GitHub Actions pour assurer des déploiements continus, sécurisés et sans interruption. • Implémentation d’un monitoring avancé pour détecter les anomalies et garantir une maintenance efficace. • Sécurisation des données sensibles en respectant les normes de sécurité cloud. • Optimisation des coûts et réduction de l’empreinte carbone en optimisant l’efficacité des ressources cloud. • Collaboration avec l’équipe Data Science pour faciliter l’accès aux données de qualité et intégrer les modèles dans les applications.
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Mission freelance
Data Engineer python / spark / AWS / Dataiku
La DSI a besoin de renfort IT dans l'équipe Data Product, afin de DEVELOPPER et délivrer des besoins de segmentation client. Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée.
Offre d'emploi
ML Engineer
Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.
Mission freelance
Ingénieur/architecte NetDevOps
Nous recherchons pour un de nos clients basés en IDF, un ingénieur/architecte NetDevOps pour une mission freelance (longue visibilité) Au titre d’ingénieur/architecte NetDevOps, vous aurez pour missions principales : Contribuer aux actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production y compris dans le cadre de projets. Accompagnement de l'équipe dans le déploiement et la gestion d'une plateforme d'automatisation pour les réseaux et la sécurité au sein d'une infrastructure Openshift. Contribution à l'élaboration de solutions d'automatisation en lien avec les réseaux et la sécurité. Collaboration étroite avec les équipes de développement pour intégrer les meilleures pratiques NetDevOps. Localisation : (78)
Offre d'emploi
Développeur Python / Cloud Docker Kubernetes / PostgreSQL
Le bénéficiaire souhaite une prestation d’accompagnement en développement et maintenance d’applications Python. Cette mission s’inscrit dans le cadre du programme 4ALL de refonte de l’architecture tiers du Groupe BNP Paribas. Le candidat aura une solide expérience en développement Python et sera capable de travailler de manière autonome sur des projets complexes. Responsabilités : - Développement des applications Python de haute qualité - Travaill en étroite collaboration avec les autres membres de l'équipe de développement pour concevoir et implémenter des fonctionnalités - Résolution des problèmes de manière efficace et créative - Participation à la revue de code et aux tests unitaires
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes