Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Offre d'emploi
Développeur Python h/f
Vous rejoignez l'équipe ERP composée de trois développeurs chez notre client, dans le secteur de la construction. L'ERP modulaire que vous utiliserez a un contexte métier très large car il couvre tous les aspects opérationnels de l'entreprise. Cet outil a été développé en interne. Actuellement, 80% de la base de code est écrite en Perl, mais tous les nouveaux développements sont réalisés en Python. Notre objectif à long terme est de migrer entièrement vers Python. Cependant, nous ne prévoyons pas de refonte complète immédiate. Au lieu de cela, nous adoptons une approche progressive : chaque fois qu'un module est modifié pour répondre aux besoins d'une équipe, nous en profitons pour migrer le code Perl vers Python.
Offre d'emploi
Développeur Python Craft CI/CD
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : Développements d'API REST en Python 3 (Flask) Backend L'Approche "fail fast and iterative" Delivery Scrum Testing automatique Software Craftsmanship L'intégration et le déploiement continu de types CI/CD L’utilisation d’outils de gestion de code source et de gestion de la configuration Gestion de la dette technique L'intégration et le développement d'une stratégie de tests (unitaire, intégration, performance ...)
Mission freelance
SRE DevOps
Bonjour, je suis à la recherche d'un SRE devOps, dont vous trouverez la fiche de poste ci-dessous: En tant qu’Ingénieur DevOps, vous serez responsable de la gestion et de l’automatisation des déploiements d’infrastructure et de configuration. Vous travaillerez en étroite collaboration avec les équipes de développement pour assurer une intégration continue et une livraison continue (CI/CD) efficace, tout en maintenant une infrastructure stable et sécurisée. Automatisation et Déploiement : Maîtriser les outils d’automatisation de déploiement d’infrastructure et de configuration (IaC, CaC) tels que Kubernetes, Terraform, Ansible, Jenkins, et Git. Utiliser les outils de CI/CD en mode GitOps (FluxCD ou ArgoCD) pour gérer les pipelines de déploiement. Observabilité et Sécurité : Mettre en place et gérer des outils d’observabilité comme Prometheus et Grafana. Gérer les identités et les accès (IAM) avec des outils comme Keycloak. Cloud et Infrastructure : Avoir des connaissances sur les principaux fournisseurs de cloud (Openstack, GCP, AWS). Gérer et maintenir l’infrastructure en production.
Offre d'emploi
Développeur Web spécialisé en IA
Vous participerez à des projets autour du langage naturel et de l' intelligence artificielle générative (IA GEN) . Vous serez impliqué dans le développement de nouveaux produits en production, notamment dans le cadre du projet "voix" Missions : Développement de socles cognitifs : Concevoir et développer des solutions basées sur l'intelligence artificielle et le langage naturel. Participer à la mise en place des architectures IA GEN. Suivi du déploiement : Assurer le déploiement des solutions IA en collaboration avec les équipes techniques. Effectuer des tests et des ajustements post-déploiement. Maintenance et suivi run : Gérer la maintenance corrective et évolutive des applications développées. Surveiller les performances en production et effectuer les optimisations nécessaires.
Offre d'emploi
Développeur python H/F
Le département assure : • la production des architectures techniques, • l’intégration et l’exploitation des systèmes d’information métiers • la supervision, le pilotage et la sécurité des infrastructures • la mise en oeuvre, l’évolution et le maintien en condition opérationnelle des infrastructures (serveurs, systèmes d’exploitation, logiciels médians, bases de données, …) • le contrôle et l'expertise de ses coûts et leur refacturation. Le département met en place le développement de l' ensemble des services paas (OCP, PCP, RabbitMQ...), garantit l’exploitabilité des présentations mises en oeuvre, expertise des ensembles applicatifs et le planning global de production et assure le support au pilotage. Dans ce cadre la prestation consiste à contribuer à/au(x) : • codage / paramétrage et documentation • l’impulsion dans l’innovation (mise en place de Proof Of Concept), veille technologique, recherche nouvelles techniques • l'optimisation des moyens techniques (monitoring et amélioration de la performance : latence, mémoire, etc.) • la mise en place des tests automatiques • développement des scripts de Release et gestion des outils utilisés lors des releases • Assistance aux bénéficiaires / utilisations / bénéficiaires du projet permettant sa bonne mise en œuvre Livrables attendus Les livrables attendus sont : • Dossiers de spécifications • Dossiers de mise en place • Démonstration : avec critères d’acceptation
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
développeur python (pas data engineer)
Les missions : • Implémenter des data pipelines à travers une collaboration avec les équipes IT • Développement de programmes et services lié à la collecte, à la data quality et aux règles de transformation, en lien avec la couche d’API située dans le DataHub et le moteur de règle. • Implémentation de modèles et développements spécifiques à l’intérieur de la solution éditeur. • Collaborer étroitement avec les Data Engineers/Data Scientists pour surveiller et ré-entraîner les modèles d'IA utilisés pour la détection de la criminalité financière. Apporter son expertise sur les données. • Participer à l'industrialisation des algorithmes, au développement et à l'optimisation de l'architecture du pipeline de données. • Tester les solutions d'éditeurs, préparer des documents techniques et des scénarios de tests techniques. • Comptable de la solution technique de l’ensemble des développements spécifiques (côté pipelines et côté modèles) L'essentiel de la mission se déroulera en Anglais.
Mission freelance
Ingénieur OPS CLOUD
Bonjour, Pour le compte notre client, nous recherchons un ingénieur cloud ops confirmé ou senior. + 5 ans min dans le domaine recherché. L’ingénieur ou administrateur de production devra s’assurer du maintien en condition opérationnelle des applications ou solutions prise en charge par le service (applications ou solutions internes à l’entreprise) Mais aussi la prise en charge des Incidents et la mesure des Indicateurs de qualité et respect des engagements contractuels de service pour son manager. Il intègre une équipe composée essentiellement d’ops RUN ou administrateur de production et sera en relation avec des experts métiers et techniques au sein de l'équipe. Assurer le lien avec entre la prod et les DevOps des projets et CDP + Gérer toutes les phases de la mise en production des applications : + Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, …) des projets via Terraform + Configurer les composants applicatifs / services dans les environnements de production + Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production + Garantir le bon fonctionnement des applications en production et leurs évolutions. + Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes. + Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) + Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) + Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Développeur python azure H/F
1 - Contexte et objectifs de la prestation Le Bénéficiaire souhaite améliorer la qualtié de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Administration base de données. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Aide à la construction d’une solution de création de bases de données dans le cloud public (Azure et eventuellement AWS) : SQL Server et/ou PostgreSQL 2 - Livrables attendus Les livrables attendus sont : • Analyse de l'architecture Azure et de son implementation au sein de la Cloud Platform interne SG. • Livraison de code python autour des features AZURE. • Maintien en condition opérationnel de la solution interne de "Managed Databases" : pour fournir des outils à des clients internes SG pour utiliser des bases de données du Cloud Public • Rédaction de documentations techniques : features Azure proposées, intégration dans l'écosystème SG, outil d'inventaire.
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Mission freelance
Développeur Big Data - Lyon (F/H)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - Lyon (F/H) Mission à pourvoir en régie en région Lyonnaise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Création, maintenance et optimisation des bases de données. · Optimisation des requêtes SQL et PL/SQL pour améliorer les performances applicatives. · Support aux équipes de développement et expertise Big Data (Spark). · Veille technologique et accompagnement des développeurs sur les bonnes pratiques.
Mission freelance
Ingénieur Python Fast API / Vue
Ingénieur Python Fast API / Vue le candidat devra aider à monter la filière Python permettant d'industrialiser de reprendre en maintenance des applications existantes, aider à les intégrer à notre chaîne DevOps, effectuer un audit de code, et réécrire les fronts avec nos normes d'architectures quand le front a été développé en Python Connaissances obligatoires Python, FastAPI, technologies front Vue ou Angular, et DevOps Compétences demandées : Python Expert Fastapi Expert Vue Expert 340 e par jour
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.