Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DevOps Tech Lead – PLM 3DEXPERIENCE
Localisation : Paris ou Normandie Contexte : Dans le cadre de l’implémentation de la plateforme PLM 3DEXPERIENCE au sein d’un grand groupe aéronautique, nous recherchons un DevOps Tech Lead pour accompagner les équipes techniques et opérationnelles. Le projet vise à optimiser et digitaliser l'ensemble des processus de gestion du cycle de vie des produits, en utilisant les outils et modules de la plateforme PLM 3DX. Missions principales : - Coaching et encadrement : Former et accompagner les équipes internes sur les bonnes pratiques DevOps adaptées à la plateforme 3DEXPERIENCE. - Choix technologiques : Participer activement à l’analyse, la sélection et la mise en place des solutions techniques adaptées aux besoins du projet (infrastructure, CI/CD, intégrations avec 3DX). - Réalisation technique : Mettre en œuvre des pipelines CI/CD robustes, automatiser les déploiements et s'assurer de l'intégration optimale des composants 3DX. - Support à l’architecture : Collaborer avec les architectes systèmes pour s’assurer que les solutions proposées sont alignées avec les exigences de l’architecture 3DX. - Suivi et optimisation des environnements : Gérer et optimiser les environnements de développement, d’intégration et de production sur la plateforme PLM. - Collaboration inter-équipes : Travailler étroitement avec les équipes métier, développement et infrastructure pour assurer la livraison fluide des projets.
Mission freelance
Tech Lead Data Engineer GCP (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
GO/Python - ML Engineer
le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP Paribas Personal Finance, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.
Mission freelance
Expertise DBA
Dans le cadre de l’évolution permanente et du maintien en conditions opérationnelles de ses socles techniques le bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'expertise technique DBA Le client gère 3800 bases de données Oracle, et 650 bases mongo DB, 1700 bases MS SQL, et 5600 cluster PostGres. Expertise DBA Cela comprend pour .... Expertise avancée en Bases de données Oracle Expertise en infrastructures Exadata, ExaCC Expertise en Bases de données MongoDB Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Oracle Enterprise Manager, Zabbix Socle OS : Redhat Linux Automatisation en Python, Ansible, Scripting shell Cela comprend pour.... Expertise avancée en Bases de données PostgreSQL, MSSQL Expertise en Bases de données Cassandra & Sybase Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Zabbix, Datasentinel Socle OS : Redhat Linux, Microsoft Windows Server Automatisation en Python, Ansible, scripting shell unix & powershell Au sein de ..... la prestation consiste à contribuer pour les bases de données à la maintenance et à l'évolution des bases de données sur ses plateformes Unix (Décisionnel, Flux, Transactionnel, Progiciels) : La conduite du changement sur les opérations importantes (migration/montées de version, migrations de socle de hosting vers du cloud interne, gestion de l’obsolescence, defrag,…) et à la documentation auprès de l'entité L’expertise en support aux équipes niveau 1 & 2 en cas d’incident L'optimisation selon les besoins applicatifs L'expertise sur la performance des bases et le suivi des changements applicatifs L'expertise sur la sécurité des bases de données (durcissement, gestion des vulnérabilités, mises à jour) Suivi des projets en relation avec les entités sécurité du groupe Second niveau de contrôle pour les sujets clés (backup, capacity planning, conformité avec les standards, tels que le durcissement) Delivery selon un modèle Agile/DevOps des API cloud privé en Python
Offre d'emploi
Expert Zabbix
Nous recherchons un Expert Zabbix pour intégrer une équipe dynamique et participer à des projets de supervision d'infrastructures critiques. Vous interviendrez sur des missions de migration, d'automatisation et d'intégration au sein d'environnements complexes. Vos missions : Migration d'infrastructures Zabbix de la version 6 vers la version 7.0. Mise en place et optimisation d’architectures Zabbix V5 et V6. Développement de scripts d'automatisation en Python et Bash pour améliorer les processus de supervision. Migration de supervisions existantes (PATROL, SCOM, ZABBIX V4, CENTREON) vers les versions plus récentes de Zabbix. Intégration avec Netcool Omnibus via SNMP et WebHook . Rédaction de la documentation d'installation et d'exploitation. Maintien en conditions opérationnelles des systèmes en conformité avec la certification PCI-DSS . Compétences requises : Expertise avérée sur Zabbix et ses différentes versions. Solides compétences en scripting Python et Bash . Expérience avec des outils de supervision tels que BMC Patrol , ElasticSearch , et Entuity . Connaissance des processus ITIL et des certifications PCI-DSS .
Mission freelance
data Ingénieur
Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)
Mission freelance
Business Analyst Technique - IA Générative pour IT
Nous recherchons un Business Analyst Technique spécialisé en IA générative pour rejoindre une équipe d'experts en innovation et développement IT. Le candidat travaillera sur des projets pilotes et des Proof of Concept (POC) liés à l'intégration de solutions d' IA générative au sein de systèmes IT complexes. Veille technologique : Réaliser une veille active sur les solutions d'IA générative disponibles (Make/Buy/Open Source) et proposer des solutions adaptées à l'IT. Pilotage de POC : Diriger et piloter des Proof of Concept et Proof of Value autour des technologies d'IA générative pour assister au développement de prototypes et outils d'aide au développement. Communication et adoption : Promouvoir et accompagner la mise en place des premières solutions d'IA générative au sein des équipes IT. Assurer une communication claire et efficace autour des résultats obtenus. Animation d'une communauté IA : Créer et animer une communauté dédiée à l' IA générative pour les développeurs, partager les meilleures pratiques, et fournir des supports pour les comités. Accompagnement des projets IT : Apporter un soutien technique et méthodologique aux projets IT lors de l'adoption des solutions IA.
Offre d'emploi
full stack -Front/Csharp
Dans ce cadre la prestation consiste à contribuer à/au(x) : • Gestion de l’implémentation (qualité du code, couverture totale en matière de tests) • Maintenabilité de la solution / Agilité d’évolution • Streamlining / componentisation • Complexité limitée pour les autres parties prenantes • Qualité du code • Performance • Versionning compatible à l’échelle d’itec (github) Les livrables attendus sont : - Développement en TDD et BDD - Développement Frontend en Typescript React - Développement BackEnd en C#
Offre d'emploi
Expert Sauvegarde
Nous sommes à la recherche d'un expert pour l'équipe Sauvegarde (disponibilité immédiate) L'équipier Sauvegarde Niveau 3 a pour rôle principal d'assurer la maintenance des systèmes de sauvegarde des datacenters. Cet expert maîtrise les technologies de sauvegarde, en particulier Commvault, ainsi que les architectures de sauvegarde et les sauvegardes sur bande. Une connaissance de NetBackup est également requise. En complément, une compétence en technologies DevOps est un plus pour automatiser les infrastructures de stockage. Les outils et technologies utilisés incluent : Ansible, Python, Git/GitLab, RestAPI, et en option, Terraform et Go.
Offre d'emploi
Data engineer GT Lake
Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
Ingénieur De production DevOps
Dans le cadre d'une prestation de longue durée chez une banque de renom sur Paris, le prestataire aura comme responsabilités : - Gestion des réunions de production ; - Définition et à la mise en place des indicateurs de disponibilité, de performance, de sécurité, de coût... (SLI, SLO) ; - Optimisation des coûts et des performances ; - Conception des produits et vérification de leur opérabilité en production (fiabilité et qualité) ; - Structuration/Formalisation des remontées. Les livrables attendus sont : - Monitoring ; - Détection/Résolution des problèmes ; - Automatisation des tâches manuelles et répétitives ; - Amélioration autour de la fiabilité, la performance et la sécurisation des socles techniques hébergeant nos services.
Mission freelance
SENIOR Data Scientist / ML Engineer / LLM / IA
Diriger la conception, le développement et la mise en œuvre de modèles avancés de machine learning pour générer des insights et faciliter la prise de décision. Collaborer avec des équipes pluridisciplinaires pour résoudre des problèmes complexes en utilisant l'analyse statistique, la modélisation prédictive et des stratégies basées sur les données. Optimiser les algorithmes, gérer de grands ensembles de données et déployer des solutions évolutives. Encadrer des data scientists juniors et apporter une expertise technique sur les frameworks et outils d'IA/ML.
Offre d'emploi
MOE Technico - Fonctionnel BIM
Nous recherchons un MOE Technico-fonctionnel BIM. Dans le cadre d'une assistance à maîtrise d'oeuvre pour la mise en place du socle technique BIM. Les principales prestations attendues sont : Participation aux ateliers technico-fonctionnels interne Conception détaillée. Challenge des solutions techniques proposées par les titulaires. Etude d’impact de l’infra en place. La gestion des environnements : Création / mise à niveau des environnements nécessaires au projet Packaging et installation des livraisons titulaire dans les normes projet Rafraîchissement des données des environnements Réalisation de paramétrage des outils informatiques dans le cadre du Socle technique. Préparation et participation aux différentes recettes VAT / TIO / Performance. Assistance à la recette fonctionnelle. MCO de la moulinette GIGP. Rédaction de la documentation technique nécessaire à la maintenance Suivi des faits techniques, analyse... Reporting : Ordre du jour de réunion, compte rendu de reunion. Environnement technique : Bonne connaissance des environnements CLOUD et des interactions de ces environnements avec les écosystèmes locaux. Python impératif pour la moulinette GIGP. Connaissance de la démarche BIM et des outils la soutenant. Maitrise de la solution TRIMBLE Connect. Compétences d’AMOE : Gestion des environnements, recette technique, analyse et qualification d’incidents, suivi de tickets, assistance à maîtrise d’ouvrage… Réalisation / relecture ou participation à la rédaction des spécifications fonctionnelles et techniques. Bonne compréhension de l’anglais pour la lecture de la documentation technique Capacité rédactionnelle pour créer, compléter la documentation existante Les + : Revit- Autocad. BIM & CO On Fly ou équivalent. PostgreSQL : création d’objets, imports exports de bases, requêtes SQL, Procédures PL/PGSQL LINUX : commandes, écriture de Shell Langage JAVA Une première expérience dans le domaine du BIM.
Mission freelance
Tech lead (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech lead (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Tech lead (H/F) : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. Profil Recherché : Expérience : > Expérience significative en développement back-end, avec une expertise en Python. > Bonne connaissance des services Google Cloud Platform (GCP) tels que BigQuery, Pub/Sub, Cloud Run, Firestore, IAM et Terraform. > Solide connaissance des architectures modernes : Event Sourcing, CQRS, API REST, etc. > Expérience avérée en DevOps et connaissance MLOps (gestion et scalabilité de pipelines d'IA). > Intérêt marqué pour l'intelligence artificielle et ses applications. Compétences Techniques : > GCP : BigQuery, Pub/Sub, Cloud Run, Firestore, IAM, Terraform. > Connaissance de l'infrastructure as code avec Terraform et de l'automatisation des déploiements. > Compréhension des enjeux de scalabilité et des bonnes pratiques de test automation. > Maîtrise des standards et outils DevOps.
Offre d'emploi
Tech Lead Python
Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. **Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique. > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Offre d'emploi
Ingénieur Automatisme
AGH Consulting recherche pour un de ses clients un ingénieur automatisme. La prestation vise à : Conception, programmation et mise en service d’automates programmables industriels (PLC) Schneider, Beckhoff ou Siemens selon les besoins des projets. Développement et intégration de systèmes SCADA pour la supervision des installations industrielles (PCVue, Panorama, Aveva). Analyse des besoins fonctionnels des clients et traduction en spécifications techniques. Participation aux études techniques : schémas de câblage, nomenclatures, choix des équipements d’automatisation. Maintenance et optimisation des systèmes automatisés existants. Réalisation des tests et validations en usine et sur site, pour s'assurer du bon fonctionnement des systèmes. Formation et accompagnement des équipes techniques et des utilisateurs finaux. Suivi et gestion de projets en automatisation, respect des délais et des budgets. Veille technologique sur les évolutions des outils d’automatisation et des systèmes SCADA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.