Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Data Senior
Contexte de la mission : Le département Data IA (DaIA) est chargé de fournir aux différents métiers un socle technologique transversal visant à mettre en production et à industrialiser les cas d’usage liés à la Data. Cela inclut le développement d’une plateforme dédiée à l’enrichissement des métadonnées des contenus, intégrant des technologies d’intelligence artificielle et de génération IA (GenAI). Description du besoin : Le département DaIA recherche une prestation en ingénierie des données pour assurer la conception, la mise en place et la gestion de l’infrastructure AWS. Principales activités de la mission : Développement d’une plateforme de microservices sur AWS. Industrialisation des cas d’usage métiers liés aux médias. Gestion de la qualité, fiabilité et accessibilité des données. Développement de pipelines de traitement de données orientés média. Collaboration avec les équipes Data Science pour identifier les besoins et concevoir des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Mission freelance
Développeur fullstack PHP/Symfony & angular
Un développeur back au sein du service Applications GP et Licenciés composé de 6 développeurs prestataires en régie. Profil recherché Responsabilités • Concevoir, développer et maintenir des API REST. • Assurer la performance, la sécurité et la scalabilité des applications backend. • Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. • Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. • Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. • Documenter les processus techniques et les API développées.
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Mission freelance
Développeur Senior GMAO EAM
Les compétences techniques attendues sont les suivantes : · Expérience significative de mise en œuvre ou de TMA sur la GMAO INFOR EAM 11 et - Expérience sur Java 8 (et plus) et architectures MVC (SpringFramework) · Développements Oracle (SQL, PL/SQL, Triggers, Procédures stockées) · Développements Unix (shell, crontab) · Très Bonnes connaissances WebService REST · Très Bonnes connaissances des services SOAP · Connaissance d’un outil de suivi d’anomalies, type Mantis/Jira · Expérience TMA et projets exigés
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Mission freelance
Ingénieur de Production H/F
Titre du poste : Ingénieur de Production (FREELANCE) Localisation : Nantes (44) Mode de travail : Hybride Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Durée de mission : 12 mois TJM : Entre 380€ et 430€ L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Nous recrutons dès à présent un.e INGENIEUR DE PRODUCTION en FREELANCE sur une mission de 12 mois renouvelable. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un grand acteur du secteur bancaire situé du côté de NANTES auprès duquel vous aurez la possibilité de : · Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. · Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. · Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. · Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. · Participer aux tests et rédiger les dossiers d’exploitation. · Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. · Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). · Contribuer activement à la démarche d’amélioration continue.
Mission freelance
Architecte Cloud AWS
Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.
Mission freelance
Data Engineer AWS et Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Chef de projet Junior - Migration Cloud
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Chef de projet junior - Migration Cloud qui interviendra sur différentes missions : Mots clés: Legacy, Cloud conteneurisé, Move to cloud Missions principales : Participer à la planification et à la coordination des projets de migration vers le Cloud. Assurer le suivi des étapes clés (analyse, migration, tests, validation). Collaborer avec les équipes techniques et métiers pour garantir le respect des objectifs. Identifier et gérer les risques liés à la migration. Produire des rapports d’avancement et assurer une communication claire avec les parties prenantes. Compétences requises : Connaissance des solutions Cloud (AWS, Azure, Google Cloud). Notions de gestion de projet (méthodologies Agile ou Waterfall). Capacités d’analyse et de résolution de problèmes. Excellentes compétences en communication et travail d’équipe. Anglais indispensable
Mission freelance
Chef de Projet Move to Cloud – Azure et Archivage EUC
Chef de Projet Move to Cloud – Azure et Archivage EUC La mission s’effectuera au sein du service PPO et vise à renforcer l’équipe en charge de la transition des EUC métiers vers le Cloud Azure , ainsi que de l’archivage des EUC qui ne seront pas migrés. Contexte Dans le cadre de la transformation IT et de la rationalisation des systèmes, cette mission stratégique comporte des volets liés à la migration technique, à l’optimisation des ressources, et à la gestion des actifs numériques obsolètes ou non critiques. Responsabilités La mission impliquera le prestataire sur les aspects suivants : 1. Move to Cloud Azure •Pilotage global de la migration des EUC métiers vers le Cloud Azure • Évaluation et prise en charge de la compatibilité technique des systèmes actuels avec les services Cloud Azure. • Supervision des protocoles de communication et garantie de la continuité des opérations durant la migration. • Optimisation budgétaire, notamment sur les coûts liés aux ressources Azure (CPU, stockage, etc.). • Définition des normes de sécurité Cloud et des standards de développement recommandés. • Documentation et suivi des processus de migration. 2. Archivage des EUC • Identification de la stratégie d’archivage EUC, en collaboration avec les parties prenantes et la DSI. • Analyse comparative des solutions d’archivage disponibles, en tenant compte des exigences techniques et réglementaires. • Proposition d’une solution chiffrée et adaptée, avec un focus sur la performance et la durabilité. 3. Coordination et Reporting • Coordination avec les équipes IT, business, fournisseurs, et autres parties prenantes • Animation des comités de pilotage et suivi des indicateurs clés (KPI). • Rédaction des rapports d’avancement et communication proactive sur les risques et les actions correctives.
Offre d'emploi
DevOps AWS
Nous recherchons un profil qualifié et motivé pour une mission de longue durée dans un contexte stimulant et innovant. La mission démarrera dès le début du mois de janvier et vise à renforcer les équipes d’un grand acteur du secteur BtoC. En intégrant cette mission, vous travaillerez sur des problématiques stratégiques et opérationnelles liées à la gestion des performances et à l’optimisation des systèmes en environnement de production. Votre rôle sera de contribuer activement à l’amélioration continue des systèmes en étant confronté à des défis techniques tels que la gestion des pics de charge, l’optimisation des caches et l’élasticité en production. Vous collaborerez avec des équipes multidisciplinaires pour assurer la résilience et la performance des solutions mises en place, tout en apportant une expertise précise sur les enjeux spécifiques aux environnements BtoC. L'environnement technique est sur : Cloudfront / Redis / Varnish Le poste implique une approche analytique et pragmatique pour identifier et résoudre des problèmes complexes. Vous serez amené à : Diagnostiquer et anticiper les problèmes liés aux variations de charge et assurer une adaptabilité optimale des systèmes. Implémenter des stratégies d’amélioration des performances applicatives. Gérer des projets techniques visant à garantir une expérience utilisateur fluide et performante. Collaborer avec les équipes techniques pour concevoir des solutions innovantes et fiables. Participer à des revues régulières pour évaluer les résultats et définir les axes d’amélioration. Cette mission s’adresse à un profil DevOps spécialisé dans AWS, avec une expertise sur les services cloud, les outils de déploiement et les solutions scalables. Elle ne concerne pas les profils indépendants mais uniquement les candidats pouvant être intégrés sous un contrat CDI dans notre société de conseil.
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Ingénieur SysOps (H/F)
Localisation : 92 TT : 2 jours Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS (obligatoire) : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Graphana > Participation à l'amélioration du monitoring / alerting
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Expert PKI
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Expert(e) PKI, qui interviendra sur différentes missions: Mots-clés : PKI, Cloud (AWS, Azure), Automatization (PowerShell, AWS Lambda) Missions principales : Gestion du Cycle de Vie des Certificats : Surveiller et gérer le cycle de vie des certificats (CLM et CLA). Assurer le delivery des certificats et superviser les infrastructures cloud (AWS, Azure, PKI). Amélioration Continue & Support : Contribuer à l'amélioration des processus et infrastructures PKI. Fournir un support technique et collaborer avec les partenaires internes. Intégration et Documentation : Effectuer l'intégration des services avec l'orchestrateur Keyfactor. Rédiger la documentation technique (HLD, LLD) et assurer la traçabilité. Cloud & Automatisation : Gérer les PKI dans des environnements cloud et intégrer les services SaaS DigiCert. Automatiser les processus avec AWS Lambda, Power Automate, PowerShell, etc. Supervision et Monitoring : Utiliser des outils comme Nmap, OpenSSL pour superviser les infrastructures PKI. Collaboration et Support : Travailler avec les équipes Sécurité, Réseau, DevOps et offrir un support aux clients internes/externes. Astreintes et HNO : Être disponible pour les astreintes et travailler en heures non ouvrées. Compétences requises : Connaissance des infrastructures PKI, outils Keyfactor, DigiCert, Microsoft ADCS. Maîtrise des environnements cloud (AWS, Azure) et des outils de sécurité associés. Compétences en automatisation et scripting (AWS Lambda, PowerShell, Python). Bonne maîtrise des outils de supervision (Nmap, OpenSSL) et des protocoles d'infrastructure (DNS, HTTPS, etc.). Maîtrise des outils ITSM (ServiceNow) et des outils de test d'API (Postman). Langues : Français et anglais (lu, écrit, parlé). Qualifications : Bac +5 en CyberSécurité, Cryptographie, ou équivalent. Certification AWS Certified Solutions Architect - Associate (obligatoire). Expérience préalable en gestion de PKI.
Offre d'emploi
Data Engineer Python MLOps AZURE
Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.