Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Chef de projet Data (H/F)
Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Mission freelance
Architecte Cloud AWS
Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.
Mission freelance
Data Engineer AWS et Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Chef de projet Junior - Migration Cloud
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Chef de projet junior - Migration Cloud qui interviendra sur différentes missions : Mots clés: Legacy, Cloud conteneurisé, Move to cloud Missions principales : Participer à la planification et à la coordination des projets de migration vers le Cloud. Assurer le suivi des étapes clés (analyse, migration, tests, validation). Collaborer avec les équipes techniques et métiers pour garantir le respect des objectifs. Identifier et gérer les risques liés à la migration. Produire des rapports d’avancement et assurer une communication claire avec les parties prenantes. Compétences requises : Connaissance des solutions Cloud (AWS, Azure, Google Cloud). Notions de gestion de projet (méthodologies Agile ou Waterfall). Capacités d’analyse et de résolution de problèmes. Excellentes compétences en communication et travail d’équipe. Anglais indispensable
Mission freelance
Product Owner Data (H/F)
Notre client dans le domaine bancaire est à la recherche de son futur Product Owner DATA (H/F) pour son site de TOULOUSE en raison de l'expansion de ses activités. Vos missions : Intégré à une équipe dynamique et à taille humaine, vous devrez : • Faire le lien entre les équipes d'architecture et les clients (internes). • Comprendre et anticiper les besoins des clients en animant des ateliers • Rédiger des “users stories” pour déterminer le parcours utilisateur et transmettre les directions à l’équipe. • Elaborer des plannings et alimenter le product backlog afin de hiérarchiser les fonctionnalités à développer. • Superviser et mesurer les différentes étapes de développement du projet • Travailler de manière transversale • Détecter les problématiques utilisateurs et y apporter des solutions
Mission freelance
Chef de Projet Move to Cloud – Azure et Archivage EUC
Chef de Projet Move to Cloud – Azure et Archivage EUC La mission s’effectuera au sein du service PPO et vise à renforcer l’équipe en charge de la transition des EUC métiers vers le Cloud Azure , ainsi que de l’archivage des EUC qui ne seront pas migrés. Contexte Dans le cadre de la transformation IT et de la rationalisation des systèmes, cette mission stratégique comporte des volets liés à la migration technique, à l’optimisation des ressources, et à la gestion des actifs numériques obsolètes ou non critiques. Responsabilités La mission impliquera le prestataire sur les aspects suivants : 1. Move to Cloud Azure •Pilotage global de la migration des EUC métiers vers le Cloud Azure • Évaluation et prise en charge de la compatibilité technique des systèmes actuels avec les services Cloud Azure. • Supervision des protocoles de communication et garantie de la continuité des opérations durant la migration. • Optimisation budgétaire, notamment sur les coûts liés aux ressources Azure (CPU, stockage, etc.). • Définition des normes de sécurité Cloud et des standards de développement recommandés. • Documentation et suivi des processus de migration. 2. Archivage des EUC • Identification de la stratégie d’archivage EUC, en collaboration avec les parties prenantes et la DSI. • Analyse comparative des solutions d’archivage disponibles, en tenant compte des exigences techniques et réglementaires. • Proposition d’une solution chiffrée et adaptée, avec un focus sur la performance et la durabilité. 3. Coordination et Reporting • Coordination avec les équipes IT, business, fournisseurs, et autres parties prenantes • Animation des comités de pilotage et suivi des indicateurs clés (KPI). • Rédaction des rapports d’avancement et communication proactive sur les risques et les actions correctives.
Offre d'emploi
DevOps AWS
Nous recherchons un profil qualifié et motivé pour une mission de longue durée dans un contexte stimulant et innovant. La mission démarrera dès le début du mois de janvier et vise à renforcer les équipes d’un grand acteur du secteur BtoC. En intégrant cette mission, vous travaillerez sur des problématiques stratégiques et opérationnelles liées à la gestion des performances et à l’optimisation des systèmes en environnement de production. Votre rôle sera de contribuer activement à l’amélioration continue des systèmes en étant confronté à des défis techniques tels que la gestion des pics de charge, l’optimisation des caches et l’élasticité en production. Vous collaborerez avec des équipes multidisciplinaires pour assurer la résilience et la performance des solutions mises en place, tout en apportant une expertise précise sur les enjeux spécifiques aux environnements BtoC. L'environnement technique est sur : Cloudfront / Redis / Varnish Le poste implique une approche analytique et pragmatique pour identifier et résoudre des problèmes complexes. Vous serez amené à : Diagnostiquer et anticiper les problèmes liés aux variations de charge et assurer une adaptabilité optimale des systèmes. Implémenter des stratégies d’amélioration des performances applicatives. Gérer des projets techniques visant à garantir une expérience utilisateur fluide et performante. Collaborer avec les équipes techniques pour concevoir des solutions innovantes et fiables. Participer à des revues régulières pour évaluer les résultats et définir les axes d’amélioration. Cette mission s’adresse à un profil DevOps spécialisé dans AWS, avec une expertise sur les services cloud, les outils de déploiement et les solutions scalables. Elle ne concerne pas les profils indépendants mais uniquement les candidats pouvant être intégrés sous un contrat CDI dans notre société de conseil.
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Tech lead Data
Nous recherchons un Leader Technique Data pour rejoindre notre client, acteur majeur dans son secteur, et jouer un rôle clé dans la conception et la mise en œuvre de solutions innovantes en data science. Vous travaillerez au sein du pôle architecture entreprise et serez responsable de la coordination d’équipes pluridisciplinaires (data scientists, développeurs) tout en contribuant directement à des projets stratégiques. Vos principales responsabilités : Concevoir et implémenter des solutions de data science et de machine learning. Coordonner et diriger des équipes composées de data scientists et de développeurs. Analyser les données et réaliser des visualisations pertinentes. Gérer les bases de données et les systèmes de stockage de données. Implémenter des solutions de gestion et de gouvernance des données (DataLab, DataLake, ETL, API management).
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Developpeur AWS Lambda/Python
En tant que Développeur AWS Lambda/Python, vous assurez les missions suivantes : - Concevoir et implémenter des algorithmes & nouvelles fonctionnalités du logiciel ; - Maintenir et améliorer l'architecture ainsi que les fonctionnalités existantes ; - Gérer et réaliser toutes les phases de développement logiciel de l'architecture à la mise en production ; - Réaliser des tests unitaires. La Stack Technique: - Python - AWS Lambda - Connaissances en Angular Alors ? Prêt à devenir Amiltonien ? N'hésitez pas à postuler si vous vous reconnaissez : - Diplômé Bac+4/5 (Master ou école d'ingénieur), vous disposez d'une belle expérience en Développement Python. - Vous aimez découvrir de nouveaux contextes fonctionnels et comprendre les objectifs des applications que vous développez. - A l'aise dans une organisation agile, vous faites preuve de rigueur et appliquez les standards de qualité Amiltone durant toute la durée des développements. Outre vos compétences techniques, nous nous intéressons aussi à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Expert IT & Finance
Contexte : Au sein du département Global Markets Regulatory IT Program , la mission concerne le développement et l’industrialisation d’outils de surveillance et monitoring pour le Front Office , avec un focus sur la conformité réglementaire et les risques de conduite . L'objectif est de créer une plateforme globale intégrant des analyses avancées (NLP, Machine Learning). Missions principales : Collecte et documentation des besoins fonctionnels (usage cases, spécifications). Collaboration avec les équipes Data Engineering pour assurer la faisabilité technique. Développement et amélioration des scripts d’ingestion de données (eCom/aCom). Conception et implémentation d’une stratégie data incluant analyse multi-vecteurs. Participation active aux sprints Agile en coordination avec le PM et l'équipe projet. Support fonctionnel dans un environnement international anglophone.
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.