Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Réseau et Sécurité Senior (H/F)
Pour l’un de nos clients grand compte situé en Ile de France , dans le cadre d’une mission de longue durée permettant plus de 50% de télétravail , nous recherchons un Ingénieur Réseau & Sécurité Sénior , avec un bon niveau d’anglais (H/F) Ses missions : - Support N2 & N3 & résolution de problèmes techniques Routing, Switching, WAN & Firewall - Lead sur les sujets et projets réseaux et sécurité - Amélioration continue - Echanges et conseils techniques avec les entités monde - Collaborer avec les équipes infra pour l'intégration des migrations WAN et Datacenter. Compétences : - Bon niveau d’anglais - + 7 ans d’expérience dans les réseaux - Il est souhaitable d'avoir au minimum le niveau CCNP. - Compréhension approfondie des protocoles de communication (principalement TCP/IP) et des protocoles de routage (BGP, OSPF). - Connaissance approfondie des technologies L2/L3 - VLANs/VLAN tagging, Spanning Tree, Etherchannel, portchannel, HSRP. - Forte expérience des Firewall Fortigate ou de technologies similaires. - Expérience dans la planification, la conception et la mise en œuvre de solutions VPN - IPSec, SSL-VPN - Pulse. - Expérience Load-balancers (Kemp) - Azure networking (Landing Zones, AZ firewall, NSGs, etc.) - Solution Cisco Meraki SD-WAN. - Surveillance du réseau, des serveurs et des systèmes (Zabbix, RADIUS, Wireshark, etc.) - Virtualisation des serveurs (VMware) - Troubleshooting Nice to have : - Certification Fortigate /Azure Firewalling/Cisco. - Expérience sur Cisco Nexus Datacenter Fabrics. - Expérience réseau Azure et Terraform - Compétences de base en Ansible/Python/General Scripting.
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
IA Program Manager
Au sein du département Data Science, vous serez en charge de développer, déployer et maintenir un périmètre de solutions basées sur l’IA, en veillant à leur alignement avec les objectifs stratégiques de l’entreprise. Votre rôle Gestion du programme et coordination des ressources · Traiter la demande commerciale, la conception, la planification, les priorités, le développement, les essais et la documentation associée · Collaborer avec le chef de projet informatique · Coordonner les ressources internes et externes pour soutenir le développement et l’implémentation du produit · Déployer les application au sein des unités opérationnelles en assurant la transition fluide des solutions et leur adoption Création de valeurs · Proposer des solutions innovantes pour soutenir de nouveaux cas d’utilisation · Evaluer la performance des modèles génératifs et des solutions NLP/NLU · Identifier les améliorations possibles Sécurisation de l’exécution et de la maintenance des applications basées sur l’IA · Suivre les accords de niveau de service (SLA) et collaborer avec les équipes de support · S’assurer que la documentation est maintenue à jour avec les évolutions de chaque produit Gouvernance et gestion du changement · Sécuriser le processus de gestion du changement afin d’assurer l’adoption et l’utilisation continues des solutions IA · Gérer les indicateurs clés de performance (KPI) relatifs aux projets IA · Etablir et animer une communauté IA au sein de l’entreprise
Mission freelance
Expert Databricks - Développement Python
Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.
Offre d'emploi
Développeur ReactJS/NodeJS
EccoTechnologies, recherche pour son client, un Développeur ReactJS/NodeJS H/F . Contexte du poste : Vous participerez à un projet de refonte dans le domaine des ressources humaines pour des grands comptes clients, sous la supervision du Directeur d’Activité et du Scrum Master/Lead Technique. Missions principales : Développer des IHM en ReactJS/NodeJS en utilisant des Web Services. Contribuer à la refonte du projet et proposer des améliorations. Compétences techniques demandées : Technologies : ReactJS NodeJS PHP SQL MySQL JavaScript HTML CSS REST SOAP Linux Outils : Eclipse (ou équivalent) Jenkins Redmine Squash Psnext Méthodologies : Cycle en V Agile Gestion des cycles de vie logiciel Suivi des phases de production
Mission freelance
Responsable de projet informatique PHP
Nous recherchons pour notre client basé en l'Île de France, un Responsable de projet informatique PHP . Vos principales missions seront : Relation en direct avec les clients Relation avec le métier PPS/AAS/déploiement RH Création de l'architecture des projets Chiffrage des développements Création des US Affectation et priorisation des US Relecture du code effectué par les développeurs Test du code Livraison du code Paramétrage des environnements, reconduction des dispositifs et test de bout en bout Gestion des différents serveurs Management d'une équipe de 1 à 2 développeurs selon la charge
Offre d'emploi
Business Analyst en Finance de Marché
Dans un contexte où la data devient de plus en plus clé dans les processus métiers de l'Asset Management, la prestation sera rattachée au service Data, au sein du pôle Back To Front & Clients Externe. A ce titre, les principales missions à mener sont : o Contrôle des Holdings o Mise à jour les KPIs clients - Optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs - Automatisation de Alto Dashboard - Traitement des demandes Jiras des clients sur la partie securities, portefeuilles et Atlas - Support de second niveau auprès de nos utilisateurs (Alto Ticketing, jiras et mails) - Automatisation Python et VBA pour l'équipe de Production pour améliorer nos météos et automatiser notre activité pour les clients externes - Garantie de la cohérence de nos processus avec les principes de la Gouvernance des données - Contribution à l'optimisation et à l'amélioration continue de nos processus métiers, opérationnels et notre plateforme data management pour accompagner la croissance mondiale du Groupe - Automatisation de la configuration alto pour les clients externe - Automatisation du Dashboard alto pour les KPIs clients Stack Technique : Outils bureautiques (Excel, Word, PowerPoint) / Bloomberg / Reuters /SQL/ VBA/ Python Anglais indispensable Resultats attendus / livrables : - Contrôle de la production quotidienne des intégrations des flux d'alimentation des administrateurs de fonds, dépositaires par application des procédures de contrôles qualités - Contrôle de la production transverse MDS de la prestation Back To Front pour l'ensemble de nos clients externes. o Contrôle des Holdings o Rapprochement et création des instruments financiers o Mise à jour des KPIs clients - Proposition d'optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs La mission est à pourvoir ASAP, se dérouleras dans Paris Intramuros. 2 ou 3 jours de télétravail par semaine sont prévus.
Offre d'emploi
DATA ENGINEER GCP
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative
Mission freelance
Développer C# - Python
- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Offre d'emploi
TechLead Data GCP
Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Offre d'emploi
Data Engineer Python/SQL
Data Engineer Python/SQL Dans le cadre d'une équipe dédiée à la gestion des données globales et transverses pour un acteur majeur de la finance de marché, vous participerez à des projets stratégiques autour de la gestion et de l’analyse des données pre-trade. Vous contribuerez au développement et au maintien d’outils de détection d’abus de marché basés sur des modèles statistiques, en mettant en œuvre des solutions techniques avancées en Python et SQL dans un environnement technico-fonctionnel exigeant.
Offre d'emploi
Data engineer (F/H) - Lille
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD Interlocuteur lors de la contribution à des projets dans le domaine de la Supply Conception de solutions en respectant les normes et framework data Développement, Modélisation sous la gouvernance de l'architecture data Contribution au développement d'appli Tests Reporting RUN : Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) gestion des incidents mise en production (via Git) suivi de flux EXPERTISE : Montée en compétence sur notre SI et notre domaine de responsabilité Documentation si nécessaire
Offre d'emploi
Administrateur Supervision Zabbix – CDI - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un/une Administrateur(trice) spécialisé(e) en supervision Zabbix. Vous participerez activement à des projets innovants de transformation et de convergence des outils de supervision et métrologie, tout en contribuant à l’amélioration continue des plateformes existantes. MISSIONS PRINCIPALES : Accompagner les projets de transformation liés à la supervision et à la métrologie, en proposant des solutions techniques sécurisées et industrialisées. Optimiser l’administration des plateformes par l’automatisation et contribuer à l’implémentation de nouveaux composants. Fournir un support expert auprès des équipes locales et offshore, tout en collaborant avec les éditeurs. Participer au contrôle qualité et à l’évolution des infrastructures techniques.
Mission freelance
Architecte Cloud AWS
Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.