Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Infrastructure Base de données - N4
Contexte Objectif global : Administrer SGBD OpenSources Strasbourg MISSIONS : Le département Bases de Données Distribués de la Direction Infrastructure recherche un profil Expert Bases de données PostgreSQL, ou à défaut MySQL ou MongoDB ou encore SingleStore, ayant des connaissances effectives dans le domaine du DevOps (Ansible Tower, Jenkins, Bitbucket, Jira, ...) pour renforcer ses équipes. Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Offre d'emploi
DevOps AWS
Nous recherchons un profil qualifié et motivé pour une mission de longue durée dans un contexte stimulant et innovant. La mission démarrera dès le début du mois de janvier et vise à renforcer les équipes d’un grand acteur du secteur BtoC. En intégrant cette mission, vous travaillerez sur des problématiques stratégiques et opérationnelles liées à la gestion des performances et à l’optimisation des systèmes en environnement de production. Votre rôle sera de contribuer activement à l’amélioration continue des systèmes en étant confronté à des défis techniques tels que la gestion des pics de charge, l’optimisation des caches et l’élasticité en production. Vous collaborerez avec des équipes multidisciplinaires pour assurer la résilience et la performance des solutions mises en place, tout en apportant une expertise précise sur les enjeux spécifiques aux environnements BtoC. L'environnement technique est sur : Cloudfront / Redis / Varnish Le poste implique une approche analytique et pragmatique pour identifier et résoudre des problèmes complexes. Vous serez amené à : Diagnostiquer et anticiper les problèmes liés aux variations de charge et assurer une adaptabilité optimale des systèmes. Implémenter des stratégies d’amélioration des performances applicatives. Gérer des projets techniques visant à garantir une expérience utilisateur fluide et performante. Collaborer avec les équipes techniques pour concevoir des solutions innovantes et fiables. Participer à des revues régulières pour évaluer les résultats et définir les axes d’amélioration. Cette mission s’adresse à un profil DevOps spécialisé dans AWS, avec une expertise sur les services cloud, les outils de déploiement et les solutions scalables. Elle ne concerne pas les profils indépendants mais uniquement les candidats pouvant être intégrés sous un contrat CDI dans notre société de conseil.
Mission freelance
Développeur Senior GMAO EAM
Les compétences techniques attendues sont les suivantes : · Expérience significative de mise en œuvre ou de TMA sur la GMAO INFOR EAM 11 et - Expérience sur Java 8 (et plus) et architectures MVC (SpringFramework) · Développements Oracle (SQL, PL/SQL, Triggers, Procédures stockées) · Développements Unix (shell, crontab) · Très Bonnes connaissances WebService REST · Très Bonnes connaissances des services SOAP · Connaissance d’un outil de suivi d’anomalies, type Mantis/Jira · Expérience TMA et projets exigés
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Architecte Cloud AWS
Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.
Mission freelance
Développeur SAS DI junior - Bruxelles
Dans le cadre d’un projet, le candidat doit être capable de : Concevoir la solution technique à partir des spécifications fonctionnelles fournies par l'équipe d'analyse ; Développer des routines SAS Data Integration Studio et des scripts d’enchaînement pour transférer les données des systèmes opérationnels sources vers le système cible DWH ; Créer des packages ETL ; Tester les routines ETL et effectuer les tests d'intégration ; S'assurer que les résultats du processus ETL respectent les spécifications techniques (en étroite collaboration avec les analystes BI) ; Rédiger les documents requis par le cycle de vie de développement logiciel (SDLC) ; Créer des procédures.
Mission freelance
Chef de Projet Move to Cloud – Azure et Archivage EUC
Chef de Projet Move to Cloud – Azure et Archivage EUC La mission s’effectuera au sein du service PPO et vise à renforcer l’équipe en charge de la transition des EUC métiers vers le Cloud Azure , ainsi que de l’archivage des EUC qui ne seront pas migrés. Contexte Dans le cadre de la transformation IT et de la rationalisation des systèmes, cette mission stratégique comporte des volets liés à la migration technique, à l’optimisation des ressources, et à la gestion des actifs numériques obsolètes ou non critiques. Responsabilités La mission impliquera le prestataire sur les aspects suivants : 1. Move to Cloud Azure •Pilotage global de la migration des EUC métiers vers le Cloud Azure • Évaluation et prise en charge de la compatibilité technique des systèmes actuels avec les services Cloud Azure. • Supervision des protocoles de communication et garantie de la continuité des opérations durant la migration. • Optimisation budgétaire, notamment sur les coûts liés aux ressources Azure (CPU, stockage, etc.). • Définition des normes de sécurité Cloud et des standards de développement recommandés. • Documentation et suivi des processus de migration. 2. Archivage des EUC • Identification de la stratégie d’archivage EUC, en collaboration avec les parties prenantes et la DSI. • Analyse comparative des solutions d’archivage disponibles, en tenant compte des exigences techniques et réglementaires. • Proposition d’une solution chiffrée et adaptée, avec un focus sur la performance et la durabilité. 3. Coordination et Reporting • Coordination avec les équipes IT, business, fournisseurs, et autres parties prenantes • Animation des comités de pilotage et suivi des indicateurs clés (KPI). • Rédaction des rapports d’avancement et communication proactive sur les risques et les actions correctives.
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Chef(fe) de projet Réseaux et DataCenter
Nous recherchons un(e) Chef(fe) de projet Réseaux et DataCenter pour le compte de notre client (secteur du numérique). Vos missions Dans le cadre d’un projet de déménagement de dataCenter, notre client recherche un(e) Chef(fe) de Projet capable d’assurer le pilotage du projet dans sa globalité. A ce titre, vous serez chargé(e) d’(e) : Participer à la stratégie de déménagement Designer le réseau (LAN, MAN) (extension + design) Pilotage du lotissement de déménagement : o Inventaire des assets, et des clients o Identification des dépendances o Identification des RTO/RPO des applications o Panification et priorisation des lots o Identification des méthodes de migration, utilisation du PRA/PCA, Reconstruction, déménagement physique Lancer les moves et les piloter Avantages & Perspectives · Démarrage en mars 2025 · Mission de longue durée · Lieu : île de France · Rémunération : package global +/ - 65 K selon profil (Politique d’intéressement en place depuis 2015) · TJM : selon profil
Mission freelance
Data Engineer AWS et Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Chef de projet Junior - Migration Cloud
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Chef de projet junior - Migration Cloud qui interviendra sur différentes missions : Mots clés: Legacy, Cloud conteneurisé, Move to cloud Missions principales : Participer à la planification et à la coordination des projets de migration vers le Cloud. Assurer le suivi des étapes clés (analyse, migration, tests, validation). Collaborer avec les équipes techniques et métiers pour garantir le respect des objectifs. Identifier et gérer les risques liés à la migration. Produire des rapports d’avancement et assurer une communication claire avec les parties prenantes. Compétences requises : Connaissance des solutions Cloud (AWS, Azure, Google Cloud). Notions de gestion de projet (méthodologies Agile ou Waterfall). Capacités d’analyse et de résolution de problèmes. Excellentes compétences en communication et travail d’équipe. Anglais indispensable
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
Chef de projet SAS (Mi-temps)
Notre client, recherche un Chef de projet SAS (H/F) dans le cadre d'une longue mission à mi-temps. Dans le cadre de la transformation de son activité Décisionnel, notre client recherche une prestation de 2 ans à mi-temps en chefferie de projet expérimenté SAS pour l’accompagner sur deux sujets de transformation : - Migration des utilisateurs SAS de Teradata vers Hadoop - Appel d’offre, choix et acquisition d’un nouvel outil en vue de remplacer SAS Cette mission a pour objet de piloter l’activité de transformation avec une équipe dédiée, sur Lyon et sur Paris. Des déplacements sont donc à prévoir dans le cadre de ce pilotage. Ce dispositif a pour cible d’accompagner sur les sujets de transformation SAS, en accompagnant la migration vers SAS-Hadoop, et le process d’acquisition d’un nouvel outil pour en vue de remplacer SAS dans les prochaines années. Un premier benchmark de solution du marché est en cours de réalisation avant de démarrer le projet, avec un recensement des cas d’usages utilisateur. Fort de votre expérience sur cette technologie et de vos compétences en gestion de projet, le prestataire devra être autonome sur son périmètre en pilotant le projet par les jalons, gérer les risques et alerter sa hiérarchie en cas de glissement. Il devra également préparer et animer la comitologie du projet de transformation SAS. Missions : - Faire un état des lieux technique et fonctionnel de l’existant - Mener des entretiens utilisateurs afin de faire un état des lieux des usages SAS et les besoins futurs - Accompagner les utilisateurs dans la migration de SAS-Teradata vers SAS-Hadoop, et piloter ce plan de migration - Planifier et suivre l’avancement des travaux liés à la transformation - Gérer les risques inerrant au projet - Préparer et animer les différents comités (Comité suivi, Comité opérationnel...) - Assister le responsable Transformation du Décisionnel pour la préparation des comités de pilotage - Jouer son rôle de conseil sur les bonnes pratiques en termes de gestion de projet, ainsi que sur les fonctionnalités SAS à utiliser dans Hadoop - Accompagner les utilisateurs sur les aspects techniques de SAS - Être amené à coordonner les différentes équipes techniques, recette et métier tout au long de la phase de migration - Piloter les démarches pour le choix et l’acquisition d’un nouvel outil, en relation avec l’ensemble des parties prenantes - Rédiger les documents de synthèse sur les deux périmètres - Rédiger et dépouiller les appels d’offre
Mission freelance
Consultant Expert Crypto
Contexte Client : Dans le cadre d'une activité transverse dédiée à la sécurisation et la cryptographie, notre client, un leader du secteur bancaire, souhaite renforcer ses équipes pour le Maintien en Conditions Opérationnelles (MCO) de ses plateformes de gestion des clés et de chiffrement. Ce projet, fortement chalengé par les enjeux métiers, repose sur des solutions de pointe telles que Thales HSM, KMS, Oracle, MongoDB et des environnements Cloud. Vos missions principales : -Accompagner le métier dans l'intégration des solutions cryptographiques et leur alignement avec les bonnes pratiques de sécurité - Assurer le MCO des plateformes cryptographiques, incluant les solutions HSM et KMS. - Contribuer à l’inventaire, la gestion et la rotation des clés de chiffrement. - Collaborer à l'intégration et l'adhérence des solutions crypto à des environnements complexes, incluant Oracle, MongoDB, et des infrastructures Cloud diversifiées. - Proposer des solutions innovantes pour une vision future de la cryptographie agile : automatisation, inventaire des clés, processus de changement. - Participer à la sécurisation des données sensibles en milieu Cloud et à la mise en œuvre des bonnes pratiques de cryptographie.
Offre d'emploi
Expert IBM MQ en environnement Open
· Expertise sur le produit IBM MQ en environnement Open · Maîtrise des versions 8, versions 9 et suivantes. · Maîtrise des solutions MQ en cluster. · Mise en place alerting sous Zabbix et création dashboard de monitoring via Grafana · Implémentation en mode DEVOPS des solutions MQ Open. · Avoir intégré des solutions MQ en grande volumétrie transactionnelle. · Maitrise Java Applications consommée par MQ. · Scripting, automatisation Ansible, Json, Shell pour installation et configuration solutions MQ.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Développeur Logiciel - Conseils pour me lancer en freelance
- Rester indépendant ou redevenir "esclave" (CDI) ? Débat ouvert.
- Me sortir d'une ESN de m...
- tarification support helpdesk
- Conditions de la démission reconversion pour devenir Freelance
- Factures émises en retard - Possible que le client ne paye pas ?