Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
IT Project Manager H/F
Missions : Mon client cherche à renforcer ses projets avec un chef de projet expérimenté et qualifié. Vous serez responsable de diriger les projets IT, de les structurer, d'assurer leur livraison et la gestion après le Go Live. Vous coordonnez les activités, assurez la communication avec les parties prenantes (analyste métier, responsable technique, product owner, équipe sécurité et GDPR, fournisseur, etc.), et garantissez la conformité et l'alignement avec leur cadre IT et les projets parallèles. Vous intégrerez une équipe performante et conviviale avec des ressources hautement qualifiées et engagées.
Offre d'emploi
Consultant RTE Senior - Paris
Nous recherchons un consultant RTE expérimenté pour piloter une cellule RTE au sein d'un environnement complexe et stimulant. Vous aurez sous votre responsabilité directe une équipe de 70 personnes, et jouerez un rôle clé dans la planification, le suivi et la qualité des livraisons dans un contexte Agile. Pilotage stratégique : Coordination de RTE et de leurs équipes. Supervision de la qualité des livrables et des KPIs associés. Gestion des plannings PIs et suivi des objectifs fonctionnels pour des sprints de deux semaines. Garantir le bon déroulement des 4 releases annuelles Interface SI et technique de leadership : Collaboration étroite avec les équipes en charge des systèmes d'information, en particulier sur les processus de livraison et projets SI. Interface avec les solutions cloud, notamment Salesforce , et intégration avec des systèmes existants (legacy). Outils et méthodologies : Utilisation quotidienne d'Excel, Jira, et Confluence pour le suivi et la communication. Mise en œuvre et optimisation des processus liés à la méthodologie Agile.
Offre d'emploi
Ingénieur Devops Azure (H/F)
Envie d’un nouveau challenge... Rejoins-nous chez Aubay ! Notre ADN allie l’Expertise technique, Innovation, Collaboration, Engagement et Ethique ! Au sein de l’entité Devops et de l’équipe Cloud Public et dans le cadre de l’évolution du socle technique, tu interviendras en tant qu’Ingénieur Devops Azure (H/F) sur les missions suivantes : - La gestion du run sur les infrastructures du cloud public (Azure) - Automatisation et sécurisation du CI/CD - L'évolution des infrastructures et le développement de features (PowerShell (avec tests unitaires), terraform, versionning) - gestion du fonctionnement et implémentation d’APIs REST - gestion des identités et des autorisations (authentification, autorisation, héritage,…)
Mission freelance
Data Analyst
Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Mission freelance
DATA Engineer GCP H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Mission freelance
Consultant Automatisation
Dans le cadre d’un accroissement d’activité, voici vos différentes missions : 1. Analyse et conseil : Identifier les processus à automatiser, auditer les systèmes existants et proposer des solutions adaptées. 2. Développement : Concevoir et maintenir des playbooks et rôles Ansible pour automatiser les déploiements, configurations et tâches récurrentes. 3. Déploiement : Intégrer Ansible avec d'autres outils DevOps (Jenkins, Docker, Kubernetes) et gérer des environnements multi-cloud. 4. Amélioration continue : Optimiser les processus et rester à jour sur les évolutions technologiques. Environnement technologique : Ansible – Linux – Cloud Pourquoi rejoindre cette mission ? Mission de plus ou moins longue durée : Pré-Embauche possible Télétravail possible durant la mission Participer à des projets technologiques d'envergure avec des clients prestigieux
Offre d'emploi
Developpeur AWS Lambda/Python
En tant que Développeur AWS Lambda/Python, vous assurez les missions suivantes : - Concevoir et implémenter des algorithmes & nouvelles fonctionnalités du logiciel ; - Maintenir et améliorer l'architecture ainsi que les fonctionnalités existantes ; - Gérer et réaliser toutes les phases de développement logiciel de l'architecture à la mise en production ; - Réaliser des tests unitaires. La Stack Technique: - Python - AWS Lambda - Connaissances en Angular Alors ? Prêt à devenir Amiltonien ? N'hésitez pas à postuler si vous vous reconnaissez : - Diplômé Bac+4/5 (Master ou école d'ingénieur), vous disposez d'une belle expérience en Développement Python. - Vous aimez découvrir de nouveaux contextes fonctionnels et comprendre les objectifs des applications que vous développez. - A l'aise dans une organisation agile, vous faites preuve de rigueur et appliquez les standards de qualité Amiltone durant toute la durée des développements. Outre vos compétences techniques, nous nous intéressons aussi à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Ingénieur DevOps H/F
🌟 Quel sera ton poste ? 🌟 📍Lieu : Boulogne-Billancourt 🏠 Télétravail : 2 jours 👉 Contexte client : Au sein des équipes publicité programmatiques de notre client à Boulogne Billancourt, vous devrez suivre l’exploitation de plusieurs applications déployées sur GCP. Vous travaillerez en collaboration avec les développeurs (Java, Python et Ruby) en mode Agile pour garantir l’exploitabilité des applications durant le Build et le Run. Tout au long de la mission, vous serez le référent sur les sujets d’infra et de production. Vous travaillerez en collaboration directe avec ses collègues ingénieurs DEVOPS, ingénieurs Systèmes, ingénieurs Réseaux et DBA. Tu auras pour missions de : Création et configuration des infra dans le cloud GCP via TerraForm Configuration et déploiement des applications (Kustomize, Helm) Ecriture et maintien de scripts Bash et Python Gestion de la CI/CD (Gitlab, GitHub, CircleCI) Support sur les incidents / Suivi du processus d’alerte et d’information Rédiger et maintenir la documentation Mise en place et suivi du monitoring/alerting et SLA/SLO Partager les méthodes et les astuces avec les autres équipiers DEVOPS
Mission freelance
Data Scientist
Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif
Offre d'emploi
Développeur Salesforce Commerce Cloud (SFCC) H/F - IDF
Dans le cadre d'une mission de 6 mois pour l'un de nos clients en IDF, nous recherchons un(e) Développeur(se) Salesforce Commerce Cloud (SFCC) expérimenté(e). Vos missions principales : Développement back-end d'évolutions fonctionnelles et techniques sur la plateforme SFCC. Conception et développement de SCAPI/OCAPI. Maintenance corrective et évolutive. Participation aux phases de tests et de recette. Collaboration à la rédaction de la documentation technique. Profil recherché : Compétences techniques: Maîtrise approfondie de Salesforce Commerce Cloud (SFCC), notamment des parties back-end, Jobs, OCAPI/SCAPI. Expérience: Minimum 5 ans d'expérience en développement e-commerce avec SFCC. Technos: Postman, Swagger, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Méthodologies: Agilité (Scrum/SAFe), DevOps. Qualités: Sens de l'analyse, rigueur, autonomie, esprit d'équipe. Bac+5 type école d'ingénieur ou parcours universitaire. Anglais courant Nous vous proposons : Mission de 6 mois en IDF (2j de présentiel par semaine) . Environnement technique riche et stimulant.
Offre d'emploi
SENIOR DATA ENGINEER (H/F)
Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.
Mission freelance
DEVIENS #AUTEUR Développer une application Azure Serverless
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Azure Serverless. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Azure n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Offre d'emploi
INGENIEUR INFRASTRUCTURE PROXY SKYHIGH F/H | TOULOUSE (31)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur un projet de fusion d'infrastructure de proxy SKYHIGH. Des activités supplémentaires seront également envisagées sur des technologies comme F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, et Trellix. A ce titre, vous serez en charge de : Assurer la gestion des infrastructures de sécurité (pas de gestion des règles de sécurité). Effectuer l'intégration des infrastructures dans le réseau Réaliser l'administration avancée et le support technique. Environnement Technique : Skyhigh, F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, Trellix Le poste est basé en périphérie de Toulouse (31) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 10 jours de télétravail par mois. Des astreintes hebdomadaires, des permanences et des opérations HNO seront à prévoir.
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Mission freelance
Ingénieur DevOps GCP/CICD/Automatisation
Nous recherchons un(e) Expert(e) CloudOps confirmé(e) avec une spécialisation en Google Cloud Platform (GCP) pour intégrer notre équipe et participer à l'accompagnement du Pôle DevOps sur des projets innovants et stratégiques dans le domaine du Cloud et de l'automatisation. Le candidat idéal devra posséder une solide expérience en gestion des environnements Cloud GCP, en particulier GKE/OpenShift, et maîtriser les processus d'automatisation des déploiements via CI/CD. Responsabilités : Intégrer les solutions logicielles ou matérielles livrées par les services d'études dans l'environnement de production Cloud GCP. Assurer le déploiement des applications via CI/CD et gérer le support nécessaire lors des incidents en production. Participer activement à la mise en exploitation de nouvelles applications ou versions.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Rester indépendant ou redevenir "esclave" (CDI) ? Débat ouvert.
- Développeur Logiciel - Conseils pour me lancer en freelance
- Me sortir d'une ESN de m...
- tarification support helpdesk
- Conditions de la démission reconversion pour devenir Freelance
- Factures émises en retard - Possible que le client ne paye pas ?