Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 716 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
IT Project Manager H/F

Hays Medias
Publiée le
Application web
AWS Cloud
Azure

3 mois
100-700 €
Île-de-France, France

Missions : Mon client cherche à renforcer ses projets avec un chef de projet expérimenté et qualifié. Vous serez responsable de diriger les projets IT, de les structurer, d'assurer leur livraison et la gestion après le Go Live. Vous coordonnez les activités, assurez la communication avec les parties prenantes (analyste métier, responsable technique, product owner, équipe sécurité et GDPR, fournisseur, etc.), et garantissez la conformité et l'alignement avec leur cadre IT et les projets parallèles. Vous intégrerez une équipe performante et conviviale avec des ressources hautement qualifiées et engagées.

CDI
Freelance

Offre d'emploi
Consultant RTE Senior - Paris

Sapiens Group
Publiée le
Safe
Salesforce Sales Cloud

12 mois
54k-73k €
500-700 €
Paris, France

Nous recherchons un consultant RTE expérimenté pour piloter une cellule RTE au sein d'un environnement complexe et stimulant. Vous aurez sous votre responsabilité directe une équipe de 70 personnes, et jouerez un rôle clé dans la planification, le suivi et la qualité des livraisons dans un contexte Agile. Pilotage stratégique : Coordination de RTE et de leurs équipes. Supervision de la qualité des livrables et des KPIs associés. Gestion des plannings PIs et suivi des objectifs fonctionnels pour des sprints de deux semaines. Garantir le bon déroulement des 4 releases annuelles Interface SI et technique de leadership : Collaboration étroite avec les équipes en charge des systèmes d'information, en particulier sur les processus de livraison et projets SI. Interface avec les solutions cloud, notamment Salesforce , et intégration avec des systèmes existants (legacy). Outils et méthodologies : Utilisation quotidienne d'Excel, Jira, et Confluence pour le suivi et la communication. Mise en œuvre et optimisation des processus liés à la méthodologie Agile.

CDI

Offre d'emploi
Ingénieur Devops Azure (H/F)

AUBAY
Publiée le
Azure DevOps Services
CI/CD
DevOps

10k-60k €
Île-de-France, France

Envie d’un nouveau challenge... Rejoins-nous chez Aubay ! Notre ADN allie l’Expertise technique, Innovation, Collaboration, Engagement et Ethique ! Au sein de l’entité Devops et de l’équipe Cloud Public et dans le cadre de l’évolution du socle technique, tu interviendras en tant qu’Ingénieur Devops Azure (H/F) sur les missions suivantes : - La gestion du run sur les infrastructures du cloud public (Azure) - Automatisation et sécurisation du CI/CD - L'évolution des infrastructures et le développement de features (PowerShell (avec tests unitaires), terraform, versionning) - gestion du fonctionnement et implémentation d’APIs REST - gestion des identités et des autorisations (authentification, autorisation, héritage,…)

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Google Cloud Platform

12 mois
100-450 €
Lille, Hauts-de-France

Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.

Freelance

Mission freelance
Consultant FinOps & GreenOps AWS / DevOps

Tenth Revolution Group
Publiée le
AWS Cloud
Git
Gitlab

6 mois
100-500 €
Nanterre, Île-de-France

Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.

Freelance

Mission freelance
DATA Engineer GCP H/F

Karma Partners
Publiée le
Google Cloud Platform

6 mois
400-500 €
Nice, Provence-Alpes-Côte d'Azur

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

Freelance

Mission freelance
Consultant Automatisation

SILKHOM
Publiée le
Ansible
DevOps

3 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Dans le cadre d’un accroissement d’activité, voici vos différentes missions : 1. Analyse et conseil : Identifier les processus à automatiser, auditer les systèmes existants et proposer des solutions adaptées. 2. Développement : Concevoir et maintenir des playbooks et rôles Ansible pour automatiser les déploiements, configurations et tâches récurrentes. 3. Déploiement : Intégrer Ansible avec d'autres outils DevOps (Jenkins, Docker, Kubernetes) et gérer des environnements multi-cloud. 4. Amélioration continue : Optimiser les processus et rester à jour sur les évolutions technologiques. Environnement technologique : Ansible – Linux – Cloud Pourquoi rejoindre cette mission ? Mission de plus ou moins longue durée : Pré-Embauche possible Télétravail possible durant la mission Participer à des projets technologiques d'envergure avec des clients prestigieux

CDI

Offre d'emploi
Developpeur AWS Lambda/Python

Amiltone
Publiée le
AWS Cloud
développeur

35k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

En tant que Développeur AWS Lambda/Python, vous assurez les missions suivantes : - Concevoir et implémenter des algorithmes & nouvelles fonctionnalités du logiciel ; - Maintenir et améliorer l'architecture ainsi que les fonctionnalités existantes ; - Gérer et réaliser toutes les phases de développement logiciel de l'architecture à la mise en production ; - Réaliser des tests unitaires. La Stack Technique: - Python - AWS Lambda - Connaissances en Angular Alors ? Prêt à devenir Amiltonien ? N'hésitez pas à postuler si vous vous reconnaissez : - Diplômé Bac+4/5 (Master ou école d'ingénieur), vous disposez d'une belle expérience en Développement Python. - Vous aimez découvrir de nouveaux contextes fonctionnels et comprendre les objectifs des applications que vous développez. - A l'aise dans une organisation agile, vous faites preuve de rigueur et appliquez les standards de qualité Amiltone durant toute la durée des développements. Outre vos compétences techniques, nous nous intéressons aussi à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

CDI
Freelance

Offre d'emploi
Ingénieur DevOps H/F

SYD CONSEIL MANAGEMENT
Publiée le
DevOps
Google Cloud Platform

12 mois
35k-47k €
300-420 €
Boulogne-Billancourt, Île-de-France

🌟 Quel sera ton poste ? 🌟 📍Lieu : Boulogne-Billancourt 🏠 Télétravail : 2 jours 👉 Contexte client : Au sein des équipes publicité programmatiques de notre client à Boulogne Billancourt, vous devrez suivre l’exploitation de plusieurs applications déployées sur GCP. Vous travaillerez en collaboration avec les développeurs (Java, Python et Ruby) en mode Agile pour garantir l’exploitabilité des applications durant le Build et le Run. Tout au long de la mission, vous serez le référent sur les sujets d’infra et de production. Vous travaillerez en collaboration directe avec ses collègues ingénieurs DEVOPS, ingénieurs Systèmes, ingénieurs Réseaux et DBA. Tu auras pour missions de : Création et configuration des infra dans le cloud GCP via TerraForm Configuration et déploiement des applications (Kustomize, Helm) Ecriture et maintien de scripts Bash et Python Gestion de la CI/CD (Gitlab, GitHub, CircleCI) Support sur les incidents / Suivi du processus d’alerte et d’information Rédiger et maintenir la documentation Mise en place et suivi du monitoring/alerting et SLA/SLO Partager les méthodes et les astuces avec les autres équipiers DEVOPS

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

CDD
Freelance

Offre d'emploi
Développeur Salesforce Commerce Cloud (SFCC) H/F - IDF

Espritek
Publiée le
E-commerce
Salesforce Sales Cloud

6 mois
85k-88k €
550 €
Île-de-France, France

Dans le cadre d'une mission de 6 mois pour l'un de nos clients en IDF, nous recherchons un(e) Développeur(se) Salesforce Commerce Cloud (SFCC) expérimenté(e). Vos missions principales : Développement back-end d'évolutions fonctionnelles et techniques sur la plateforme SFCC. Conception et développement de SCAPI/OCAPI. Maintenance corrective et évolutive. Participation aux phases de tests et de recette. Collaboration à la rédaction de la documentation technique. Profil recherché : Compétences techniques: Maîtrise approfondie de Salesforce Commerce Cloud (SFCC), notamment des parties back-end, Jobs, OCAPI/SCAPI. Expérience: Minimum 5 ans d'expérience en développement e-commerce avec SFCC. Technos: Postman, Swagger, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Méthodologies: Agilité (Scrum/SAFe), DevOps. Qualités: Sens de l'analyse, rigueur, autonomie, esprit d'équipe. Bac+5 type école d'ingénieur ou parcours universitaire. Anglais courant Nous vous proposons : Mission de 6 mois en IDF (2j de présentiel par semaine) . Environnement technique riche et stimulant.

CDI

Offre d'emploi
SENIOR DATA ENGINEER (H/F)

Link Consulting
Publiée le
Apache Airflow
AWS Cloud
Big Data

50k-70k €
Paris, Île-de-France

Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.

Freelance

Mission freelance
DEVIENS #AUTEUR Développer une application Azure Serverless

Editions ENI
Publiée le
Amazon DynamoDB
Amazon S3
API REST

8 mois
100-300 €
Saint-Herblain, Pays de la Loire

Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Azure Serverless. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Azure n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.

Freelance
CDI

Offre d'emploi
INGENIEUR INFRASTRUCTURE PROXY SKYHIGH F/H | TOULOUSE (31)

HIGHTEAM GRAND SUD
Publiée le
F5
Fortinet
Infrastructure

3 ans
10k-50k €
100-500 €
Toulouse, Occitanie

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur un projet de fusion d'infrastructure de proxy SKYHIGH. Des activités supplémentaires seront également envisagées sur des technologies comme F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, et Trellix. A ce titre, vous serez en charge de : Assurer la gestion des infrastructures de sécurité (pas de gestion des règles de sécurité). Effectuer l'intégration des infrastructures dans le réseau Réaliser l'administration avancée et le support technique. Environnement Technique : Skyhigh, F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, Trellix Le poste est basé en périphérie de Toulouse (31) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 10 jours de télétravail par mois. Des astreintes hebdomadaires, des permanences et des opérations HNO seront à prévoir.

Freelance

Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S

YGL consulting
Publiée le
Docker
Go (langage)
Google Cloud Platform

12 mois
500-600 €
Paris, France

Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.

Freelance

Mission freelance
Ingénieur DevOps GCP/CICD/Automatisation

IHC Conseil
Publiée le
Ansible
GitLab CI
Google Cloud Platform

6 mois
400-550 €
Montrouge, Île-de-France

Nous recherchons un(e) Expert(e) CloudOps confirmé(e) avec une spécialisation en Google Cloud Platform (GCP) pour intégrer notre équipe et participer à l'accompagnement du Pôle DevOps sur des projets innovants et stratégiques dans le domaine du Cloud et de l'automatisation. Le candidat idéal devra posséder une solide expérience en gestion des environnements Cloud GCP, en particulier GKE/OpenShift, et maîtriser les processus d'automatisation des déploiements via CI/CD. Responsabilités : Intégrer les solutions logicielles ou matérielles livrées par les services d'études dans l'environnement de production Cloud GCP. Assurer le déploiement des applications via CI/CD et gérer le support nécessaire lors des incidents en production. Participer activement à la mise en exploitation de nouvelles applications ou versions.

716 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous