Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 502 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
Intégrateur applicatif (profil systèmes/sysops) H/F

SPIE ICS
Publiée le
DevOps

3 mois
100-440 €
Orléans, Centre-Val de Loire

Nous recherchons un Intégrateur applicatif (profil systèmes/sysops) H/F : Maintien en condition opérationnelle du parc de serveurs et d’applications du périmètre Web ASSU, principalement centré sur les technos Apache, Tomcat / Jboss / Wildfly, Kubernetes, HaProxy et ordonnancement Control-M / JobScheduler pour la partie applicative, et majoritairement CentOS 7 à 9 et RHEL 6 à 9 pour la partie système Transformation d’infras et applications legacy / on premise vers le Cloud privé groupe et/ou conteneurisation Kubernetes Transformation des outils de supervision legacy (Nagios / EoN) vers la cible groupe (Zabbix) Transformation ou reconstruction des serveurs / applications s’appuyant sur du CentOS vers RHEL • Audit, mise en conformité et mise en pratique des règles de sécurité et bonnes pratiques groupe (par transformation ou remédiation de failles) S’assurer de la résilience des infras et applications de production/formation (tests de résiliences groupe annuels) Traitement des évolutions applicatives en prod, notamment via la mise en place ou l’utilisation de pipelines Jenkins existants Automatisations diverses (Shell, Ansible, Jenkins) pour fiabiliser, superviser ou auditer certaines infrastructures critiques (notamment ce qui a trait aux couches d’authentification, LDAP 389DS et Crowd SSO)

CDI

Offre d'emploi
Data Architect Azure

Inventiv IT
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

82k-107k €
Paris, France

🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps

Freelance

Mission freelance
Consultant DEVOPS INFRA AS CODE

PROPULSE IT
Publiée le
as
code
Consultant

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un consultant senior en IAC (Infrastructure As code) Dans le cadre d' un projet « IaC », cette équipe souhaite se renforcer avec une prestation d'expert technique sur des technologies typées « Cloud » afin de mettre en place une chaine CI/CD de delivery d'infrastructure OnPremise sur le principe de l'« Infrastructure as Code » La chaîne CI/CD sera composée entre autre des éléments suivants : Gitlab-CI , Ansible, Packer, Terraform Vsphere7, Awx, Kubernetes, Pythn/YAML/Bash. Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». - Réaliser et modifier différents rôles et playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaîne CI/CD.

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

Freelance

Mission freelance
Architecte et expert Oracle Exadata

STHREE SAS pour HUXLEY
Publiée le
Big Data
Infrastructure
Oracle Database

3 mois
800-900 €
Île-de-France, France

Contexte : Dans le cadre du développement de notre infocentre RH pour notre client et de la solution BI RH, nous recherchons un Architecte Oracle Exadata. Ce rôle crucial impliquera d'abord une participation active à un Proof of Concept (POC), puis une implication dans le projet de migration depuis l'infrastructure BigData vers Oracle Exadata. Missions : 1. Conseil et Expertise : - Conseiller sur l'utilisation optimale d'Oracle Exadata. - Fournir une expertise technique en matière de performance, de fiabilité et de sécurité des bases de données. 2. Architecture : - Définir et concevoir l'architecture de la base de données Oracle Exadata. - Assurer l'intégration de la solution Oracle Exadata avec les systèmes existants. 3. Optimisation : - Identifier et implémenter des stratégies d'optimisation des performances des bases de données. - Surveiller et ajuster les configurations pour maximiser l'efficacité opérationnelle. 4. Stratégie d'Administration : - Développer et mettre en place une stratégie globale d'administration des bases de données Oracle Exadata. - Superviser les procédures de sauvegarde, de récupération et de maintenance des données. 5. Participation au POC : - Travailler en étroite collaboration avec les équipes projet pour le POC de l'infocentre RH du client et la Solution BI RH. - Apporter des solutions techniques et assurer la faisabilité du projet. 6. Post-POC et Migration : - Intervenir dans le projet de migration de l'infrastructure BigData vers Oracle Exadata. - Fournir un support continu et des améliorations post-migration.

Offre premium
Freelance

Mission freelance
Consultant Data Management - Temps partagés (3/5j) - Paris La Défense

AIS
Publiée le
Data analysis

3 mois
420-860 €
La Défense, Île-de-France

Nous recherchons un·e Consultant·e Data Management expérimenté·e (3-5 ans) pour rejoindre notre service Data Office. Vous serez responsable de la mise en place de la gouvernance des données au sein de notre organisation, en apportant votre expertise sur la gestion des données et en pilotant des projets stratégiques autour du Data Management. Missions principales : Cartographier et documenter les data domains Finance, RH et Customer en collaboration avec les Data Owners et stewards. Identifier et inventorier les master data fonctionnelles. Clarifier l’ownership des master data dans le cadre de la politique de Master Data Management récemment établie. Participer activement à la création de dashboards internes et pour nos clients, et contribuer à l’obtention d’une vision client 360. Vous jouerez un rôle clé dans l’évolution de la stratégie Data de l’entreprise et dans la promotion de l’approche Data au sein des différentes équipes.

Freelance

Mission freelance
Data Engineer - BI - Paris

NSI France
Publiée le
Big Data
Data visualisation
Méthode Agile

4 mois
100-510 €
Paris, France

Dans le cadre de notre activité de maintenance corrective et évolutive sur le périmètre Gestion des risques, la mission a pour objectif la réalisation de traitement ETL visant à alimenter un entrepôt de données et de datamarts, ou à extraire des listes de dossiers destinés aux centres de gestion. Afin de réaliser correctement cette mission, il est indispensable que vous ayez une bonne capacité d'analyse : un travail d'appropriation des spécifications, portant principalement sur le domaine des données de santé, et des échanges nourris avec les équipes fonctionnelles sont nécessaires pour bien appréhender les besoins et attentes de conception technique : afin d'optimiser les chaines de traitement. Compétences requises : - Bonnes connaissances des concepts décisionnels (grands principes, modélisation en étoile...) - Développement via un outil ETL : xDI Semarchy est l’outil d’entreprise ou expertise sur un autre outil du marché (Informatica, Datastage, ODI...) sous couvert d’avoir suivi a minima la formation de l'éditeur sur l'outil xDI. Compétences supplémentaires souhaitées : - Dataviz : Conception / développement de rapport Power BI / Report Builder - Une expérience dans le domaine de la mutualité - Utilisation de chaines CI/CD (Gitlab, Cloudbees) - Expérience en méthode agile (Scrum ou Kanban)

Freelance
CDI

Offre d'emploi
Consultant MDM Tibco

Lùkla
Publiée le
Agile Scrum
Data management
Master Data Management (MDM)

2 ans
55k-65k €
Paris, France

En tant que Consultant(e) MDM Tibco EBX Senior, vous serez notamment en charge de : Conception et implémentation : Analyser les besoins métiers et concevoir des modèles de données de référence (MDM) sur la plateforme Tibco EBX. Implémenter des solutions MDM complètes, incluant la capture, la consolidation, la qualité et la distribution des données. Développer des workflows complexes et des règles métier pour assurer l'intégrité des données. Accompagnement des projets : Assurer la conduite technique des projets MDM, de la phase d'analyse jusqu'à la mise en production. Former et accompagner les équipes métiers dans l'utilisation de la solution. Expertise technique : Maîtriser en profondeur la plateforme Tibco EBX (modélisation, workflows, API, etc.). Avoir une bonne connaissance des bases de données relationnelles et des outils d'intégration de données. Être à l'aise avec les langages de programmation (Java, Python, etc.) ...

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

Freelance

Mission freelance
Développeur Back-End Java/ Cloud - Toulouse (H/F)

LeHibou
Publiée le
Back-end
Big Data
Google Cloud Platform

6 mois
320-420 €
Toulouse, Occitanie

Dans le cadre du développement de ses activités, notre client va rechercher un développeur freelance expérimenté sur la partie Back-end. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Poste disponible à Toulouse 3 jours de présentiel sur site, 2 jours de TT Anglais courant / écrit est obligatoire

Freelance

Mission freelance
Data Engineer Expérimenté -Vannes-

Argain Consulting Innovation
Publiée le
Apache Kafka
Apache Spark
Big Data

1 an
490-580 €
Vannes, Bretagne

En tant que Data Engineer expérimenté ,vous interviendrez : Chez le client, selon le cadre et les objectifs définis : - Participer à la définition de l'architecture Data - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés -Déployer le produit dans les différents environnements -Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Attendu 1 - Contribuer à la Fabrication des Produits de l'Entreprise dans un environnement Cloudera - en utilisant un Framework interne entreprise (sur des activités Big Data) 2- Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées

Freelance

Mission freelance
Tech lead - Data

Management Square
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps Server

1 an
580-600 €
Île-de-France, France

Participer au développement d'un Framework de gestion des flux de données Concevoir l'architecture technique de la solution cible Proposer des solutions innovantes Assurer la cohérence technique et les bonnes pratiques Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Participer activement au développement de la solution cible Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (cohérence du code au sein de l’équipe, choix des modèles ..) en ligne.

CDI
Freelance

Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.

4 Impact
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

12 mois
48k-60k €
Hauts-de-Seine, France

Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.

Offre premium
Freelance

Mission freelance
Développeur NodeJS/ REACTJS confirmé

CONSULT IT
Publiée le
Azure DevOps Server
CI/CD
Google Cloud Platform

24 mois
400-420 €
Lille, Hauts-de-France

Nous recherchons un développeur NodeJs/ ReactJs Confirmé pour rejoindre notre client final à Lille. Le candidat est responsable de définir et promouvoir les bonnes pratiques de développement et d'architecture, tout en garantissant la stabilité, la performance et l'évolutivité du périmètre technique. Il joue un rôle clé dans la conception des versions futures du logiciel, l'architecture applicative. Il contribue à améliorer la cohérence et la qualité de l’équipe, tout en participant activement aux rituels Scrum et en veillant à la montée en compétences des nouvelles recrues.

CDI

Offre d'emploi
Devops (H/F)

Amiltone
Publiée le
DevOps
h-f

35k-40k €
Niort, Nouvelle-Aquitaine

Les Missions d'un Amiltonien : Afin de renforcer nos équipes, nous recherchons un DevOps confirmé (H/F) Vous avez en charge les missions suivantes : - Savoir développer, configurer, déployer et tester les différents automatismes - Maitriser les principes de base d'intégration - Savoir développer du code informatique - Maitriser la mise en place de procédures et outils d'exploitabilité et d'observabilité permettant de garantir la disponibilité attendue des solutions/produits/services - Savoir évaluer les risques et impacts techniques lors d'une mise en production - Savoir gérer les mises en production des évolutions des solutions/produits/services - Savoir configurer et déployer des applications dans le Cloud -Identifier, dès la phase d'idéation, avec les concepteurs et les développeurs, les éléments permettant l'exploitabilité, la performance et la supervision sur tout le cycle de vie des produits - Automatiser et industrialiser dans une logique « DevOps » pour servir le déploiement continu - Contribuer à, et garantir, l'exploitabilité et l'observabilité des produits - Préconiser les éléments liés au Capacity planning - Contribuer à l'amélioration continue du produit La Stack Technique : - Déploiements Kubernetes via helm - Industrialisation et automatisation CI/CD - Bases de données (Postgre) - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins - Testing-Performance : Jmeter, Postman

Freelance
CDI

Offre d'emploi
DevOps - Monitoring (F/H)

CELAD
Publiée le
DevOps

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum Si vous êtes passionné.e par la tech et aimez structurer des projets ambitieux, lisez la suite. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e DevOps - Monitoring pour intervenir chez un de nos clients. 💻💼 Votre mission, si vous l'acceptez : Vous serez responsable du déploiement des applications dans un environnement DevOps, tout en garantissant la qualité de la production grâce à des outils de test automatisé, de monitoring et d'alerting. Vous deviendrez un acteur essentiel de l’amélioration continue de l’infrastructure. Voici ce que vous allez faire concrètement 🎯 : - Assurer le support et la maintenance en conditions opérationnelles de la production - Participer activement à l'amélioration de l'infrastructure - Créer et gérer des jobs GitLab pour les releases et les déploiements - Faire évoluer les pipelines CI/CD et l'outillage projet - Améliorer les métriques applicatives et optimiser les dashboards de supervision (Grafana) - Maintenir et faire évoluer l’infrastructure en tant que code (Terraform) - Évaluer les tâches à réaliser et analyser leur impact - Assurer la gestion des alertes et la livraison des applications en recette et production - Rédiger et maintenir à jour la documentation technique En bonus, vous pourriez également : - Améliorer et exécuter des scénarios de performance - Animer des réunions techniques - Assurer le lien technique avec nos partenaires (sécurité, exploitation, etc.)

502 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous