Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 456 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Analyste Développeur C# (H/F)

CITECH
Publiée le
.NET
Cloud
DevOps

3 ans
45k-55k €
Strasbourg, Grand Est

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Analyste Développeur C# (H/F). 🚀 🚡 Entreprise reconnue dans le domaine des assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. Vous interviendrez au sein de l’équipe mobilisée sur les développements autour du cloud privé pour de l’analyse du code qualité et sécuritaire. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développements autour du cloud privé pour de l’analyse du code qualité et sécuritaire 🔸 Intégration de l'analyse des fichiers Helm dans Qualis 🔸 Paramétrage dynamique des règles Qualis

CDI

Offre d'emploi
DBA Oracle / Cloud

OBJECTWARE MANAGEMENT GROUP
Publiée le
Cloud
Oracle

10k-55k €
Île-de-France, France

Contexte DBA de production au sein d'une équipe globale avec une expertise Oracle confirmée et une bonne expertise sur la technologie Cloud. L'expertise SQL est très appréciée. Missions Support dans divers projets de migration Support dans les solutions techniques sécurisées Oracle et les infrastructures de bases de données cloud (Iaas et Paas) Support dans l'installation, la configuration et la mise à niveau des logiciels serveurs de bases de données et des produits associés Support dans l'évaluation de nouvelles fonctionnalités et produits liés aux bases de données Support dans le cas d'établissement et de maintien de politiques et procédures de sauvegarde et de récupération Support dans les cas de conception et d'implémentation de bases de données Support dans la mise en œuvre et la maintenance de la sécurité des bases de données Configuration et maintenance de la documentation et des normes Support de l'équipe globale Support pour effectuer le dépannage technique général en service avec les fournisseurs pour le support technique. Support dans la gestion des correctifs et le contrôle de version Support dans la gestion des incidents de production et du périmètre Support pour automatiser, industrialiser et améliorer le fonctionnement de l'infrastructure de bases de données, en utilisant Puppet Support dans l'organisation et l'exécution d'opérations majeures

Freelance
CDI

Offre d'emploi
Tech Lead big data H/F

Green-SI Consulting by Proxiad
Publiée le
Apache Spark
Cloud
Java

3 ans
10k-70k €
Île-de-France, France

Le Bénéficiaire souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : • Amélioration et accélération de la constitution de l'assiette risques structurels • La certification de cette assiette risques structurels cohérente comptable • Renforcer la remédiation en terme de qualité de donnée et réduire le nombre d'ajustements manuels Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement.

CDI

Offre d'emploi
Architect Data AWS

Inventiv IT
Publiée le
AWS Cloud
Databricks
DevOps

83k-105k €
Paris, France

🎯Inventifs Wanted Nous recherchons un architecte Data AWS ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 années d’expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants AWS Conception et mise en œuvre d’architectures de solutions data sur AWS (ingestion, service et consommation de données). Développement d’architectures AWS pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant AWS Direction de projets cloud axés sur les services AWS et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud AWS Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud AWS en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : AWS , AWS Glue & Athena, EMR, Aurora, Amazon SageMaker, AWS Lake Formation, AWS Aurora, AWS Lambda Data & Analytics : AWS, SQL, Power BI, Automation & Scripting : PowerShell, CI/CD, AWS DataLake, LakeHouse, Data Vault, Data WareHouse, Data Mesh, Data Fabric ETL & DWH : Talend

CDI
Freelance

Offre d'emploi
Profils Ingénieur de production

SARIEL
Publiée le
AWS Cloud
Gitlab
ITIL

3 ans
10k-51k €
Paris, France

Pour un de nos clients situé dans la région parisienne (Pantin) nous cherchons un ingénieur de production pour travailler sur les tâches suivantes : La Direction des Services d’Infrastructures et des Opérations (DSIO) est engagée dans une transformation profonde de son modèle opératoire visant,à répondre aux besoins de ses clients internes aux meilleurs standards du marché. Pour répondre à ces enjeux, DSIO définit sa mission et ses engagements autour de 4 piliers : Stabilité & Qualité : orchestrer et exploiter les services d'exploitation en termes de construction et d'exécution, et assurer la continuité des services et des plateformes avec une garantie de sécurité forte Service : construire et offrir un catalogue de services cohérent et robuste pour répondre aux attentes des clients de DSIO Orientation client : répondre efficacement aux besoins des clients, fournir et suivre la valeur fournie aux clients et aux utilisateurs finaux des services d'assistance via un catalogue de services clair Organisation des équipes : combiner une organisation agile et efficace qui soit lisible pour les clients et qui permette aux employés de DSIO d'être performants et de continuer à se développer. Faisant partie intégrante du département Service DSIO, l’équipe « Applicative Platform Supply Chain » a pour mission de répondre aux attentes de ses clients sur les aspects : § RUN § MCO § BUILD L’objet de cet appel d’offres est de se doter d’une prestation d’ingénieur de production Piloter les activités : § BUILD § Installation des composants dans les environnements en charge de la DSIO § Gestion des configurations logicielles § Gestion des ordonnancements, Flux § RUN / MCO : § Demandes et Incidents niveau 3 des applications Supply § Conseil et référant technique sur les évolutions applicatives § Participer aux mises en production, aux PRA et aux arrêts planifiés § Participer à la rédaction, valider les dossiers d’exploitation et gérer les procédures confiées à l’infogérant § Veiller au maintien en condition opérationnelle de la plateforme, de sa supervision, gérer les incidents, communiquer et reporter Participer à la rédaction des comptes rendus d’incidents (REX) § Connaissances d’au moins un ordonnanceur (Si possible OpCon) § Bon niveau d’anglais écrit et oral § Accompagnement d’une infogérance niveau 1 § Plus : o Outils DevOps Gitlab, Ansible, Terraform o Cloud AWS o Administration Infor M3 Cloud o Connaissance Extream Installation et mise en œuvre des outils Infor MEC, IFT, IDM… § Respect de la méthodologie du client et adaptabilité § Certification ITIL § Connaissance de la Supply § Compatibilité avec les valeurs du client : exemplarité, solidarité, confiance, excellence, enthousiasme, harmonie Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI
Freelance

Offre d'emploi
Ingénieur DevOps Expérimenté - Secteur Bancaire

VISIAN
Publiée le
Ansible
Git
IBM Cloud

1 an
10k-48k €
Montreuil, Île-de-France

Le Bénéficiaire souhaite une prestation pour la sécurisation et amélioration de la qualité globale du service rendu, tant au niveau de la pérennité du RUN, que de l'efficacité de la réalisation des projets. Projet : Référent sur la partie IBMCLOUD dans le domaine de l’équipe PF03 Formateur au sein de l’équipe PF sur du Cloud (environ de plusieurs personnes) + des Indiens en anglais Référent sur la partie création d’une architecture Réseau sur plusieurs projets Legacy & IAAS & PAAS Référent sur la mise en place d'un PACT (environ 7 applications) Référent sur la création et gestion sur du VSI et de l'Oracle As a Service

Freelance

Mission freelance
DataOps Engineer

Groupe Aptenia
Publiée le
Apache Spark
AWS Cloud
Databricks

1 an
550-600 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un DataOps Engineer confirmé pour renforcer notre équipe de 3 personnes. Ce poste s'inscrit dans un besoin d'industrialisation de nos processus de gestion de données, avec un focus particulier sur l'ingestion de données en temps réel. Responsabilités principales · Concevoir, développer et maintenir des pipelines de données robustes et évolutifs · Implémenter des solutions d'ingestion de données en temps réel · Participer à l'industrialisation des processus DataOps · Appliquer les bonnes pratiques DataOps dans l'ensemble de nos projets · Collaborer étroitement avec les équipes de développement et d'infrastructure

Freelance

Mission freelance
Data Engineer Snowflake H/F

LeHibou
Publiée le
AWS Cloud
Snowflake

12 mois
500-600 €
Neuilly-sur-Seine, Île-de-France

Notre client dans le secteur Culture et tourisme recherche un/une Data Engineer Snowflake H/F Description de la mission: Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …). Activités et tâches : QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Compétences / Qualités indispensables : Expert Snowflake, Bonne maitrise AWS RDS PostgreSQL , Maitrise partielle Python, Maitrise Partielle lambda / Step Function Compétences / Qualités qui seraient un + : Connaissance du domaine des médias / artistique Informations concernant le télétravail : 2 jours par semaine

Freelance

Mission freelance
Data Engineer Snowflake Aws

Cherry Pick
Publiée le
AWS Cloud
Snowflake

6 mois
500-520 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer SnowFlake Aws pour un client dans le secteur de la musique. Dans le cadre du développement d'un produit de restitution automatisée de données, nous sommes actuellement à la recherche d'un ingénieur data ayant déjà travaillé sur un projet de ce type. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. L'équipe est composée : - 1 PO - 1 TL - 1 développeur fullstack java - 1 OPS Tâches : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données

Freelance
CDI

Offre d'emploi
Développeur NodeJS/AWS

Zsoft Consulting
Publiée le
Angular
AWS Cloud
Node.js

12 mois
10k €
Île-de-France, France

Nous recherchons un Développeur Full Stack passionné par les technologies modernes pour rejoindre notre équipe. Le candidat idéal aura une solide expérience avec Node.js pour le développement backend, ainsi qu’une maîtrise des services AWS pour le déploiement et la gestion des applications dans le cloud. Une bonne connaissance d’ Angular pour le développement frontend sera considérée comme un atout majeur. Le développeur sera responsable de la conception, du développement et de l'intégration d'applications web évolutives, performantes et sécurisées, tout en travaillant en étroite collaboration avec nos équipes produit et infrastructure pour offrir une expérience utilisateur optimale. Développer des applications web robustes et évolutives en utilisant Node.js côté backend. Concevoir et intégrer des APIs RESTful pour la communication avec le frontend et d'autres services. Utiliser les services AWS (Lambda, S3, DynamoDB, API Gateway, etc.) pour gérer les infrastructures cloud et assurer un déploiement continu. Collaborer avec l'équipe produit et les designers pour créer des applications centrées sur l'utilisateur. Intégrer Angular pour les interfaces utilisateur dynamiques (en tant qu'atout supplémentaire). Participer à l’optimisation des performances et à la gestion de la sécurité des applications. Travailler dans un environnement Agile/Scrum et participer aux cérémonies (stand-up, planning, rétrospective, etc.). Assurer la mise en œuvre des bonnes pratiques DevOps pour automatiser les tests et les déploiements continus. Rédiger une documentation technique claire et détaillée.

Freelance

Mission freelance
SysOps GCP 3

KEONI CONSULTING
Publiée le
Cloud
Méthode Agile
Safe

12 mois
100-450 €
Paris, France

Contexte: Nous recherchons un profil de type SysOps (ingénierie des briques applicatives) capable de comprendre les services du socle GCP et les services applicatifs GCP liés à la « Data ». Il devra être en mesure de proposer des configurations sécurisées de ces services applicatifs permettant de les proposer comme briques de base futures pour un déploiement. MISSIONS : Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions ciblées, Fournir en amont à l’architecte référent les éléments nécessaires à la mise en œuvre côté client (dossiers d’architecture CATE), Prendre en compte la sécurité des ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement, Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections, Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’infrastructure du socle GCP, Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP, Assurer la généricité des pipelines.

Freelance

Mission freelance
Data Engineer (expertise sur Snowflake requise)

INSYCO
Publiée le
Agile Scrum
AWS Cloud
Python

3 ans
450-600 €
Paris, France

Dans le cadre du développement d'un produit de restitution automatisée de données, notre client grand compte dans les médias est actuellement à la recherche d'un ingénieur data ayant déjà travaillé sur un projet de ce type. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à l'adresse < freelance à insyco . fr > avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DESN/4531 en objet du mail L'équipe est composée : - 1 PO - 1 TL - 1 développeur fullstack java - 1 OPS Le profil : Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …). QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Activités et tâches : - Implémenter les fonctionnalités en accord avec le PO et le Tech Lead - Implémenter des algorithmes data complexes (principalement sur snowflake) - Optimisation des ressources utilisées par ces algorithmes et passage à l'échelle - Réaliser la maintenance en condition opérationnelle de ces algos - Savoir écrire des requetes sql complexes et les optimiser - Participer activement à la construction de l'architecture cible

Freelance
CDI

Offre d'emploi
Consultant technique : monitoring et observabilité

MSI Experts
Publiée le
Cloud
Monitoring
Nutanix

6 mois
43k-53k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un consultant technique spécialisé dans les solutions de monitoring et d'observabilité. Vous serez responsable d'accompagner l'entreprise dans la formalisation des besoins et la rédaction d'un cahier des charges pour identifier des solutions technologiques adaptées. Contexte : L'entreprise souhaite améliorer la couverture de ses besoins en matière de monitoring des performances de ses applications et de son infrastructure dans un environnement cloud hybride (Nutanix et Azure), incluant les environnements de production et de test. Plusieurs solutions partiellement utilisées, telles que Dynatrace et , doivent être réévaluées. Vos principales responsabilités : Formaliser les besoins en matière de monitoring des performances et d’observabilité, en collaboration avec les équipes de développement et d'opérations. Rédiger un cahier des charges dans le cadre d'un appel d'offres (AOF) pour identifier les solutions répondant aux critères de couverture, coût et délais de mise en œuvre.

Freelance
CDI
CDD

Offre d'emploi
CLoud DevOps - GenAI

bdevit
Publiée le
AWS Cloud
CI/CD
Cloud

36 mois
50k-60k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.

Freelance
CDI

Offre d'emploi
Ingénieur système confirmé avec expertise Cloud

GROUPE ALLIANCE
Publiée le
AWS Cloud
Azure
Cloud

12 mois
44k-60k €
Île-de-France, France

Pour le compte de l' un de nos clients dans le domaine bancaire, nous recherchons un Ingénieur système confirmé avec une Expertise Cloud Vous intégrerez une équipe de 15 personnes. Vos principales missions seront: - La participation à la rédaction de dossiers d’architectures techniques, et préconisez les solutions techniques - Vous vérifiez et analysez l’impact technique des nouvelles solutions - Vous assurez de la cohérence globale sur votre périmètre de l’infrastructure conformément au catalogue d’infrastructure - Vous vous assurez du maintien des référentiels d’architecture technique - Vous apportez le support aux équipes opérationnelles

Freelance

Mission freelance
DATA ENGINEER

PARTECK INGENIERIE
Publiée le
AWS Cloud
Python
Snowflake

36 mois
100-520 €
Paris, France

QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Implémenter les fonctionnalités en accord avec le PO et le Tech Lead Implémenter des algorithmes data complexes (principalement sur snowflake) Optimisation des ressources utilisées par ces algorithmes et passage à l'échelle Réaliser la maintenance en condition opérationnelle de ces algos Savoir écrire des requetes sql complexes et les optimiser Participer activement à la construction de l'architecture cible snowflake +++ lambda / Step Function AWS RDS PostgreSQL Python

456 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous