Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 257 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur Data Senior

DHM IT
Publiée le
Agile Scrum
Amazon S3
API

3 mois
400-700 €
Paris, France

Contexte de la mission : Le département Data IA (DaIA) est chargé de fournir aux différents métiers un socle technologique transversal visant à mettre en production et à industrialiser les cas d’usage liés à la Data. Cela inclut le développement d’une plateforme dédiée à l’enrichissement des métadonnées des contenus, intégrant des technologies d’intelligence artificielle et de génération IA (GenAI). Description du besoin : Le département DaIA recherche une prestation en ingénierie des données pour assurer la conception, la mise en place et la gestion de l’infrastructure AWS. Principales activités de la mission : Développement d’une plateforme de microservices sur AWS. Industrialisation des cas d’usage métiers liés aux médias. Gestion de la qualité, fiabilité et accessibilité des données. Développement de pipelines de traitement de données orientés média. Collaboration avec les équipes Data Science pour identifier les besoins et concevoir des solutions adaptées. Maintenance et optimisation des systèmes de données existants.

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, Île-de-France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, Île-de-France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
genio

24 mois
250-500 €
Paris, Île-de-France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

CDI

Offre d'emploi
Ingénieur Data F/H

METSYS
Publiée le
Database
Microsoft Power BI
Power Query

40k-45k €
Strasbourg, Grand Est

Intégré(e) au sein d’une équipe à taille humaine d’une vingtaine de consultants, tu seras amené(e), à participer à des projets dans nos locaux modernes et conviviaux ou/et à intervenir en Assistance Technique ou au forfait chez l’un de nos clients. Dans ce contexte, les missions qui te seront confiées : • Concevoir et développer des rapports et tableaux de bord interactifs sur Power BI qui permettent une visualisation claire et efficace des données. • Collaborer avec les équipes fonctionnelles de nos clients pour comprendre leurs besoins en matière de reporting et proposer des solutions adaptées. • Effectuer des analyses de données approfondies et fournir des insights exploitables pour soutenir la prise de décision. • Intégrer et transformer des données provenant de diverses sources (bases de données internes, API, SharePoint, etc.). • Mettre en place et gérer une architecture d'entrepôt de données robuste et évolutive. • Assurer la qualité, l'exactitude et la sécurité des données tout au long du processus ETL (Extract, Transform, Load). • Implémenter et gérer des flux de données Azure pour optimiser la performance et la disponibilité des données. • Déployer et maintenir des passerelles Power BI pour garantir l'accès en temps réel aux données.

Freelance

Mission freelance
Ingénieur Data

HAYS France
Publiée le
Data management
SAP

1 an
100-500 €
Meurthe-et-Moselle, France

Ingénieur Data : injecter de la master DATA dans SAP Il va faire de la reprise de données, de la source de données à transformer en CSV (format texte ouvert en présentant des données tabulaires séparées sous forme de virgule) Il s’occupera de la qualité de données également Il s’occupe d’importer dans SAP (ré interroger la DATA etc) Aide à décrire le projet (73 objets métiers) Management de 2 alternants DATA Expérience en importation dans SAP Tous les modules Expérience en qualité de données basiques

Freelance

Mission freelance
Ingénieur Data gouvernance (H/F) 75

Mindquest
Publiée le
Big Data
PySpark
Python

3 mois
400-500 €
Paris, France

Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

Freelance

Mission freelance
Ingénieur Data - ETL

Zsoft Consulting
Publiée le
BigQuery
ETL (Extract-transform-load)
Informatica

1 an
400-500 €
Gretz-Armainvilliers, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un(e) Consultant(e) Data Engineer - ETL. Contexte Projets impliquants des modifications des calculs des indicateurs principaux de notre client et la reprise d'historique sur des volumes conséquents. Nous souhaitons intégrer les données actuellement traitées dans notre solution BI existante (Informatica, SQL Server) au sein de notre nouveau socle cloud GCP (DBT, BigQuery), afin de bénéficier de sa performance pour retraiter l'historique et générer des simulations.

CDI

Offre d'emploi
Ingénieur Data Lake H/F

PROXIEL
Publiée le
Big Data
Hadoop
SQL

38k-45k €
Montpellier, Occitanie

Nous recherchons un Ingénieur Data Lake H/F en CDI, afin d’intégrer notre partenaire situé sur Montpellier. Vos missions : · Définir les besoins en matière de stockage de données de l’entreprise et établir une stratégie de mise en place du data lake en conséquence · Développer et mettre en œuvre le système de stockage de données · Gérer l’intégration des données dans le data lake, en veillant à ce qu’elles soient structurées et organisées de manière cohérente · Assurer la maintenance et l’optimisation du data lake, en veillant à ce qu’il reste performant et en corrigeant les éventuels problèmes qui pourraient survenir · Collaborer avec les équipes de l’entreprise pour faciliter l’accès aux données et les aider à les utiliser de manière efficace. Avantages : Télétravail - Mutuelle entreprise – Prévoyance - carte restaurants - Prime de vacances – Abonnement transport.

Freelance

Mission freelance
Ingénieur Data Expert

Jinane Consulting
Publiée le
Apache Kafka
Java
Python

1 an
100-550 €
Maisons-Alfort, Île-de-France

Poste : Ingénieur Data Lead Expert Expérience : +10 années Localisation : Maison Alfort Démarrage : ASAP Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Data lead Expert intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques de Bpifrance qui mène à bien les projets informatiques. La mission se déroulera au sein de l'équipe Agile en charge de la réalisation et de la maintenance des applications du SI de Bpifrance Assurance Export. Cette prestation d’assistance technique Data sera supervisée par le Product Manager et le Scrum Master de l’équipe IAE du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : On recherche un ingénieur Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, scripts Python etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data au sein de Bpifrance et doit être curieux des nouvelles pratiques et nouveaux outils de marché. La connaissance complémentaire de Datastage serait un vrai plus. Compétences métier : • Maitrise des modélisations décisionnelles • Utilisation de l'évènementiel • Développement d’API • Pratique et expertise dans la pratique de sujets liés à la Data.

Freelance

Mission freelance
Ingénieur datacenter

STHREE SAS pour HUXLEY
Publiée le

12 job_posting.null
Île-de-France, France

Je recherche pour l'un de mes clients du secteur de l'assurance, un.e ingéneur.e Datacenter (DCO) pour rejoindre l'équipe des Opérations de Datacenter. Cette équipe joue un rôle crucial en tant qu'interface opérationnelle entre les équipes produits, les chefs de projet et les équipes locales des Datacenters (DC). L'activité de l'équipe DCO est centrée sur la gestion de la "server factory" (approvisionnement/décommissionnement d'équipements) et la gestion des salles de Datacenter. Missions: Les activités à soutenir incluent: Traitement quotidien des demandes d'approvisionnement, de décommissionnement, et de modification des équipements physiques. Coordination des opérations dans les salles de nos datacenters français : coordination technique, mise en œuvre des différentes parties impliquées dans le déplacement d'équipements d'un site à un autre, installation/décommissionnement d'actifs, organisation du travail des fournisseurs et prestataires dans les salles serveurs. Suivi de l'activité des équipes locales de DC, contact privilégié pour répondre à leurs questions (techniques et non techniques). Gestion des réunions bimensuelles. Urbanisation des équipements dans les salles de datacenter conformément aux normes de l'entreprise : remplissage uniforme des racks, contrôle de la redondance électrique des équipements installés, correspondance de la puissance disponible aux équipements installés, équilibrage de la charge au sol, gestion des demandes de travail, etc. Maintien à jour de l'inventaire des équipements des salles de DC dans les référentiels. Expertise requise pour installer les équipements dans le cadre de projets, de migration/relocalisation de salles IT dans les DC, dans les outils d'urbanisation. Prise en compte des contraintes d'entrée/sortie et des transporteurs. Suivi et gestion des incidents et des demandes. Visites sur site au moins deux fois par mois dans chaque DC pour vérifier l'état des salles, des stocks et des opérations spécifiques. Soutien aux utilisateurs dans nos processus. Maîtrise des processus ITIL : CMDB, changements, incidents, etc. Échanges techniques réguliers avec les équipes anglophones - environnement en anglais obligatoire. Propositions d'actions d'amélioration continue. Maîtrise d'un outil DCIM (Dctrack préféré). Livrables: Mise en œuvre des demandes et opérations impactant les équipes et salles DC. Référentiels à jour. Reporting régulier sur les actions en cours en donnant une visibilité sur les dates de finalisation des demandes. Formation et support aux demandeurs. Rédaction de documentation à l'usage de l'équipe DC, de notre équipe et des utilisateurs. Adaptation et amélioration des processus DC.

Freelance
CDI

Offre d'emploi
Ingénieur Data Senior – Expertise DevOps & ETL (H/F)

CITECH
Publiée le
AWS Cloud
DevOps
Docker

3 ans
70k-85k €
450-550 €
Massy, Île-de-France

🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Participation à l’industrialisation du socle technologique Data & API : 🔸Mise en œuvre et évolution des capacités techniques 🔸Création de composants génériques pour faciliter le développement 🔸Amélioration et migration vers de nouveaux socles (Snowflake, AWS) 🔸Support aux équipes locales (IT) en phase de cadrage et de build Expertise technique : 🔸Analyse des besoins métiers et proposition de solutions adaptées 🔸Veille technologique et alignement des solutions avec les normes techniques 🔸Documentation des assets pour garantir leur maintenance et réutilisation Développement et support : 🔸Développement de composants facilitant les flux de données (Talend, Java, Python…) 🔸Gestion du support technique niveau 3 🔸Suivi des migrations et optimisation des processus Monitoring et amélioration des flux Datawarehouse : 🔸Mise en place d’un système de monitoring centralisé 🔸Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake)

Freelance

Mission freelance
Data Ingénieur

ematiss
Publiée le
Big Data

6 mois
350-850 €
Île-de-France, France

Le département Data IA a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA de notre client, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI). Il s'agit d'une mission de conception, construction et gestion de l’infrastructure AWS du client. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME • Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kube) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME • Travail collaboratif • Expérience en communication Agile : MAITRISE • Connaissance de l’environnement d’intérêt général de service public exigée • Maîtrise de la communication relationnelle • Gestion des conflits et situations complexes • Expérience efficace et rigoureuse de la gestion de produits • Gestion maîtrisée des tâches simultanées et en autonomie

Freelance

Mission freelance
Data Ingenieur / Data architect

ALLEGIS GROUP
Publiée le
Cloudera

12 mois
600-850 €
Le Plessis-Robinson, Île-de-France

Principales missions et tâches à effectuer : Accompagnement de l’équipe OPS pour la migration vers Cloudera Data Plateform Compléter la Roadmap Architecture et la mettre en place (Rationalisation des environnements ; distribution Hadoop; Stratégie de Backup; Process d'onboarding: nouveau cas d'usage, nouvel utilisateur; Secret Management; SSSD; Refonte de l'organisation LDAP; Gestion des permissions; SSO; Haute disponibilité; Catalogue de données et de usecase …) Poursuivre et mettre en place la politique de Gouvernance DATA sur la plateforme. Assister l'équipe exploitation en cas de blocage dans le déploiement des livraisons, l'installation des outils, le debug. Soutenir les travaux de développement de pipeline de l'équipe DATA ING (choix techniques, optimisation de perfs, bonnes pratiques etc.). Technos/Outils du projet : Les outils de stockage : Hadoop, Hive, Hbase, Postgresql, Ceph Les outils de gestion de calcul distribué : Spark, Yarn Les outils de prototypage : Jupyter, Dataiku, Hue, Airflow Les outils d’alimentation : Kafka, Nifi Les outils d’affichage : Grafana, Tableau Les outils d’administration : Kerberos, Zookeeper, Solr, Ranger, Atlas, Ldap Les outils de proxyfication : Knox, HAProxy Les outils de supervision : Prometheus Les outils de configuration management : Puppet, Ansible Outil de secret management: Vault Cloud Computing: Openstack

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

30k-35k €
Nantes, Pays de la Loire

Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et au sein d'une équipe agile, vous devrez répondre aux différents besoins de l'entreprise : - Définir les architectures des solutions avec le reste de l'équipe, - Fabriquer et tester les solutions, - Déployer dans les différents environnements, - Garantir le bon fonctionnement en production, - Entrainer et tester des modèles de Machine Learning. La stack Technique : - Spark, Kafka, Java - Python, PY Spark - Docker, Jenkins - Gitlab/Github - Grafana

257 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous