Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 723 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer (H/F)

NSI France
Publiée le
Apache Airflow
Google Cloud Platform
Python

50k-60k €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
développeur python (pas data engineer)

Innov and Co
Publiée le
PySpark
Python

12 mois
100-500 €
Montrouge, Île-de-France

Les missions : • Implémenter des data pipelines à travers une collaboration avec les équipes IT • Développement de programmes et services lié à la collecte, à la data quality et aux règles de transformation, en lien avec la couche d’API située dans le DataHub et le moteur de règle. • Implémentation de modèles et développements spécifiques à l’intérieur de la solution éditeur. • Collaborer étroitement avec les Data Engineers/Data Scientists pour surveiller et ré-entraîner les modèles d'IA utilisés pour la détection de la criminalité financière. Apporter son expertise sur les données. • Participer à l'industrialisation des algorithmes, au développement et à l'optimisation de l'architecture du pipeline de données. • Tester les solutions d'éditeurs, préparer des documents techniques et des scénarios de tests techniques. • Comptable de la solution technique de l’ensemble des développements spécifiques (côté pipelines et côté modèles) L'essentiel de la mission se déroulera en Anglais.

CDI
Freelance

Offre d'emploi
Data Engineer

SKILL EXPERT
Publiée le
Apache Kafka
Hadoop
Python

1 an
23k-200k €
Vélizy-Villacoublay, Île-de-France

La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
Teach Lead Data Scientist / IA

ESENCA
Publiée le
Chatbot
Google Cloud Platform
Intelligence artificielle

3 mois
430-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

Freelance
CDI

Offre d'emploi
Data Engineer h/f

HAYS MEDIAS
Publiée le
Python
Scala
SQL

6 mois
10k-70k €
Levallois-Perret, Île-de-France

Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.

CDI
Freelance

Offre d'emploi
Développeur python azure H/F

STORM GROUP
Publiée le
Azure
Python
Shell Unix

3 ans
10k-55k €
Île-de-France, France

1 - Contexte et objectifs de la prestation Le Bénéficiaire souhaite améliorer la qualtié de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Administration base de données. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Aide à la construction d’une solution de création de bases de données dans le cloud public (Azure et eventuellement AWS) : SQL Server et/ou PostgreSQL 2 - Livrables attendus Les livrables attendus sont : • Analyse de l'architecture Azure et de son implementation au sein de la Cloud Platform interne SG. • Livraison de code python autour des features AZURE. • Maintien en condition opérationnel de la solution interne de "Managed Databases" : pour fournir des outils à des clients internes SG pour utiliser des bases de données du Cloud Public • Rédaction de documentations techniques : features Azure proposées, intégration dans l'écosystème SG, outil d'inventaire.

Freelance

Mission freelance
Développeur Big Data - Lyon (F/H)

Espace Freelance
Publiée le
Java
Nosql
Python

3 mois
100-620 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - Lyon (F/H) Mission à pourvoir en régie en région Lyonnaise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Création, maintenance et optimisation des bases de données. · Optimisation des requêtes SQL et PL/SQL pour améliorer les performances applicatives. · Support aux équipes de développement et expertise Big Data (Spark). · Veille technologique et accompagnement des développeurs sur les bonnes pratiques.

Freelance

Mission freelance
Ingénieur Python Fast API / Vue

BI SOLUTIONS
Publiée le
Python
Vue.js

2 ans
260-340 €
Île-de-France, France

Ingénieur Python Fast API / Vue le candidat devra aider à monter la filière Python permettant d'industrialiser de reprendre en maintenance des applications existantes, aider à les intégrer à notre chaîne DevOps, effectuer un audit de code, et réécrire les fronts avec nos normes d'architectures quand le front a été développé en Python Connaissances obligatoires Python, FastAPI, technologies front Vue ou Angular, et DevOps Compétences demandées : Python Expert Fastapi Expert Vue Expert 340 e par jour

Freelance

Mission freelance
Consultant Audit BI

Beager
Publiée le
Audit
BI
Data analysis

8 mois
100-750 €
Paris, France

Beager recherche pour l’un de ses clients, un(e) Consultant(e) en Audit de la Chaîne BI (indépendant). Contexte de la mission : Mission : Le consultant retenu aura pour mission d’auditer la chaîne BI et de proposer des améliorations concrètes à court, moyen et long terme. Les actions à mener incluent : Audit complet de la chaîne BI : Analyse approfondie des différents composants, identification des failles et recommandations pour l'optimisation. Renforcement de la chaîne de traitement de nuit : Proposer des solutions techniques pour garantir une mise à jour fiable des données chaque nuit. Réduction des temps de latence : Identifier les causes des lenteurs et suggérer des améliorations pour fluidifier les accès aux données. Amélioration de la cohérence des données : Évaluer les écarts entre les différentes applications et proposer des solutions pour harmoniser les données. Augmentation de la qualité des données : Développer des indicateurs de qualité et des processus de vérification pour assurer la fiabilité des informations. Objectifs spécifiques : Recueillir les besoins des utilisateurs : Organiser des ateliers avec les équipes internes pour comprendre leurs attentes et défis liés aux données. Collaboration inter-équipes : Travailler avec les équipes de développement pour fournir les éléments nécessaires à l’amélioration des requêtes et des modèles de données. Optimisation de l'infrastructure : Collaborer avec les équipes techniques pour proposer des améliorations sur le matériel et les configurations nécessaires. Suivi de l'avancement : Mettre en place des indicateurs de suivi des actions engagées et faire des points réguliers avec les Directions des Métiers (DM) sur l'avancée des travaux.

Freelance

Mission freelance
Lead Data Engineer

AGH CONSULTING
Publiée le
Python
Snowflake
Terraform

6 mois
100-600 €
Bordeaux, Nouvelle-Aquitaine

Nous recherchons pour l'un de nos clients, un(e) Lead Data Engineer. Intégré(e) à la DSI en tant que DataOps Engineer, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. Vous comprenez les attentes techniques des clients et vous ferez évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD

Freelance

Mission freelance
Ingénieur Systèmes Linux DevOps

CS Group Solutions
Publiée le
Ansible
Python
Scripting

3 mois
300-3k €
Montargis, Centre-Val de Loire

Nous recherchons un Ingénieur Systèmes Linux DevOps Contrainte forte du projet- Compétences techniques: Web (tomcat, apache) - Confirmé - Impératif Linux - Confirmé - Impératif Ansible - Confirmé - Impératif Description des prestations : - Développement de scripts Shell, python et Ansible - Migration d’OS, containerisation - Migration de serveurs LPAR vers un nouveau serveur physique. - Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées - Automatisation des montées de version applicatives hébergées - Dimension relationnelle avec le service exploitation et le service Etudes. Expertise souhaitée Expérience et compétence requises : - Expertise scripting shell, python, ansible (expérience significative) - Expertise containerisation Docker - Culture DevOps prépondérante - Expertise dans l’administration Linux (différentes suites) - Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : - Bac + 5 ou Bac + 3ans (avec forte expérience)

CDI

Offre d'emploi
Responsable Produit

CAPEST conseils
Publiée le
Search Engine Marketing (SEM)
SIRH

40k-62k €
Bordeaux, Nouvelle-Aquitaine

Le Responsable Produit est en charge de l'optimisation, de l'évolution et de l'adoption des solutions pour les produits sous sa responsabilité. Il veille à ce que les solutions déployées soient conformes aux principes d'architecture et d'urbanisation du Groupe. Le rôle consiste à garantir le bon fonctionnement et l'amélioration continue des produits, en veillant au respect des SLA et à la qualité des services délivrés aux utilisateurs. Dans le cadre de la gestion des produits, le Responsable Produit sera amené à évaluer les outils Search et à auditer les solutions SIRH afin de recommander la solution la plus adaptée aux besoins de l'entreprise. Cela inclut le choix entre plusieurs solutions du marché, telles que PeopleSoft , HR Access , ou d'autres outils équivalents, en fonction des résultats de l’audit et des besoins métiers. Le Responsable Produit devra : Réaliser des études de cadrage et des audits sur les solutions Search et SIRH . Coordonner les parties prenantes pour évaluer l’intérêt des différentes solutions SIRH et proposer des recommandations alignées avec la stratégie du Groupe. Garantir que les solutions choisies respectent les principes d'architecture et sont optimisées pour une utilisation efficace au sein de l'entreprise. Gestion opérationnelle des services : Maintenir en conditions opérationnelles le périmètre applicatif, incluant la gestion des incidents, les montées de version, et la sécurité (SecOps). Enrichir et maintenir le catalogue de service associé au produit. Assurer le respect des SLA et produire le reporting associé. Pilotage de la roadmap et mise en œuvre : En coordination avec les responsables métiers et les business analysts, identifier les évolutions et projets techniques/fonctionnels. Prioriser les évolutions en collaboration avec les directions métiers et réaliser les études de cadrage. Piloter la mise en œuvre des évolutions en veillant à l'alignement avec les principes d'architecture du Groupe. Documentation et adoption du produit : Garantir l’exhaustivité et la mise à jour des documentations produit et utilisateur. Diffuser les bonnes pratiques d’utilisation et s’assurer que les produits sont utilisés de manière optimale par les métiers. Gestion des fournisseurs et suivi de l’activité : Piloter les TMA, intégrateurs et éditeurs intervenant sur le périmètre applicatif, en assurant la gestion contractuelle et la qualité des livrables. Contribuer au suivi budgétaire en collaboration avec le Responsable de Domaine Métier.

Freelance

Mission freelance
Ingénieur Support Technique

CAT-AMANIA
Publiée le
Administration linux
Adressage IP
Bash

3 mois
100-400 €
Rennes, Bretagne

Notre client souhaite recourir à une nouvelle prestation de service pour un ingénieur support technique EMEA en renfort dans leur équipe. Vos missions seront les suivantes : SERVICES CLIENTS Fournir un support de premier et deuxième niveau aux clients. (Opérateurs de télécommunications et diffuseurs). Etre le contact principal pour les clients pour l'escalade des problèmes de support (du suivi jusqu'à la résolution). Assurer le respect des engagements contractuels SLA vis-à-vis de nos clients en termes de temps de réponse, de continuité de service et de délai de résolution finale. Sur demande, gérer les services d'installation, de mise en service et de formation sur site pour les nouveaux clients. AMELIORATION CONTINUE Effectuer des tâches de maintenance préventive régulières pour maximiser la qualité de service de nos clients et proposer de manière proactive des solutions d'amélioration. Signaler et suivre les problèmes de conception, de fiabilité et de maintenance ou les bugs de conception/logiciel. Préparer des rapports clients précis Documenter les connaissances techniques

Freelance

Mission freelance
DATA INGNEIEUR

MCONSULTING
Publiée le
Databricks
PySpark
Scala

12 mois
490-500 €
Châtillon, Île-de-France

Description détaillée : -Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure -Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) -Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) -Réalisation des tests unitaires -Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) -Préparation de package pour livraison en CI/CD avec les équipes DevOps -Réalisation des activités de maintenance corrective et évolutive -Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…

Freelance

Mission freelance
DATA ENGINEER

SURICATE IT
Publiée le
Azure
Databricks
Python

3 mois
100-590 €
Paris, France

- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)

Freelance

Mission freelance
Développeur Senior Python

Kaïbee
Publiée le
FastAPI
Python
Vue.js

1 an
100-570 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Développeur Senior Python spécialisé en FastAPI pour une mission stratégique dans un environnement technique exigeant. Vous interviendrez sur le développement et la maintenance d’applications critiques, en collaboration avec des équipes multidisciplinaires. Objectifs de la Mission : • Développement et maintenance d’applications backend : Prise en charge de l’architecture et du développement des APIs avec FastAPI . • Front-end : Travailler sur l’intégration des interfaces front-end développées en Vue.js ou Angular . • Intégration DevOps : Participer à l’industrialisation des pipelines CI/CD et à l’intégration des applications dans la chaîne DevOps, en garantissant la qualité des livrables.

723 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous