Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 396 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Engineer Java / Python / Scala / AWS

GRADIANT
Publiée le
AWS Cloud
Cassandra
Java

3 ans
10k-56k €
Paris, France

Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.

Freelance

Mission freelance
Data Engineer GCP

KEONI CONSULTING
Publiée le
Python
Scripting
Shell

12 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français

Freelance

Mission freelance
Lead Dev Computer Vision H/F

LeHibou
Publiée le
Computer vision
Python

12 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Lead Dev Computer Vision H/F Description de la mission: Notre client souhaite se renforcer sur le domaine de la vidéo intelligente. Les objectifs métiers : Définir les solutions technique svidéo répondant aux besoins des métiers Réaliser les expérimentations Maintenir et faire évoluer les installations existantes et être en appui à l'exploitation L'équipe est en cours de construction et se composera d'un CP, d'un expert Video, d'un référent lead tech La mission : Prendre le rôle de lead dev du périmètre Computer Vision Mettre en place une plateforme de développement Appuyer les architectes et les CP lors de la conception Expérimenter et tester les prototypes Implémenter et produire du code industriel définir les spécifications détaillées vielle technologique ... Compétences / Qualités indispensables : Expérience en computer vision , connaissance scientifique en traitement d'image , Dev Python avec Opency, Pytorch, Tensorflow, ONNX, Linux (redhat, Ubuntu), nvidia,cuda, Docker,Git

CDI
Freelance

Offre d'emploi
Data Engineer GCP

Hexateam
Publiée le
Apache
Apache Hive
Apache Spark

24 mois
10k-61k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer GCP Le Data Engineer sera chargé des activités de Data Engineering, en particulier sur la plateforme Google Cloud Platform (GCP) . Il devra gérer les données brutes de satisfaction stockées dans le datalake (zone Raw) et transformer ces données pour les rendre accessibles dans une zone Gold, utilisée par d'autres projets. Conception : Analyse des données, définition du modèle de données, conception des chaînes d'ingestion et de préparation. Réalisation : Mise en œuvre, indexation, ordonnancement et tests des jobs, avec documentation. Intégration & Déploiement : Optimisation des performances, résolution de problèmes liés aux jobs et aux données. Documents de modélisation et structuration des données. Règles de gestion et synthèses analytiques. Mise en place des chaînes de traitement de la donnée et des dashboards de monitoring. Maîtrise de Spark , Scala . Pratique confirmée des services GCP : BigQuery, CloudStorage, CloudComposer/Airflow, DataFlow, Dataproc, Terraform, GitLabEE. Expérience en modélisation de données et stratégie de tests. Connaissance des notebooks data, GCP DataStudio, ElasticSearch (atout). Méthodologie Agile . Anglais requis pour la documentation et les échanges internationaux.

CDI
Freelance

Offre d'emploi
Ingénieur Logiciel Embarqué (H/F)

CELAD
Publiée le
Python

1 an
35k-45k €
Rennes, Bretagne

Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Logiciel Embarqué pour intervenir chez un de nos clients. Vos principales missions : Au sein d’une équipe multi-métiers, vous serez en charge de/d’ : - Développer les drivers en langage C en temps réel embarqué - Rédiger les documents techniques (spécifications et tests) - Intégrer et effectuer les tests HW/SW embarqué Infos à noter : - Expérience de 3 ans minimum sur un poste similaire - Possibilité de télétravail (nombre de jours à fixer) - Type de contrat : CDI – Freelance – Portage Salarial

CDI
Freelance

Offre d'emploi
Développeur Python H/F

AMD Blue
Publiée le
Python

3 ans
42k-45k €
Paris, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Numérique, notre Tribu spécialisée dans le domaine du développement et du digital. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Digitale. Contexte de la mission : Dans le cadre du programme 4ALL de refonte de l’architecture tiers du Groupe DE de notre client du secteur bancaire, nous recherchons un(e) Développeur-euse Python. Descriptif de la mission : Le candidat aura une solide expérience en développement Python et sera capable de travailler de manière autonome sur des projets complexes. Responsabilités : - Développement des applications Python de haute qualité - Travaill en étroite collaboration avec les autres membres de l'équipe de développement pour concevoir et implémenter des fonctionnalités - Résolution des problèmes de manière efficace et créative - Participation à la revue de code et aux tests unitaires

Freelance
CDI

Offre d'emploi
chargé suivi de production (H/F)

Clea Technology
Publiée le
Apache Spark
Azure
DevOps

3 ans
10k-45k €
Paris, France

Je cherche un profil « chargé suivi de production » junior ou confirmé pour une mission au sein de l’équipe avec les caractéristiques suivantes : Il interviendra principalement sur le périmètre DATA et devra s’assurer que le qualité de service réponde aux exigences utilisateurs Ses activités seront : Garantir la surveillance des processus techniques de bout en bout : Surveiller les applications en utilisant des outils et SLA définis Analyser les dysfonctionnements de production, proposer des solutions pérennes et suivre leurs mises en place, Mettre en place un monitoring technique et fonctionnel relatifs aux processus métiers Surveiller la croissance des applications et remonter les alertes le cas échéant. Garantir le suivi des traitements exécutés sur le périmètre qui lui est confié, Réaliser une analyse de premier niveau des incidents et rétablir le service lorsque possible (proposer et coordonner une éventuelle solution de rattrapage) Proposer dans un second temps des solutions d’amélioration pérennes pour la résolution d’incidents, S’assurer de l’exploitabilité des projets, Conseiller les projets pour sécuriser le suivi de production et le monitoring des nouveaux applicatifs, S’informer sur les évolutions techniques / fonctionnelles du SI pour garantir le suivi de production et le monitoring des applications. Gérer le capacity management et remonter les alertes aux tribus Être force de proposition d’actions d’améliorations, Analyser les causes des incidents récurrents. Proposer des actions dans le cadre des Post-Mortem afin d’éviter de nouvelles occurrences d’incidents Participer à la mise sous contrôle des changements impactant la production et mettre en place les dispositifs (astreintes, interventions) et les contrôles appropriés Améliorer le monitoring des applications pour diminuer le délai de résolution des incidents Avoir une appétence forte autour de l'orientation client savoir expliquer, convaincre savoir se mettre à la place du client afin d sortir de sa boite logique apporter la plus-value nécessaire à la croissance de la satisfaction client savoir traiter avec conviction les différentes situations pour lesquelles les interlocuteurs sont des fournisseurs de services (application en SaaS, progiciel)

Freelance

Mission freelance
Ingénieur MLOPS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Airflow
AWS Cloud
Google Cloud Platform

3 mois
100-380 €
Montpellier, Occitanie

Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance
CDI
CDD

Offre d'emploi
Developer Python

Halian
Publiée le
Cucumber
Python

2 ans
51k-200k €
Luxembourg

Il s'agit d'une opportunité unique de rejoindre une équipe interdisciplinaire avant-gardiste au sein d'une organisation mondiale. Dans ce rôle, vous serez responsable du développement de composants d'émulation en Python et/ou en C++, de l'automatisation des tests logiciels, et d'assurer une intégration fluide des différents composants du système. Développer des composants d'émulation et de simulation en C++ et Python. Créer et exécuter des procédures de tests automatisés pour la validation logicielle en utilisant Python. Effectuer une gamme de processus de test : tests de composants, d'intégration, de système, et de bout en bout. Collaborer avec une équipe multidisciplinaire pour comprendre les fonctionnalités et les exigences du système. Dépanner et résoudre les problèmes techniques au fur et à mesure qu'ils surviennent, garantissant ainsi une haute fiabilité du logiciel. Expertise en méthodologies de test logiciel, y compris le développement piloté par les tests (TDD) et les tests comportementaux. Maîtrise des langages de programmation Python et C++. Expérience avec les outils et cadres d'automatisation de tests comme Robot Framework. Familiarité avec Linux, Java Spring, et Spring Boot, ainsi qu'une expérience avec les systèmes de contrôle de version comme Git. Solides compétences analytiques et en résolution de problèmes, avec un fort intérêt pour le clean code et les tests logiciels. Maîtrise de l'anglais parlé et écrit. Envoyez votre CV et vous contacterons dans les plus brefs délais.

Freelance

Mission freelance
Concepteur Developpeur ChatBot (H/F)

Wekey
Publiée le
API
Chatbot
Java

6 mois
400-500 €
Niort, Nouvelle-Aquitaine

Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Concepteur développeur chat bot H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Co-construire le parcours et dialogue avec les métiers et/ou les products managers · Prendre connaissance du référentiel de services, et étudier l'intégration possibles des services dans le parcours BOT · Concevoir et spécifier le parcours BOT afin de faciliter les développements · Développer sur le socle IA conversationnelle l'orchestration du parcours et des appels de service, le monitoring du BOT ... Tester les développements · Contribuer à l’amélioration continue du Socle IA conversationnelle ·

Freelance

Mission freelance
AWS Platform Engineer (F/H)

Quick Source
Publiée le
AWS Cloud
Confluence
Git

6 mois
550-580 €
Paris, France

La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Ingénieur/ Intégrateur DevOps F/H/X

CAT-AMANIA
Publiée le
Apache
Apache Tomcat
CentOS

3 mois
220-320 €
Orléans, Centre-Val de Loire

Dans le cadre de vos missions, vous serez principalement en charge de : Effectuer les montées de version OS Mettre en recette/production les applications qui n'ont pas encore été intégrées dans le CICD Assurer la supervision des services Piloter les contrats de maintenance des infrastructures Collaborer avec les développeur·euse·s pour améliorer les pratiques de développement et de test automatisé, et s'assurer de l'alignement sur les objectifs métier de l'entreprise Concevoir et mettre en oeuvre des pipelines de livraison continue pour les applications et les services, en intégrant les pratiques de sécurité dans une optique shift security to the left Agir en tant que chef·fe de projet pour les produits numériques d'infrastructure (Authentification, plateforme CI/CD, etc.), en s'assurant du respect des échéances et du budget, et en maintenant une communication régulière avec les parties prenantes Intégrer et administrer des outils du SI de gestion Automatiser les tâches de déploiement, de configuration et de gestion de l'infrastructure Mettre en place des pratiques de surveillance et de résolution des incidents pour garantir la disponibilité et la performance des applications Participer à l'amélioration continue des processus et pratiques DevOps, en contribuant aux comités ad-hoc

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

Freelance

Mission freelance
data scientist

Innov and Co
Publiée le
BigQuery
Microsoft Power BI
Python

12 mois
100-600 €
Ivry-sur-Seine, Île-de-France

Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus

Freelance

Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables

Tekway (Archytas)
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Python

12 mois
100-860 €
Île-de-France, France

Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.

396 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous