Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 514 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
AWS Cloud
Databricks
Javascript

3 ans
10k-50k €
Paris, France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un développeur Python / FastAPI L'entité du client est responsable de la conception, du développement et de la production du système d’information et des infrastructures. Il conçoit et met à disposition des Lignes Métiers et des Fonctions Supports Back Office et Risques les systèmes informatiques nécessaires à l’exercice de leurs missions. Il est également en charge du bon fonctionnement et du support opérationnel de ces systèmes.

Freelance

Mission freelance
Data Engineer GCP

KEONI CONSULTING
Publiée le
Python
Scripting
Shell

12 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français

Freelance

Mission freelance
OPSDEV INFRA / PYTHON (F/H)

SMARTPOINT
Publiée le
AWS Cloud
Azure
Jenkins

12 mois
100-550 €
Île-de-France, France

Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et Développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La surveillance et l'exploitation des differents systemes dédiés, - La maintenance et les évolutions techniques de ces systèmes, - L'acculturation des équipes en charge des infras aux bonnes pratiques de développement et de conception dans un cadre Agile, - L'évolution de l'offre "Automatisation" au sein du département, - La transition vers la plateforme Cloud de la Société Générale, - La gestion des changements des applications metiers. Expertises : - infrastructures et technologies Les livrables attendus sont : Documentation des service existants et nouveaux (architecture, exploitation, etc) Outillage de l'automatisation de l'infrastructure (scripts, portail web, datalake, etc) Transfert d'activité Offshore (Bangalor

Freelance

Mission freelance
Ingénieur MLOPS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Airflow
AWS Cloud
Google Cloud Platform

3 mois
100-380 €
Montpellier, Occitanie

Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Développeur C++ / IT Quant (FH)

Taleo Capital
Publiée le
Git
Nosql
Python

1 an
450-650 €
Paris, France

Nous recherchons plusieurs IT Quant confirmé d'expérience pour rejoindre les équipes de notre client financier situé à Paris 13è. Responsabilités : Développer, maintenir et optimiser des logiciels quantitatifs en C++. Collaborer avec les équipes de recherche pour concevoir et implémenter des modèles financiers avancés. Analyser et améliorer les performances des systèmes existants pour assurer leur robustesse et efficacité. Garantir la qualité du code, en respectant les normes de développement internes. Participer aux revues de code et suggérer des améliorations techniques. Gérer les phases de tests et de validation des systèmes quantitatifs pour garantir leur bon fonctionnement.

Freelance
CDI

Offre d'emploi
skiils recherche son/sa futur(e) DevOps réseau et sécurité pour ses équipes au maghreb (remote)

skiils
Publiée le
Administration réseaux
Python

1 an
10k-200k €
Île-de-France, France

Nous sommes à la recherche d'un DevOPS pour rejoindre nos équipes. Si vous êtes passionné par le réseau et le développement Python et que vous souhaitez contribuer à la transformation numérique d'une grande entreprise leader dans dans son domaine ce poste est fait pour vous ! Analyser les flux TCP avec PaloAlto pour identifier les problèmes et identifier les solutions Analyser les flux HTTPS avec HAProxy et Envoy pour identifier les problèmes et identifier les solutions Faire du développement Python pour faciliter la transition HAProxy vers Envoy Intégrer son développement dans de la CICD (Jenkins ou Gitlab CI) Collaborer avec les équipes techniques et communiquer avec les clients 🔎 Rejoignez une équipe innovante et contribuez à l'évolution de notre infrastructure cloud !

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance

Mission freelance
AWS Platform Engineer (F/H)

Quick Source
Publiée le
AWS Cloud
Confluence
Git

6 mois
550-580 €
Paris, France

La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Développeur Python/.net/Angular

VISIAN
Publiée le
.NET CORE
Angular
AWS Cloud

1 an
100-580 €
La Défense, Île-de-France

Les objectifs du service sont les suivants : - Contrôler le périmètre applicatif et l'infrastructure associée dont l'équipe est responsable - Réaliser les projets et activités de maintenance en visant l'excellence opérationnelle (méthodes, outils, qualité du code, etc.) - Prise en compte des aspects cybersécurité « by design » - Établir une relation étroite avec les clients internes - Contribuer à la communauté informatique de la GBU (échanges sur les bonnes pratiques, REX, etc.) Les principales activités sont : - Contribution à l'élaboration de solutions techniques et à la rédaction de spécifications fonctionnelles et techniques - Réalisation des tâches du projet assignées par le responsable de livraison (y compris les tests) - Traitement des demandes de support applicatif et réalisation de maintenances correctives ou évolutives sur le périmètre - Suivi technique - Partage sur REX et bonnes pratiques Les principaux défis sont : • Livrer dans une organisation complexe avec de nombreuses parties prenantes dans les pays, les régions, les hubs et la R-GBU. • Développer des solutions avec un état d'esprit agile avec différents niveaux de maturité agile au sein des équipes métiers Les principales interfaces sont : • Représentants d'entreprises • Responsable de la livraison du développement • Responsables du SI • Equipe informatique, données et développement, architectes • Équipe de cybersécurité Les Livrables attendus sont : ? Qualification des besoins, définition des solutions ? Spécifications techniques et fonctionnelles ? Projeter et exécuter la documentation ? Traitement et mise à jour des tickets (maintenance et projet) ? REX ? Rapports hebdomadaires et mensuels sur les activités de livraison ? Suivi du temps mensuel, rapport d'activité, tableau de bord KPI

CDI
Freelance

Offre d'emploi
Ingénieur Infrastructure Devops

OBJECTWARE MANAGEMENT GROUP
Publiée le
Ansible
DevOps
Linux

3 ans
40k-53k €
Île-de-France, France

Au sein de notre client bancaire, l’équipe Baremetal est en charge de la livraison des nouveaux serveurs de bout en bout, et de l'amélioration continue des services dont elle a la charge. Le but de la mission est de passer d’une gestion de serveurs physiques manuelle à une complète automatisation de provisioning de la maintenance de ces serveurs. Fortes compétences infrastructures et DEVOPS attendus. Au sein d'une équipe de cinq personnes vous prendrez part aux activités suivantes : - Prise de connaissance et analyse des besoins - Pilotage des réunions de suivi hebdomadaires avec les équipes multidisciplinaires afin de remonter et résoudre les points de blocage rencontrés à différents niveaux (techniques, stratégiques, ressources humaines ou matériels) Activités plus liées au pré-armement et au déploiement des nouveaux serveurs (Linux, Windows) - Vérification des prérequis techniques et déclenchement des actions adéquates auprès des équipes tierces (DC, réseaux, systèmes et infrastructure) - Mise en relation entre les différentes équipes contributrices - Livraison des serveurs physiques au client - Développement de l’offre de service / des outils des serveurs physiques (orchestration Baremetal) - Maintien de la documentation relative à l'activité Nous souhaitons que tous les collaborateurs de l'entité soient force de proposition et soient intégrés dans toutes les réflexions. A ce titre, le collaborateur devra : - Participer aux réflexions sur l'évolution des processus - S'inscrire dans une démarche d'amélioration continue et proposer des axes d'améliorations tant sur la partie technique qu'organisationnelle

Freelance

Mission freelance
Data Engineer Junior H/F

HAYS MEDIAS
Publiée le
AWS Cloud
Python
Scala

6 mois
100-350 €
Courbevoie, Île-de-France

Notre client est une entité clé au sein de son Groupe un important acteur dans son secteur, spécialisée dans la gestion des actifs énergétiques. Avec des bureaux à travers le monde, notre client optimise les ressources énergétiques du groupe et développe des solutions innovantes pour répondre aux défis de la transition énergétique. En tant que Data Engineer Junior, vous rejoindrez l’équipe Data & Analytics, dont la mission est de fournir des solutions de gestion de données robustes et efficaces. Vous travaillerez en collaboration avec des Data Scientists, des Analystes et d'autres équipes techniques pour soutenir les activités et pérenniser les projets, d’analyse et d’optimisation des actifs énergétiques.

CDI

Offre d'emploi
Lead Data Scientist NLP

AGH CONSULTING
Publiée le
Python

10k-61k €
Colombes, Île-de-France

AGH Consulting recherche pour un de ses clients un Lead Data Scientist NLP. Les missions consiste à : • Aider le commanditaire à cadrer le projet en étant force de proposition • Accompagner techniquement des data scientists • Requêter les bases de données du client • Recenser et agréger les données de différentes sources • Analyser et explorer les données • Modéliser en s’appuyant sur des techniques de Machine Learning, Deep Learning • Automatiser et optimiser les traitements • Analyser les résultats produits pour s’assurer de la qualité des livrables • Produire des data visualisations si nécessaire et en minimisant les actions de maintenance que cela impliquerait par la suite • Restituer les résultats des travaux à l’écrit mais également à l’oral devant des commanditaires et en équipe, en apportant une plus-value dans l’analyse • Accompagner les commanditaires dans la prise en main des livrables • Documenter les travaux réalisés sur les aspects techniques et fonctionnels • Capitaliser et travailler en équipe dans une démarche de boucle d’amélioration • Utiliser les données en veillant au respect du RGPD

Freelance

Mission freelance
Software & AI Architect

Groupe Aptenia
Publiée le
API
AWS Cloud
Full stack

3 ans
100-660 €
Paris, France

✅Localisation : PORTO, Portugal ✅Concevoir et développer des architectures IA et logicielles innovantes ✅Guider l'équipe de développement software (5-6 personnes, juniors et internes) ✅Interagir avec d'autres équipes (ingénieurs logiciels, développeurs web, architectes infrastructure) ✅Développer des API scalables et des solutions logicielles traditionnelles ✅Mettre en place une architecture de micro services ✅Mentorer, communiquer et expliquer des concepts complexes de manière simple ✅Promouvoir les meilleures pratiques au sein de l'équipe

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Développeur IT Expérimenté

SELFING
Publiée le
Ansible
Kubernetes
Python

12 mois
400-500 €
Molsheim, Grand Est

Nous recherchons un Développeur IT expérimenté avec plus de 10 ans d'expérience dans le développement de plateformes et d'applications ( systèmes IT/OT complexes ), de préférence dans un environnement biopharmaceutique. La mission est basée sur le site de Molsheim (67) . Plus précisément, vos missions seront : · Conception et Développement de Solutions Logiciels : Concevoir et développer des applications et des plateformes informatiques complexes, notamment dans un environnement biopharmaceutique, en utilisant des langages de programmation tels que Java, Node.js, Python, etc. · Intégration et Déploiement : Intégrer et déployer des solutions logicielles sur des infrastructures cloud (comme AWS) et gérer les conteneurs (Docker, Kubernetes) pour assurer une distribution efficace et sécurisée des services. · Gestion des Systèmes Distribués : Gérer et optimiser des systèmes distribués à haute charge de travail, incluant les systèmes embarqués, IIoT, les réseaux, la sécurité, et les plateformes cloud. · Collaboration et Support Technique : Travailler en étroite collaboration avec les équipes techniques, les fournisseurs, et les parties prenantes pour assurer la bonne exécution des projets, tout en fournissant un support technique et une formation aux membres de l'équipe. · Mise en Conformité et Validation : Assurer la conformité des développements avec les réglementations de l'industrie des sciences de la vie (comme 21CFR P11) et les directives de développement (comme GAMP5), et participer aux processus de validation informatique (CSV).

514 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous