Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 293 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur système confirmé avec expertise Cloud

GROUPE ALLIANCE
Publiée le
AWS Cloud
Azure
Cloud

12 mois
44k-60k €
Île-de-France, France

Pour le compte de l' un de nos clients dans le domaine bancaire, nous recherchons un Ingénieur système confirmé avec une Expertise Cloud Vous intégrerez une équipe de 15 personnes. Vos principales missions seront: - La participation à la rédaction de dossiers d’architectures techniques, et préconisez les solutions techniques - Vous vérifiez et analysez l’impact technique des nouvelles solutions - Vous assurez de la cohérence globale sur votre périmètre de l’infrastructure conformément au catalogue d’infrastructure - Vous vous assurez du maintien des référentiels d’architecture technique - Vous apportez le support aux équipes opérationnelles

Freelance

Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
300-600 €
Le Plessis-Robinson, Île-de-France

Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)

Offre premium
Freelance

Mission freelance
Ingénieur Python / GCP

CONSULT IT
Publiée le
CI/CD
Go (langage)
Google Cloud Platform

24 mois
400-410 €
Lille, Hauts-de-France

Pour notre client final, nous sommes à la recherche d'un ingénieur Python cloud (GCP), pour intégré une équipe Cloud. Vous apporterez votre expertise au sein du ce projet, particulièrement développement d'une solution de déploiement et de gestion des bases de données dans le Cloud. Les tâches : Concevoir, manipuler et interroger des bases de données. Développer le code avec python et les API pour accéder à ces données sous forme de services Web. Gérer et planifier des projets en appliquant des méthodologies de développement agile.

Freelance

Mission freelance
Data Scientiste Machine Learning

QUALIS ESN
Publiée le
Big Data
Databricks
Python

12 mois
440-540 €
Levallois-Perret, Île-de-France

Nous recherchons un prestataire Data Scientist expérimenté pour rejoindre notre équipe et capable de transformer nos données en informations précieuses pour orienter nos décisions stratégiques. Le prestataire retenu aura une solide expérience technique dans le développement des solutions Data science pour répondre aux enjeux de performance et d’innovation (modèles prédictifs, algorithmes de recherche opérationnelle, Machine Learning, Deep Learning, Computer Vision, Time Series, etc...). Le prestataire sera responsable du développement et optimisation des modèles de machine learning robustes, l’analyse des données, l’amélioration et l’optimisation de processus décisionnels. Il ou elle jouera un rôle clé en tant qu’expert technique : - Data Processing : collecte, nettoyage, traitement et modélisation des données. - Analyse exploratoire : identification des motifs, tendances et anomalies. - Data Visualisation : visualisation claire et concise des résultats via des outils de visualisation. - Qualité et Responsabilité technique : assurer la qualité et l’intégrité des analyses et informations partagées. - Modélisation et Algorithmes de machine learning : développer et implémenter des modèles statistiques, de machine learning et d’intelligence artificielle (prédiction, classification, clustering, NLP, ect …). - Optimisation et Mise en production : optimiser les modèles développés et déployer les modèles en production. - Interprétation et Communication : identification d’insights pertinents, communication des résultats à travers des visualisations et rapports clairs et concis. - Collaboration : travailler étroitement avec les équipes techniques et non techniques. - Résolution de problèmes spécifiques : compréhension des défis métiers et propositions des solutions performantes adaptées aux besoins et contraintes de l’organisation. - Innovation : tests et propositions de nouvelles approches ou technologies qui améliorent les processus de traitement de données et la qualité des modèles. - Transmission de savoir : participer à la montée en compétences des data scientists internes en partageant son savoir et en expliquant le développement détaillé des méthodologies employées.

Freelance

Mission freelance
Data architect (H/F)

Insitoo Freelances
Publiée le
Architecture
Databricks
Google Cloud Platform

2 ans
500-570 €
Hauts-de-France, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data architect (H/F) à Hauts-de-France, France. Contexte : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : Les missions attendues par le Data architect (H/F) : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. Stack technique: - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Consultant (H/F/Y) Data Architecte GCP

HOXTON PARTNERS
Publiée le
Google Cloud Platform

12 mois
650 €
Paris, France

Nous recherchons pour notre client un architecte Data GCP freelance, capable de piloter la conception et la mise en œuvre des briques technologiques liées à la collecte, stockage, traitement et visualisation des données. Vous serez responsable du suivi des bonnes pratiques d'architecture, sécurité et confidentialité, tout en collaborant étroitement avec les tech leads des équipes de données. Vous gérerez également la feuille de route technique, optimiserez les architectures et documenterez le tout dans Confluence. Une expertise sur GCP, BigQuery, DBT et Airflow/Composer est indispensable, ainsi qu'une expérience sur les solutions BI (Looker, couches sémantiques).

Freelance

Mission freelance
Data Engineer 6

KEONI CONSULTING
Publiée le
Big Data
Data analysis
Front-end

12 mois
100-400 €
Paris, France

Contexte de la mission : Vous interviendrez en tant que Data Engineer au sein d'une cellule de Développement de notre client un acteur majeur du trading de l'énergie. Tâches à réaliser : Contribution aux Guidelines (utilisation de la plateforme et pratiques de développement et de déploiement) Conception et réalisation de solutions (développement) pour répondre aux besoins prioritaires (de type analyse et restitution de données) Rédaction des Dossiers de conception et d’exploitation des solutions délivrées Veille technologique et proposition de solutions innovantes pour exploiter les données

Freelance

Mission freelance
ingenieur Systeme DevOps

Kleever
Publiée le
Google Cloud Platform
Kubernetes

6 mois
340-580 €
Lille, Hauts-de-France

Nous recherchons un profil Ingénieur Système spécialiste DevOps expérimenté (au moins 5 ans d'exp) pour rejoindre une équipe de 2 côté Ops passionnés. Dans le cadre de la construction d'une infrastructure technique hautement disponible, très performante et très sécurisée en s’appuyant principalement sur Google Cloud, Cloudflare et Kubernetes. Le plus important, la stack technique : GCP ainsi que Kubernetes, Terraform, Flux, Helm et GitHub et avec la certification Google Cloud, ce serait l'idéal ! En BDD : MongoDB et PostgreSQL Soft Skill : Adaptable, passionné(e), curieux(se) et bon communicant(e), tu souhaites avoir une relation forte avec les développeurs,

Freelance

Mission freelance
Project Manager DATA - IFS

ALLEGIS GROUP
Publiée le
Data management
Migration

3 ans
100-690 €
Paris, France

Nous recherchons un Project Manager expérimenté et passionné, spécialisé dans la gestion de projets data et ayant une expertise approfondie sur le logiciel IFS. Le candidat idéal aura une expérience significative dans la gestion de projets de migration de données en contexte international. Responsabilités : Planifier, coordonner et superviser des projets de migration de données complexes. Collaborer avec les équipes techniques et fonctionnelles pour assurer la réussite des projets. Utiliser et optimiser le logiciel IFS pour répondre aux besoins spécifiques des projets. Assurer une communication fluide et efficace avec les parties prenantes internationales. Gérer les risques et les problèmes liés aux projets, en proposant des solutions adaptées.

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

CDI
Freelance

Offre d'emploi
AMOA Data Office

Signe +
Publiée le
AMOA
Big Data
Microsoft Office

24 mois
45k-50k €
Niort, Nouvelle-Aquitaine

Profil : Minimum 5 ans d'expérience Maîtrise du pilotage projet, de l'expression de besoin, la réalisation d'études, d'analyses. Maîtrise de l'organisation et de la conduite de réunions. Excellentes aptitudes à la communication, tant orale qu'écrite. (Réalisation de CR, support de réunions, d'ateliers d'alignement, de désambiguation…) Sens de la synthèse, afin de résumer pour tous la situation du projet. Connaissances sur les grands principes de la donnée (Fonctionnement des bases de données, tables, requêtes, jointures…), du fonctionnement des CRMs Eventuellement expérience dans la manipulation de la donnée (SQL, Excel). Secteur : assurance Site : Chauray (Niort) 2 à 3 j / sem sur site

CDI

Offre d'emploi
SysOps GCP

AGH CONSULTING
Publiée le
Google Cloud Platform

10k-60k €
Île-de-France, France

En tant que SysOps GCP (Google Cloud Platform), vous serez chargé de la gestion, de l’optimisation et de la maintenance des infrastructures cloud au sein de la plateforme GCP. Vous travaillerez en étroite collaboration avec les équipes de développement, DevOps et sécurité pour garantir la stabilité, la sécurité et la performance des applications cloud. Gestion de l'infrastructure GCP : Configurer, administrer et surveiller les services GCP tels que Compute Engine, Cloud Storage, Cloud SQL, VPC, IAM, et autres. Automatisation : Automatiser la gestion des ressources cloud avec des outils comme Deployment Manager, Terraform ou Ansible. Surveillance et gestion des performances : Implémenter des solutions de monitoring et d'alertes (Stackdriver, Cloud Monitoring, Cloud Logging) pour garantir la disponibilité et les performances optimales. Sécurité : Gérer la sécurité des infrastructures cloud en mettant en place des pratiques de sécurité (IAM, VPC, Firewall, Security Command Center). Optimisation des coûts : Analyser l’utilisation des ressources cloud et proposer des actions pour optimiser les coûts liés à GCP. Support et dépannage : Assurer un support technique de niveau 2/3 pour les infrastructures cloud, en résolvant les incidents et en garantissant une haute disponibilité des services. Backup & Disaster Recovery : Déployer et gérer des solutions de sauvegarde (Cloud Storage) et des plans de reprise après sinistre sur GCP. Documentation : Rédiger et maintenir la documentation technique des configurations et processus déployés sur GCP.

Freelance
CDI

Offre d'emploi
Ingénieur Sécurité Infrastructure

Savane Consulting
Publiée le
Check Point
Fortinet
Load Balancing

3 ans
55k-75k €
Paris, France

Nous cherchons à Paris, pour une durée de 36 mois, un Ingénieur spécialisée dans le domaine de la sécurité des infrastructures informatiques. Pour faire face à de nombreux projets d'infrastructures, l'équipe de notre client a besoin de se renforcer par des compétences expertes en sécurité des infrastructures. Au sein des équipes de production des infrastructures IT, la mission comprend : 1/ L’étude, la mise en œuvre et l’exploitation de niveau 3 de l’infrastructure de sécurité : • Load Balancer • Firewall • Proxy • IPAM • Sondes et outils de monitoring de ces plateformes ainsi que la documentation des procédures d’exploitation et de support 2/ La participation aux projets d’infrastructure Technologies : Fortinet, Check Point, F5 Networks, Infoblox, McAfee Web Gateway, McAfee ATD, (Cisco Sourcefire) Cet ingénieur devra être à l’aise sur au moins 3 des technologies suivantes : • Firewall (Fortinet, Checkpoint) • Load balancer (F5, Netscaler) • Proxy (Bluecoat, McAfee) • DNS (Infoblox) • IDS/IPS (Sourcefire) • UTMs (Fortinet, Checkpoint) L’équipe est en charge de la gestion de ces plateformes à 100%. Elle intervient notamment sur : - Les phases d’étude avec les différents clients internes (lignes métier et groupe ) - L’élaboration des architectures pour Paris et l’Europe, et la contribution aux standards Worldwide - L’intégration des solutions en interne - Le support de l’ensemble du portefeuille technologique

Freelance

Mission freelance
Data Engineer

HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

3 ans
100-440 €
Lille, Hauts-de-France

SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance

Mission freelance
Tech Lead Ops

ESENCA
Publiée le
BigQuery
DevOps
Google Cloud Platform

3 mois
450-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème du groupe. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique . L’équipe aujourd’hui constituée de 5 personnes est en forte croissance. *Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique en place > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

1293 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous