Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Offre d'emploi
SENIOR DATA ENGINEER (H/F)
Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.
Mission freelance
DEVIENS #AUTEUR Développer une application Azure Serverless
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Azure Serverless. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Azure n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Offre d'emploi
EXPERT INFRA STOCKAGE & SAUVEGARDE
EXPERT INFRA STOCKAGE & SAUVEGARDE Démarrage : ASAP Durée : 2 ans renouvelable Localisation : Ile de France - Proche Télétravail : 50% Mission : Définition du profil Intervient sur des projets IT en tant qu'expert Stockage et Sauvegarde sur les produits et technologies recherchées, notamment dans le cadre de définition d'architectures. Intervient en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements. L'expertise améliore le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques. Intervient sur des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporte sa connaissance des produits dans l'élaboration des projets associés.
Mission freelance
Ingénieur CloudOPS GCP
Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go
Mission freelance
Ingénieur de Production H/F
Titre du poste : Ingénieur de Production (FREELANCE) Localisation : Nantes (44) Mode de travail : Hybride Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Durée de mission : 12 mois TJM : Entre 380€ et 430€ L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Nous recrutons dès à présent un.e INGENIEUR DE PRODUCTION en FREELANCE sur une mission de 12 mois renouvelable. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un grand acteur du secteur bancaire situé du côté de NANTES auprès duquel vous aurez la possibilité de : · Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. · Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. · Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. · Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. · Participer aux tests et rédiger les dossiers d’exploitation. · Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. · Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). · Contribuer activement à la démarche d’amélioration continue.
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Ingénieur devops cloud aws : aws, devops
DÉBUT DE MISSION : 02/01/2025 DURÉE : 24 mois LIEU : Île-de-France – Hybride TJM : 420€HT Nous recherchons pour l’un de nos clients un Ingénieur Cloud orienté DevOps dans le cadre d’une mission de longue durée, pour accompagner la modernisation et l’optimisation des infrastructures Cloud basées sur Amazon Web Services (AWS) . Descriptif de la mission : Vous intégrerez le service Cloud Opérations et interviendrez sur des projets stratégiques visant à automatiser, sécuriser et optimiser les plateformes AWS tout en participant à une transformation orientée NoOps et FinOps. Vos principales responsabilités : Apporter votre expertise sur les opérations AWS et contribuer au développement des services cloud. Créer et améliorer les processus de MCO (Maintien en Conditions Opérationnelles) des plateformes AWS via des pratiques d’automatisation (IaC). Exploiter et tirer parti des services managés AWS (Lambda, API Gateway, DynamoDB, Step Functions, etc.). Automatiser les processus, notamment le patch management et l’inventaire via AWS SSM. Être le référent des systèmes Windows sur AWS. Participer à l’amélioration continue dans une démarche LEAN (suivi via Kanban). Contribuer à l’évolution de la culture FinOps et à l’optimisation des coûts liés au Cloud. Livrer des documents techniques (DAT, normes, propositions d’évolutions, supports de présentation). Compétences techniques requises : AWS (SSM, EFS/FSX, EC2, ELB/ALB, RDS, Lambda, S3, DynamoDB, IAM, ASG, VPC/subnet) : Confirmé Powershell : Avancé Linux : Avancé Terraform : Avancé Python : Avancé Windows : Confirmé ServiceNow, SQL, Bitbucket : Élémentaire Nuggets Chocolatey : Avancé Profil recherché : Minimum 8 ans d’expérience en infrastructure Cloud et DevOps. Maîtrise des environnements AWS avec une expertise sur les services managés et les outils d’automatisation. Solides compétences en systèmes Windows et Linux, et une forte appétence pour l’amélioration des processus via des solutions cloud modernes. Excellentes capacités en communication, esprit d’équipe, rédaction et esprit d’analyse.
Mission freelance
Architecte Identité Acces et Privilèges PARIS
Nous sommes à la recherche d'un Architecte IAP (Identité, accès et privilèges) Sénior pour une mission longue durée située à Paris. En tant qu' Architecte IAP expérimenté , vous serez responsable de l'intégration technique. Une expérience de 10 ans minimum sur des projets de gestion de l’identité (IAM, solutions Microsoft, Active Directory, Office 365). L’expérience du secteur bancaire est appréciée. Poste en freelance (620 / 725 euros selon l'expérience) Possibilité de 2 jours en télétravail Expertises techniques requises : Mise en œuvre d’un projet IAM ou d’évolution d’un IAM existant. Maitrise des principes et processus de gestion des identités (cycle de vie des identités, aspect réglementaire) Maitrise des architectures Microsoft on premises (Active Directory, Exchange) ainsi que des solutions cloud MS 365. Expérience avérée en tant qu’architecte sur un projet de fusion ou d’intégration d’entités ou de filiales. Maitrise des principes de gestion des accès à privilèges et idéalement d’un outil PAM du marché (Wallix) Bonne connaissance messagerie Exchange Connaissances des bonnes pratiques ITIL
Mission freelance
DEVIENS #AUTEUR Développer avec AWS et l'IA
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur le développement avec AWS et l'intelligence artificielle. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse), expert(e) en intelligence artificielle... et AWS n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Mission freelance
Architecte Technique Cloud Expert
Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.
Mission freelance
Tech Lead / Architecte Looker
Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.
Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance
Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Mission freelance
Java / CIAM - Expertise CIAM OBLIGATOIRE
Mission : Notre client grand compte recherche au sein de ses équipe un développeur sénior pour intervenir sur la facilitatio de l'authentification et de la gestion des données clients. Une expérience sur la CIAM est OBLIGATOIRE Notre client recherche un développeur autonome pouvant jouer le rôle de backup pour le tech lead Tech : archi mircroservice, Java 21, Spring Boot 3, CIAM (Consumer identity acces management), Kafka, ELK, Tomcat, Reverse Proxy, LDAP. Couchbase en BDD, Jquery HTML/CSS pour le front, Démarrage : ASAP Mission Longue Expérience : 7-10ans Télétravail : FULL TT
Offre d'emploi
Devops GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- tarification support helpdesk
- Conditions de la démission reconversion pour devenir Freelance
- Rester indépendant ou redevenir "esclave" (CDI) ? Débat ouvert.
- Me sortir d'une ESN de m...
- Développeur Logiciel - Conseils pour me lancer en freelance
- Factures émises en retard - Possible que le client ne paye pas ?