Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Automatisation des tests
Durée de la mission : Longue (Bon de commande par 3 mois renouvelables) Télétravail : 100% Début de mission : ASAP Description de la prestation : L’URSSAF Caisse Nationale devient l’opérateur national de la fiabilisation des DSNs pour les entreprises relevant du régime général. Dans cette optique, elle opère une transmission en profondeur de son système d’informations DSN afin de pouvoir répondre à ces enjeux. Missions : Définition de stratégie d’automatisation : démarches et outils Mise en place du socle technique sur applicatifs IHM, Batch, API, Contrôle des bases de données Définition de la stratégie de tests automatisés par incrément Implémentation des tests automatisés de bout en bout
Offre d'emploi
Ingénieur BackUp et Restauration
Nous recherchons un Administrateur Sauvegarde expérimenté, spécialisé sur la solution Rubrik. Vous serez responsable de la gestion, de la maintenance et de l’optimisation des systèmes de sauvegarde et de restauration des données critiques de l’entreprise. Une bonne connaissance des scripts en Python est nécessaire afin d’automatiser et d’améliorer les processus de sauvegarde. Administrer, configurer et surveiller la solution de sauvegarde Rubrik . Assurer la disponibilité, l’intégrité et la sécurité des données sauvegardées. Gérer les politiques de sauvegarde et de rétention des données conformément aux besoins de l'entreprise. Surveiller les performances des sauvegardes et optimiser les processus pour réduire les temps de récupération. Mettre en place des scripts en Python pour automatiser les processus de sauvegarde, restauration et reporting. Assurer la mise à jour et l'application des correctifs logiciels sur la solution Rubrik. Diagnostiquer et résoudre les incidents liés aux sauvegardes et aux restaurations. Rédiger des procédures techniques et des documents relatifs à l’administration des sauvegardes. Participer aux audits de conformité et aux tests de restauration périodiques. Collaborer avec les équipes IT pour assurer la continuité des opérations.
Mission freelance
Responsable technique système H/F
Nous recherchons un "Responsable Technique Système H/F" pour le compte de notre client spécialisé dans l'ingénierie et l'étude technique à Biot dans les Alpes-Martitimes (06). Il s'agit d'une mission de 6-8 mois en freelance ou portage salarial avec une évolution possible (souhaité) en CDI par la suite chez le client final. Dans ce rôle, vous serez amené à : ➢ Imaginer et programmer de nouvelles fonctionnalités en Python ➢ Entretenir et rectifier les fonctionnalités existantes ➢ Concevoir et développer des services, systèmes et API dans le domaine du traitement des données environnementales ➢ Créer et élaborer des systèmes complexes ➢ Développer et mettre en place des orchestrateurs pour le traitement des données EO ➢ Rédiger des spécifications techniques ➢ Participer à la documentation technique ➢ Contribuer à la maintenance et à l’amélioration de la qualité du code et des meilleures pratiques au sein de l’équipe ➢ Encadrer et assister techniquement les membres juniors de l’équipe ➢ Collaborer avec le Responsable Technique Web sur des sujets communs ➢ Travailler avec le Responsable DevOps pour les déploiements et les environnements ➢ Interagir avec l’Architecte pour obtenir les spécifications fonctionnelles et les détails de conception ➢ Travailler au sein d’une équipe projet avec une vision d’amélioration continue et de gestion agile, et être capable d’estimer les tâches de développement en respectant le calendrier du projet
Offre d'emploi
Data Analyst H/F
En tant que Data Analyst , vous jouerez un rôle crucial dans la réalisation de projets d'analyse de données complexes. Il s’agira notamment de : Collaborer avec les clients pour comprendre leurs besoins en matière d'analyse de données et formuler des recommandations appropriées Concevoir et mettre en œuvre des pipelines d'analyse de données pour collecter, nettoyer et transformer des ensembles de données massifs provenant de diverses sources Effectuer des analyses statistiques avancées pour identifier des tendances, des modèles et des insights significatifs Développer des tableaux de bord interactifs et des rapports personnalisés pour présenter les résultats de manière claire et concise aux parties prenantes internes et externes Participer à l'élaboration et à l'amélioration des processus et des méthodologies d'analyse de données au sein de l'agence
Mission freelance
Business Analyst Technique - IA Générative pour IT
Nous recherchons un Business Analyst Technique spécialisé en IA générative pour rejoindre une équipe d'experts en innovation et développement IT. Le candidat travaillera sur des projets pilotes et des Proof of Concept (POC) liés à l'intégration de solutions d' IA générative au sein de systèmes IT complexes. Veille technologique : Réaliser une veille active sur les solutions d'IA générative disponibles (Make/Buy/Open Source) et proposer des solutions adaptées à l'IT. Pilotage de POC : Diriger et piloter des Proof of Concept et Proof of Value autour des technologies d'IA générative pour assister au développement de prototypes et outils d'aide au développement. Communication et adoption : Promouvoir et accompagner la mise en place des premières solutions d'IA générative au sein des équipes IT. Assurer une communication claire et efficace autour des résultats obtenus. Animation d'une communauté IA : Créer et animer une communauté dédiée à l' IA générative pour les développeurs, partager les meilleures pratiques, et fournir des supports pour les comités. Accompagnement des projets IT : Apporter un soutien technique et méthodologique aux projets IT lors de l'adoption des solutions IA.
Mission freelance
Ingénieur IA H/F - 75
Pour reprendre et améliorer un modèle de catégorisation développé en python, notre client recherche un profil d'Ingénieur IA H/F - 75 Vos missions en tant que tel: * Comprendre le modèle existant et analyser ses performances. * Faire tourner le modèle et vérifier son fonctionnement avec les données actuelles. * Améliorer et adapter le modèle en fonction des nouvelles données et des besoins métiers. * Collaborer avec les équipes métiers pour ajuster les fonctionnalités du modèle. * Documenter les modifications pour garantir la continuité du projet.
Mission freelance
Expertise DBA
Dans le cadre de l’évolution permanente et du maintien en conditions opérationnelles de ses socles techniques le bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'expertise technique DBA Le client gère 3800 bases de données Oracle, et 650 bases mongo DB, 1700 bases MS SQL, et 5600 cluster PostGres. Expertise DBA Cela comprend pour .... Expertise avancée en Bases de données Oracle Expertise en infrastructures Exadata, ExaCC Expertise en Bases de données MongoDB Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Oracle Enterprise Manager, Zabbix Socle OS : Redhat Linux Automatisation en Python, Ansible, Scripting shell Cela comprend pour.... Expertise avancée en Bases de données PostgreSQL, MSSQL Expertise en Bases de données Cassandra & Sybase Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Zabbix, Datasentinel Socle OS : Redhat Linux, Microsoft Windows Server Automatisation en Python, Ansible, scripting shell unix & powershell Au sein de ..... la prestation consiste à contribuer pour les bases de données à la maintenance et à l'évolution des bases de données sur ses plateformes Unix (Décisionnel, Flux, Transactionnel, Progiciels) : La conduite du changement sur les opérations importantes (migration/montées de version, migrations de socle de hosting vers du cloud interne, gestion de l’obsolescence, defrag,…) et à la documentation auprès de l'entité L’expertise en support aux équipes niveau 1 & 2 en cas d’incident L'optimisation selon les besoins applicatifs L'expertise sur la performance des bases et le suivi des changements applicatifs L'expertise sur la sécurité des bases de données (durcissement, gestion des vulnérabilités, mises à jour) Suivi des projets en relation avec les entités sécurité du groupe Second niveau de contrôle pour les sujets clés (backup, capacity planning, conformité avec les standards, tels que le durcissement) Delivery selon un modèle Agile/DevOps des API cloud privé en Python
Mission freelance
data Ingénieur
Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)
Mission freelance
Consultant DevOps
On recherche un.e expert.e DevOps. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self-service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering
Mission freelance
Tech Lead Data Engineer GCP (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
Expert Sauvegarde
Nous sommes à la recherche d'un expert pour l'équipe Sauvegarde (disponibilité immédiate) L'équipier Sauvegarde Niveau 3 a pour rôle principal d'assurer la maintenance des systèmes de sauvegarde des datacenters. Cet expert maîtrise les technologies de sauvegarde, en particulier Commvault, ainsi que les architectures de sauvegarde et les sauvegardes sur bande. Une connaissance de NetBackup est également requise. En complément, une compétence en technologies DevOps est un plus pour automatiser les infrastructures de stockage. Les outils et technologies utilisés incluent : Ansible, Python, Git/GitLab, RestAPI, et en option, Terraform et Go.
Offre d'emploi
Expert Zabbix
Nous recherchons un Expert Zabbix pour intégrer une équipe dynamique et participer à des projets de supervision d'infrastructures critiques. Vous interviendrez sur des missions de migration, d'automatisation et d'intégration au sein d'environnements complexes. Vos missions : Migration d'infrastructures Zabbix de la version 6 vers la version 7.0. Mise en place et optimisation d’architectures Zabbix V5 et V6. Développement de scripts d'automatisation en Python et Bash pour améliorer les processus de supervision. Migration de supervisions existantes (PATROL, SCOM, ZABBIX V4, CENTREON) vers les versions plus récentes de Zabbix. Intégration avec Netcool Omnibus via SNMP et WebHook . Rédaction de la documentation d'installation et d'exploitation. Maintien en conditions opérationnelles des systèmes en conformité avec la certification PCI-DSS . Compétences requises : Expertise avérée sur Zabbix et ses différentes versions. Solides compétences en scripting Python et Bash . Expérience avec des outils de supervision tels que BMC Patrol , ElasticSearch , et Entuity . Connaissance des processus ITIL et des certifications PCI-DSS .
Offre d'emploi
Ingénieur Automatisme
AGH Consulting recherche pour un de ses clients un ingénieur automatisme. La prestation vise à : Conception, programmation et mise en service d’automates programmables industriels (PLC) Schneider, Beckhoff ou Siemens selon les besoins des projets. Développement et intégration de systèmes SCADA pour la supervision des installations industrielles (PCVue, Panorama, Aveva). Analyse des besoins fonctionnels des clients et traduction en spécifications techniques. Participation aux études techniques : schémas de câblage, nomenclatures, choix des équipements d’automatisation. Maintenance et optimisation des systèmes automatisés existants. Réalisation des tests et validations en usine et sur site, pour s'assurer du bon fonctionnement des systèmes. Formation et accompagnement des équipes techniques et des utilisateurs finaux. Suivi et gestion de projets en automatisation, respect des délais et des budgets. Veille technologique sur les évolutions des outils d’automatisation et des systèmes SCADA.
Offre d'emploi
GO/Python - ML Engineer
le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP Paribas Personal Finance, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.
Offre d'emploi
Data engineer GT Lake
Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
MOE Technico - Fonctionnel BIM
Nous recherchons un MOE Technico-fonctionnel BIM. Dans le cadre d'une assistance à maîtrise d'oeuvre pour la mise en place du socle technique BIM. Les principales prestations attendues sont : Participation aux ateliers technico-fonctionnels interne Conception détaillée. Challenge des solutions techniques proposées par les titulaires. Etude d’impact de l’infra en place. La gestion des environnements : Création / mise à niveau des environnements nécessaires au projet Packaging et installation des livraisons titulaire dans les normes projet Rafraîchissement des données des environnements Réalisation de paramétrage des outils informatiques dans le cadre du Socle technique. Préparation et participation aux différentes recettes VAT / TIO / Performance. Assistance à la recette fonctionnelle. MCO de la moulinette GIGP. Rédaction de la documentation technique nécessaire à la maintenance Suivi des faits techniques, analyse... Reporting : Ordre du jour de réunion, compte rendu de reunion. Environnement technique : Bonne connaissance des environnements CLOUD et des interactions de ces environnements avec les écosystèmes locaux. Python impératif pour la moulinette GIGP. Connaissance de la démarche BIM et des outils la soutenant. Maitrise de la solution TRIMBLE Connect. Compétences d’AMOE : Gestion des environnements, recette technique, analyse et qualification d’incidents, suivi de tickets, assistance à maîtrise d’ouvrage… Réalisation / relecture ou participation à la rédaction des spécifications fonctionnelles et techniques. Bonne compréhension de l’anglais pour la lecture de la documentation technique Capacité rédactionnelle pour créer, compléter la documentation existante Les + : Revit- Autocad. BIM & CO On Fly ou équivalent. PostgreSQL : création d’objets, imports exports de bases, requêtes SQL, Procédures PL/PGSQL LINUX : commandes, écriture de Shell Langage JAVA Une première expérience dans le domaine du BIM.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.