Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur Talend ODI (Oracle Data Integrator )
Nous recherchons un Développeur Talend pour accompagner la migration de plusieurs flux ODI (Oracle Data Integrator) vers Talend au sein d'un projet stratégique de transformation de données. Missions principales : Participer à la migration des flux existants d'ODI vers Talend. Concevoir, développer et optimiser les processus ETL en utilisant Talend. Collaborer avec les équipes techniques pour assurer la continuité et la qualité des flux de données. Assurer la documentation des flux migrés et participer aux phases de tests et de validation.
Offre d'emploi
Data Steward junior et senior
Vous interviendrez en tant que Data Steward afin de mettre en œuvre la stratégie de données de référence et de normaliser les processus de gestion des données à l’échelle de l’entreprise tout au long du cycle de vie des données. Missions · Fournir une orientation stratégique et les meilleures pratiques MDM pour soutenir les ambitions du domaine des données · Définir et orchestrer la mise en place des stratégies, politiques, et structures de gouvernance des données, en clarifiant les rôles et responsabilités · Faciliter les échanges avec les principales parties prenantes afin d'identifier les principaux processus métiers et les exigences en matière de données de référence et de données maîtresses · Elaborer des modèles de données multidimensionnels en établissant des hiérarchies, des taxonomies et d'autres relations pour organiser et classer les objets, et introduire la responsabilité de la gestion des données. Création des modèles de données nécessaires en UML · Piloter la conception et la mise en œuvre des workflows de gouvernance des données, des règles métier, de la modélisation des données, de l'intégration des données · Produire et mettre à jour toute la documentation nécessaire à la création d'un référentiel et à la gestion de ses données (analyses, modèles, fiches, processus, règles, catalogues…) · Interagir avec les parties prenantes métier, les propriétaires de produits, les architectes IT pour prioriser et sélectionner les améliorations à apporter à la solution MDM. · Exercer un leadership technique au sein de l'équipe projet, soutenir la cartographie des données, définir des politiques et des règles pour la gestion des données de référence. · Prendre en charge les tâches de nettoyage des données en assurant leur qualité avant chargement dans les systèmes pour tests, validation et déploiement · Préparer les documents nécessaires pour la migration des données MDM et les opérations d’import/export · Soutenir les tests d'intégration, de système et d'acceptation par les utilisateurs, gérer la stratégie de migration et de transfert, les chargements de données.
Mission freelance
Expert solution référencement Akeneo (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert solution référencement Akeneo (H/F) à Lille, Hauts-de-France, France. Contexte : L’équipe est constituée de 9 personnes: 1 PO, 1 Lead Developer, 2 développeurs Flux, 2 business analyst, 1 architecte, 2 développeurs Au sein de cette équipe, nous cherchons un expert des solutions de référencement, notamment sur notre PIM, Akeneo. Les missions attendues par le Expert solution référencement Akeneo (H/F) : Ce poste transverse vous amènera à collaborer activement en synergie avec les Gestionnaires Produit, Category Managers, e-Merchandising, Supply Chain et le Marketing Client. Votre mission consistera en plusieurs actions: - Analyse des besoins en gestion de la donnée produits: compréhension des besoins métier, gap analysis entre les capacités des produits et le besoin - Définition des bonnes pratiques de gestion de la donnée produit, modélisation du dictionnaire de données - Audit de la Conception actuelle du PIM incluant un potentiel changement de modèle pour s’aligner avec les besoins métiers actuels et futurs et pour s’assurer que tout ce qui est actuellement créé est toujours utile - Mise en place de mesure et de pilotage de la qualité de données (intrinsèque aux produits et d’alignement entre différents systèmes) - Mise en place et animation d’une gouvernance de la donnée produit - Accompagnement et support aux utilisateurs dans leurs tâches quotidiennes (traitement des tickets fonctionnels entrants) - Assurer les tests d’intégration avant et après la mise en ligne des Produits et réaliser les correctifs si nécessaire. Le candidat doit avoir une expertise démontrée sur Akeneo. Une connaissance d’un DAM est un plus. Soft Skills: - Appétence fonctionnelle développée, capacité à s’intéresser aux détails - Organisé, structuré - Communication orale claire, précise et percutante - Facilité relationnelle Les + que pourraient avoir le candidat: - Anglais courant - Maitrise d’un MDM - Connaissance des produits du monde de l’automobile - Capacité à manipuler des APIs
Mission freelance
Architecte Infra/Solution PAAS Azure
En prestation au sein de l'un de nos clients : Le projet de promouvoir l'excellence opérationnelle à travers l'ensemble du groupe, en s'appuyant sur les avancées technologiques (digital, données et intelligence artificielle) ainsi que sur les talents internes. Le département concerné regroupe l'ensemble des moyens d'infrastructures informatiques du groupe et de ses filiales, tant sur le territoire national qu'international. Le département est chargé de la gestion des domaines techniques tels que les bases de données, le Big Data, les middlewares et les containers, en lien avec la production informatique du groupe. il conçoit, construit et opère des services de cloud privés et publics. La mission consiste à contribuer aux aspects suivants : Définition des architectures et des services associés Assistance auprès des différentes entités sur les sujets d’architecture technique d'infrastructure Respect des principes de sécurité dans les projets d'architecture Documentation des architectures, des principes et des bonnes pratiques Déploiement des architectures
Mission freelance
Chef de projet SI (MDM smartphone)
Dans le cadre d'un projet stratégique visant à renforcer la sécurité de nos systèmes d'information et à optimiser la gestion de notre parc mobile, nous recherchons un(e) Chef de Projet MDM expérimenté(e). Votre mission principale consistera à : Piloter l'ensemble du projet d'implémentation de la solution MDM, de sa conception à sa mise en production. Coordonner les équipes techniques et fonctionnelles impliquées dans le projet. Gérer les relations avec les fournisseurs de la solution MDM. Assurer le respect des délais, du budget et de la qualité. Former et accompagner les utilisateurs dans l'utilisation de la nouvelle solution.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Mission freelance
Chef de projet technique MDM
Nous sommes à la recherche d'un profil : Chef de projet technique pour nous accompagner notre client sur son projet actuel qui a pour but de lancer son : Implémentation de solution MDM pour administration de notre flotte de smartphones et sécurisation de l’accès à notre système d'information depuis ces smartphones. Dans le cadre de ce projet nous sommes à la recherche de plusieurs profils ou d’une société pour nous accompagner dans le choix de solution puis la mise en œuvre ». Le projet démarre ASAP selon la disponibilité des consultants .
Mission freelance
Chef de projet Data RGPD
Afin d'accompagner notre croissance et de renforcer nos équipes chez l'un de nos clients grands comptes, nous recherchons un(e) : Chef de projet Data conformité RGPD F/H Objectif : Accompagnement à la conformité des activités de traitement des données du groupe selon les différentes obligations réglementaires auxquelles l’entreprise doit se conformer. Mission : Animation de réunions ou comités de suivi des actions de conformité, Rédaction ou mise à jour de documents technico-fonctionnels, Intégrer les principes de la protection des données dès la phase de conception des projets. Contribuer à la production d'outils d'évaluation de la conformité Production de notes sur la veille réglementaire data et suivi de l’actualité et ses impacts sur les activités du groupe notamment SI Production de grilles d’analyse de risques sur la vie privée, de critères et conditions d’anonymisation de données ou de règles de purge et archivage de données Assurer la veille règlementaire (RGPD, Data Act)
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : • ???? Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. • ???? Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. • ?? Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. • ???? Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. • ???? Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. • ????? Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : • Formation : Diplôme en informatique, ingénierie ou domaine connexe. • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. • Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- situation compliquée fin de mission pression client comment gèrer ?
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Calcul de crédit impôt - cas pratique
- Calcul frais télétravail en étant propriétaire
- Vehicules de société