CAT-AMANIA

Mission freelance Expert ELT & Data & API

Paris

CAT-AMANIA

Publiée le 13/02/2025

Partager cette offre

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Profil recherché

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Environnement de travail

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Saint-Herblain, Pays de la Loire
> 1 000 salariés
ESN
Créée en 1999, CAT-AMANIA fait partie des ESN dynamiques et innovantes qui s’appuie sur ses expertises métiers, techniques et méthodologiques pour accompagner ses clients dans leur transformation digitale. Aujourd’hui CAT-AMANIA c’est : 71 millions d’€ de chiffre d’affaires, 950 collaborateurs répartis sur 18 agences en France et à l’international. Construire ensemble pour mieux grandir Portée par ses valeurs de Joie, de Confiance, d’Audace, de Persévérance et de Respect, notre entreprise souhaite les partager avec vous dans la réussite de projets communs. Cat-Amania s'engage à assurer la diversité de ses équipes et à créer un environnement de travail inclusif. Nous accueillons toutes les candidatures sans distinction d'âge, de genre, d'origine, d'orientation sexuelle, de croyance religieuse ou de handicap.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +9 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

D’autres offres qui pourraient vous intéresser.

Freelance
Paris · KEONI CONSULTING
Data engineering senior
Freelance
CDI
Paris · CELAD
Architecte Fonctionnel Data
CDI
Freelance
Paris · FIRST CONSEIL
Développeur Big Data Senior
Freelance
Paris · INSYCO
Ingénieur Data AWS
CDI
Freelance
Paris · CELAD
Chef(fe) de Projet Data
Freelance
CDI
Paris · Digistrat consulting
Développeur Big Data GCP - ENTRE 3 ET 6 ANS
Freelance
Paris · ODHCOM - FREELANCEREPUBLIK
Tech Lead Data / IA H/F
Freelance
Paris · Phaidon London- Glocomms
Ingenieur Data
Freelance
Paris · Freelance.com
Techlead / Architecte Data
Freelance
Paris · Focus Cloud Group
Azure Data Architect

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous