Mise en place d’une solution de reporting bancaire en temps réel avec kafka Stream
Développent de solutions big data en temps réel
Migration de la sérialisation et de dé-sérialisation de json à avro avec kafka schema registry
Développent d’applications de temps réels avec KAFKA Stream
Mise en place de Kafka connect applications pour intégrer les données depuis les bases transactionnelles.
Création de connecteurs débezium
Développement d’un programme Spark Streaming
Implémentation des « kafka Producer » de données pour stocker les erreurs
Mise en place des tests Unitaires
Gestion des logs des pods avec Fluentd
Création de tableaux de bords des logs avec kibana
Mise en place d’une solution Big Data vison 360 pour le département ressources humaines
Mise en place d’une application Big Data pour certifier de données bancaires
Mise en place d’une application Big Data d’exploitation des données de ServiceNow
Définition de solutions techniques Big Data pour différents use cases
Spécifications fonctionnelles et techniques
Conception de modèle de données Big Data
Développement de traitements d'extraction et de transformation de données
Développement d’un programme Spark Streaming
Conception et développement de modules de traitements de données en Spark
Tuning pour les performances d’applications Spark
Migration programme Spark 1.6 vers Spark 2.2
Intégration de données dans de tables Hive
Création et gestion d’indexes avec Elasticsearch et Kibana
Création de tableaux de bord en Kibanna
Création de workflows Oozie pour l’ordonnancement des programmes
Création des tests Unitaires
Définition de solutions techniques Big Data pour différents use cases
Spécifications fonctionnelles et techniques
Conception de modèle de données Big Data
Développement de traitements d'extraction et de transformation de données
Développement d’un programme Spark Streaming
Conception et développement de modules de traitements de données en Spark
Tuning pour les performances d’applications Spark
Migration programme Spark 1.6 vers Spark 2.2
Intégration de données dans de tables Hive
Création et gestion d’indexes avec Elasticsearch et Kibana
Création de tableaux de bord en Kibanna
Création de workflows Oozie pour l’ordonnancement des programmes
Création des tests Unitaires
Analyse de faisabilité de migration buisines intelligence vers le Big Data
Définition d'architecture et de solutions Big Data
Développement de traitements d'extraction et de transformation de données
Modélisation de données avec Cassandra
Chargement de données sur Cassandra
Conception et développement de modules de traitements de données en Spark
Création des « User Defined Functions » pour les transformations Big Data
Réaliser de la veille technique Big Data
Analyse des besoins des évolutions techniques
Etude d’impact des évolutions des applications Business intelligence
Rédaction des spécifications fonctionnelles
Rédaction des spécifications techniques
Développent SSRS reports avec SSRS 2012 pour les applications de facturations, d’achats et finances
Conception de Datawarehouses et Datamarts
Chargement des données de fichiers plats et Excel dans une base de données Oracle en utilisant SQL * Loader
Création de packages SSIS pour charger des données dans une base de données centralisée SQL Server (à partir de sources de données diversifiées)
Création et / ou modification des procédures stockées, des tables et des requêtes
Création de plans de test et les scripts de test en fonction des besoins
Gestion des validations fonctionnelles et d’intégrations
Rédaction documentation technique et d’installation pour la pré-production
Rédaction documentation technique et d’installation pour la production
Mise en place de solutions de business intelligence pour le secteur médical
Modélisation d'un Datawarehouse (création, paramétrage et configuration)
ETL : création de jobs et conception de flux d'alimentation
Création de procédures stockées, d'informations map, de cubes, de Reporting et de tableaux de bord