Commencez. C'est gratuit
ou s'inscrire avec votre adresse courriel
Rocket clouds
Backlog par Mind Map: Backlog

1. Origine des besoins

1.1. Use Case métiers

1.1.1. UC 0 Score impayés FEM

1.1.1.1. Travail dans le cadre du POC Technique (UC0)

1.1.1.1.1. toutes les stories 231 à 239

1.1.1.2. Données

1.1.1.2.1. Flux safergame

1.1.1.2.2. PIA

1.1.1.2.3. Historique FEM

1.1.1.2.4. Documentation Colibra

1.1.1.3. Fonctionnalités Trajectoire

1.1.1.3.1. Stats intégration

1.1.1.3.2. En tant que Data Scientist je souhaite récupérer des data pour permettre l'exploration des données

1.1.1.3.3. En tant qu'équipe partenaire je souhaite récupérer des data de nos solutions de stockage pour différents besoins

1.1.1.3.4. Vue semantique

1.1.1.3.5. Partage via power BI

1.1.1.3.6. Envoi score vers Terradata

1.1.1.3.7. dérive Algo

1.1.1.4. Datascience

1.1.1.4.1. Demo

1.1.1.4.2. Gouvernance Eco systeme Datalake

1.1.1.4.3. Connexion Travaux N. Bauny

1.1.2. UC2 Inspections réseau

1.1.2.1. Données

1.1.2.1.1. Flux Validations Grattage (SGI-Net)

1.1.2.1.2. Extract Données Logistiques Grattage

1.1.2.1.3. Extract Inspections Réseau

1.1.2.1.4. Extract Référentiel Offres (ROF)

1.1.2.1.5. Flux Données Logistiques Grattages

1.1.2.1.6. Flux Inspections Réseau

1.1.2.1.7. Flux Référentiel Offre (ROF)

1.1.2.2. Fonctionnalités Trajectoire

1.1.2.2.1. Flux SID ou Safergame

1.1.2.2.2. File JMS (Flux ROF)

1.1.2.3. Datascience

1.1.3. UC 3 Moteur de reco MVP

1.1.3.1. Données

1.1.3.1.1. MOD Vues Terradata

1.1.3.1.2. Flux Prises de Jeu Digital et Liste des Jeux (SIDC)

1.1.3.2. Datascience

1.1.3.2.1. Partage Moteur de reco BU Loterie

1.1.3.2.2. Interface Front

1.1.3.2.3. Formation solene

1.1.3.3. Fonctionnalités Trajectoire

1.1.3.3.1. Acces externe Datalake

1.1.3.3.2. R shiny

1.1.4. UC 4 Analyse de Logs

1.1.4.1. Données

1.1.4.1.1. Domaine Digital

1.1.4.1.2. Domaines sports

1.1.4.1.3. Non priorisé

1.1.4.2. Fonctionnalités Trajectoire

1.1.4.3. Transférer Stories ENK dans JIRA

1.1.4.4. pas d'id de joueur donc n'est pas exploitable par sgrep

1.1.5. UC Jeu Responsable

1.1.5.1. Données

1.1.5.2. Fonctionnalités Trajectoire

1.1.5.3. Datascience

1.1.6. UC 1 Impayés (Prévention fermetures)

1.1.6.1. Données

1.1.6.1.1. Extract Données SI Finances (OEBS)

1.1.6.1.2. Extract Historique CA (SIDCO)

1.1.6.1.3. Extract Cautionnement (Cautionnement)

1.1.6.1.4. Flux SI Finance (OEBS)

1.1.6.1.5. Flux CA PDV (Calypso)

1.1.6.1.6. Flux Cautionnement (Cautionnement)

1.1.6.2. Datascience

1.1.6.3. Fonctionnalités Trajectoire

1.1.7. UC Blanchiment

1.1.7.1. Données

1.1.7.2. Datascience

1.1.7.3. Fonctionnalités Trajectoire

1.2. Conformité

1.2.1. Méthode/Qualité

1.2.1.1. CICD

1.2.1.2. Environnements

1.2.2. Urbanisation

1.2.2.1. Gestion de l'obsolescence

1.2.2.1.1. Flux Référentiel Distribution (RDI) : remplace SAGA)

1.2.2.2. Portage Safergame

1.2.2.2.1. Traitement UC Blanchiment

1.2.2.3. File JMS

1.2.3. GDPR

1.2.3.1. Droit a l 'oubli

1.2.3.2. Processus d'anonymisation

1.2.4. Sécurité

1.2.4.1. Bastions/Gates

1.2.4.2. Tracabilité des acces

1.2.4.3. Authentification

1.2.4.4. Gestion de role

1.2.4.5. Controle d'acces

1.2.4.6. Cryptage des flux

1.2.5. Exploitation

1.2.5.1. Organisation

1.2.5.1.1. RACI

1.2.5.2. Procédures DEVOPS

1.2.5.2.1. Incidents

1.2.5.2.2. Changements

1.2.5.2.3. Habilitations

1.2.5.2.4. MCO

1.2.5.3. MCO

1.2.5.3.1. Planification régulière d’un « fsck HDFS »

1.2.5.3.2. Planification régulière d’un « rebalance HDFS »

1.2.5.4. Niveau de service

1.2.5.5. Level Agrement

1.2.5.5.1. Haute dispo

1.2.5.5.2. Performance

1.2.5.6. Métrologie

1.2.5.7. Backup/Restore

1.2.5.7.1. Planification régulière d’un « backup metadata HDFS »

1.2.5.7.2. Planification régulière d’un « snapshot HDFS »

1.2.5.8. Alerting

1.2.5.9. Monitoring

1.2.5.9.1. Supervision Postgresql par « checkMK »

1.2.5.10. Documentation

1.2.5.10.1. DAT

1.2.5.10.2. DTE

1.2.5.10.3. Matrice de Flux / Matrice de Rupture

1.2.6. Gouvernance

1.2.6.1. Data management

1.2.6.1.1. Collibra

1.2.6.2. Resource managment

1.2.7. Poste de Travail

2. Classification fonctionnelle

2.1. Ingestion

2.1.1. ControlM

2.1.2. Nifi collecteurs

2.1.2.1. Mise en place d'un load balancing sur les nifi collecteurs

2.1.2.2. Repos de build du composant Nifi + CI

2.1.2.3. Formules Salt pour gerer les installations sur les machines de Nifi

2.1.3. Collecteur JMS

2.2. Persistance

2.2.1. HDFS

2.2.1.1. Valider Scenario 6 - arret HDFS

2.2.2. Zookeeper

2.2.2.1. DATENT-295 Repo de build de l'image zookeeper et CI

2.2.2.2. DATENT-319 Formules Salt pour gérer les installations sur les machines de zookeeper

2.2.3. BDD No SQL

2.2.4. Kafka

2.2.4.1. DATENT-294 Repo de build de l'image kafka et CI

2.2.4.2. DATENT-321 Formules Salt pour gérer les installations sur les machines de Kafka

2.2.5. Elasticsearch

2.2.5.1. Securisation via searchguard

2.2.5.2. DATENT-318 Repo de build de l'image Elasticsearch/Kibana et CI

2.2.5.3. Formules Salt pour gerer les installations sur les machines de Elasticsearch Kibana

2.2.5.4. Etudier la conf Elasticsearch pour débrider la performance

2.2.5.5. Service de nettoyage des indexes + 30 J

2.3. Traitements

2.3.1. Services

2.3.1.1. Scripts d'ingestion

2.3.1.1.1. DATENT-261 - Slave HDFS - gZiper les CSV pour l'archive ?

2.3.1.1.2. DATENT-264 - Pouvoir ré-ingérer complètement (tous les fichiers du flux) un flux de données

2.3.1.1.3. Méthodologie

2.3.1.1.4. Gouvernance

2.3.1.1.5. Exploitation

2.3.2. Traitement distribué

2.3.2.1. Jobs Spark

2.3.2.1.1. Transformation

2.3.2.1.2. Referencement

2.3.3. Traitement distribué Streaming

2.3.3.1. Spark Streaming

2.3.3.2. Nifi

2.3.3.2.1. Indexation performante en reconfigurant le composant d'ecriture vers Elasticsearch

2.4. Exposition

2.4.1. Vues

2.4.1.1. Hive

2.4.2. WebServices

2.4.2.1. ?

2.5. Usages

2.5.1. Exploration

2.5.1.1. DataScience

2.5.1.1.1. Jupyter Notebook

2.5.1.2. DataViz

2.5.1.2.1. Hue

2.5.1.2.2. Frontends

2.5.1.2.3. Kibana

2.5.2. Usages applicatifs

2.5.2.1. PowerBI

2.5.2.2. SID

2.6. Conformité

2.6.1. Administration/Configuration

2.6.1.1. Ambari

2.6.1.2. PostgreSQL

2.6.2. Monitoring et Supervision

2.6.2.1. Kibana

2.6.3. Gouvernance des usages

2.6.3.1. Ranger

2.6.3.2. YARN

2.6.3.2.1. Queues

2.6.4. Data Managment

2.6.4.1. Collibra

2.6.5. Méthode/Qualité

2.6.5.1. CICD

2.6.5.1.1. Usine Logicielle

2.6.5.1.2. Outils

2.6.5.2. Environnements

2.6.5.2.1. Batch Layer (Datalake)

2.6.5.2.2. Speed layer (ENK)

2.6.5.2.3. DATENT-79 Automatiser le construction et déconstruction d'un environnement OpenStack

2.6.5.2.4. DATENT-297 Script de creation de stack openstack les VMs, les FIP, les security group

3. Vision cible

3.1. Affiner la vision

3.1.1. MOE

3.1.2. Equipe Datalake

3.2. Partage de la vision

3.2.1. Équipe Datalake

3.2.2. COEDIA

3.3. Objectifs vision cible par couche fonctionnelle

3.3.1. Ingestion

3.3.1.1. OBJ1 - Ingérer des fichiers depuis le réseau FdJ

3.3.1.2. OBJ2 - Ingérer des données au fil de l'eau depuis le réseau FdJ (streaming)

3.3.1.3. OBJ3 - Avoir des interfaces entrantes et sortantes avec des systèmes en dehors du réseau FdJ

3.3.2. Persistence

3.3.2.1. OBJ4 - Pouvoir indexer des données pour un usage de type moteur de recherche

3.3.3. Traitments

3.3.4. Exposition

3.3.4.1. OBJ6 - Mettre à disposition de la donnée en sortie du Datalake (exposition ou export)

3.3.5. Usage

3.3.5.1. OBJ14 - Consommer des données dans des outils de dataviz ou des applis

3.3.5.2. OBJ15 - Monitoring des différentes métriques du modèle

3.3.5.3. OBJ16 - Exploration via un IDE branché sur les données de Prod qui embarque des langages de programmation distribués.

3.3.6. Conformité

3.3.6.1. OBJ5 - Etre conforme sécurité et RGPD-

3.3.6.2. OBJ07 - Suivre l'activité d'ingestion et la mise à jour des données, avec des statistiques (streaming inclu)

3.3.6.3. OBJ11 - Gouvernance et monitoring du Datalake et dyu respect de la politique de gouvernance (usage, droits et accès)

3.3.6.4. OBJ09 - Avoir une documentation avec les règles d'usage du datalake (inclus les démarches pour donner les accès)

3.3.6.5. OBJ08 - Référencer les données ingérées et générées

3.3.6.6. OBJ18 - décommissionnent Safergame

3.3.6.7. Avoir un outil adapté aux méthodes des équipes projets utilisant le DL

4. Fiches synthétiques UC

4.1. Données

4.1.1. sources

4.1.2. Mise a dispo

4.2. Impact trajectoire

4.3. Next steps

4.4. Objectifs

5. Vision Release

5.1. UC

5.2. Données

5.3. Evol fonctionnelles

5.4. Conformités

6. Orga

6.1. Definitions EPIC

6.2. Reorga JIRA

6.3. Procedure Achat

6.3.1. Commandes

6.3.2. Reception SAPA

6.3.3. Saisie SAPA

6.4. Comité Roadmap

6.4.1. FL

6.4.2. Mise a jour reporting