Blog ENI : Toute la veille numérique !
💥 Offre spéciale Bibliothèque Numérique ENI :
1 an d'accès à petit prix ! Cliquez ici
🚀 Tous nos livres, vidéos et articles en illimité ! :
Découvrez notre offre. Cliquez ici
  1. Livres et vidéos
  2. Business Intelligence avec Python - Créez vos outils BI de A à Z

Business Intelligence avec Python Créez vos outils BI de A à Z

Informations

Livraison possible dès le 20 janvier 2025
  • Livraison à partir de 0,01 €
  • Version en ligne offerte pendant 1 an
Livres rédigés par des auteurs francophones et imprimés à Nantes

Caractéristiques

  • Livre (broché) - 17 x 21 cm
  • ISBN : 978-2-409-04804-3
  • EAN : 9782409048043
  • Ref. ENI : EIBIPYT

Informations

  • Consultable en ligne immédiatement après validation du paiement et pour une durée de 10 ans.
  • Version HTML
Livres rédigés par des auteurs francophones et imprimés à Nantes

Caractéristiques

  • HTML
  • ISBN : 978-2-409-04805-0
  • EAN : 9782409048050
  • Ref. ENI : LNEIBIPYT
Ce livre sur la Business Intelligence avec Python est un guide complet qui plonge les lecteurs dans l’univers de l’analyse de don­nées d’entreprise. Tout en mettant l’accent sur l’aspect pratique et opérationnel de la BI, il se distingue par son approche globale, couvrant l’ensemble du processus de BI, de la collecte des données brutes à la création de tableaux de bord pour une prise de décision éclairée, en passant par l’analyse et la visualisation de données. Il constitue une ressource...
Consulter des extraits du livre en ligne Aperçu du livre papier
  • Niveau Confirmé à Expert
  • Nombre de pages 562 pages
  • Parution janvier 2025
  • Niveau Confirmé à Expert
  • Parution janvier 2025
Ce livre sur la Business Intelligence avec Python est un guide complet qui plonge les lecteurs dans l’univers de l’analyse de don­nées d’entreprise. Tout en mettant l’accent sur l’aspect pratique et opérationnel de la BI, il se distingue par son approche globale, couvrant l’ensemble du processus de BI, de la collecte des données brutes à la création de tableaux de bord pour une prise de décision éclairée, en passant par l’analyse et la visualisation de données. Il constitue une ressource indispensable pour les professionnels de la data, les analystes et les étudiants désireux d’acquérir des com­pétences pratiques en BI pour maîtriser l’art de transformer les données en insights stratégiques à l’aide de Python.

L’ouvrage débute par une introduction aux fondamentaux de la BI et explique pourquoi Python est devenu un outil incontournable dans ce domaine. Il guide ensuite le lecteur à travers l’installation et la configuration d’un environnement de développement robuste, en mettant l’accent sur les bonnes pratiques de codage et de gestion de projet.

Les chapitres suivants abordent en profondeur les aspects essen­tiels de la BI avec Python :

• l’extraction et le nettoyage des données à partir de diverses sources (fichiers, bases de données, API, web scraping) ;

• l’analyse statistique approfondie, incluant des techniques descriptives et inférentielles ;

• la conception et l’implémentation de data warehouses ;

• l’automatisation des pipelines de données avec des outils comme Airflow et Luigi ;

• la création de tableaux de bord interactifs et de rapports percutants avec Streamlit, Taipy et Dash ;

• et les considérations éthiques, de sécurité et de conformité au RGPD dans les projets de BI.

Chaque chapitre est enrichi d’exemples concrets, de cas d’études et d’exercices pratiques, permettant aux lecteurs de mettre immé­diatement en application les concepts appris.

Téléchargements

Avant-propos
  1. Introduction
  2. À qui s'adresse ce livre??
  3. Objectifs et approche
  4. Ce que n'est pas Business Intelligence avec Python
  5. Structure et progression
  6. Ce que vous apprendrez
  7. En conclusion
Python comme principal outil de BI
  1. Qu'est-ce que la Business Intelligence ?
    1. 1. Définition et évolution
    2. 2. Composantes clés de la Business Intelligence
    3. 3. Avantages et évolution de la Business Intelligence
    4. 4. Approche programmatique de la BI
  2. Pourquoi Python? ?
    1. 1. Préambule
    2. 2. Tendances
  3. Python pour la Business Intelligence
  4. Quels avantages à utiliser Python pour la Business Intelligence? ?
  5. Installation de votre environnement
    1. 1. Installation de Python
      1. a. Quelle version de Python choisir??
      2. b. Installation sous Ubuntu
      3. c. Installation sous Windows 11
      4. d. Installation Windows 11 sans droits administrateur
    2. 2. Choix d’un IDE
      1. a. Exploration de données avec Jupyter Notebooks
      2. b. Environnements de développement intégré (IDE)pour la production
  6. Quelques bonnes pratiques avant de débuter
    1. 1. Versionnage
      1. a. Création de votre repository
      2. b. Clonage du repository
      3. c. Ajout de fichiers et commit
      4. d. Création de branches
      5. e. Pull requests
    2. 2. Structurer votre projet
    3. 3. Écrire du code propre et maintenable
      1. a. Bonnes pratiques de formatage et de syntaxe
      2. b. Documentation automatique
      3. c. Environnements virtuels
      4. d. Logging avec Python
      5. e. Testez votre code
      6. f. Débogage
      7. g. Intégration continue avec GitHub Actions
Extraire vos données depuis n'importe quelle source
  1. Présentation de la librairie pandas
    1. 1. Qu’est-ce qu’un DataFrame ?
    2. 2. Structure d’un DataFrame
    3. 3. Principaux attributs d’un DataFrame
      1. a. Attribut shape
      2. b. Attribut columns
      3. c. Attribut index
      4. d. Attribut dtypes
      5. e. Méthodes head() et tail()
  2. Fichiers plats ou autres formats structurés
    1. 1. CSV, TXT et TSV
    2. 2. XLS, XLSX
    3. 3. JSON
    4. 4. XML
    5. 5. PDF
    6. 6. Cas particulier des données tabulaires stockées  sous formed’images
  3. Bases de données relationnelles
    1. 1. Qu’est-ce qu’une base de données relationnelle ?
    2. 2. Quelles sont les bases les plus courantes ?
    3. 3. Bases PostgreSQL
    4. 4. Bases MySQL
    5. 5. Bases SQLite
  4. Bases de données NoSQL
    1. 1. Qu’est-ce qu’une base de données NoSQL ?
    2. 2. Connexion à une base MongoDB
  5. Entrepôts de données
    1. 1. Qu’est-ce qu’un entrepôt de données ?
    2. 2. Choix des solutions NoSQL
    3. 3. Connexion aux bases avec Python
      1. a. BigQuery
      2. b. Snowflake
      3. c. Bonnes pratiques
  6. Serveurs FTP/SFTP
    1. 1. Qu’est-ce que le FTP ?
    2. 2. Qu’est-ce que SSH??
    3. 3. Connexion avec Python
  7. Interface de programmation d'application (API)
    1. 1. Pourquoi utiliser une interface de programmation d’application ?
    2. 2. Quelques définitions et un peu de théorie
      1. a. Les types de requêtes
      2. b. Points de terminaison
    3. 3. Les codes de réponse
    4. 4. Le résultat de la requête
      1. a. Attribut text
      2. b. Attribut raw
      3. c. Attribut content
      4. d. Méthode json
    5. 5. Les librairies requests et json
      1. a. Présentation de la librairie requests
      2. b. Présentation de la librairie json
      3. c. Installation
      4. d. Utilisation d’API sans authentification
      5. e. Appels API concurrents avec le multithreading
      6. f. Requêtes API avec authentification
    6. 6. Bonnes pratiques
    7. 7. Illustration pratique
    8. 8. Pour s’entraîner
  8. Web scraping
    1. 1. Bases de HTML/CSS
      1. a. HTML (HyperText Markup Language)
      2. b. CSS (Cascading Style Sheets)
    2. 2. Utilisation de requests et BeautifulSoup
    3. 3. Méthodologie
    4. 4. Web Scraping avec selenium
Préparer vos données pour en exploiter le potentiel
  1. Qualité des données : rappel
    1. 1. Qu’est-ce que la qualité des données ?
    2. 2. Pourquoi est-ce que la QDD est importante ?
    3. 3. Les principaux critères de la QDD
      1. a. Exactitude (accuracy)
      2. b. Exhaustivité (completeness)
      3. c. Cohérence (consistency)
      4. d. Actualité (timeliness)
      5. e. Validité (validity)
      6. f. Unicité (uniqueness)
  2. Nettoyage de données
    1. 1. Premiers pas avec la librairie pandas
    2. 2. Présentation de notre jeu de données
    3. 3. Manipulations de base d’un jeu de données
      1. a. Méthode head()
      2. b. Attribut shape
      3. c. Attribut columns
    4. 4. Création de sous-ensembles
      1. a. Sélections de colonnes
      2. b. Sélections avec les méthodes locet iloc
      3. c. Sélections conditionnelles
    5. 5. Nettoyage du jeu de données
      1. a. Gestion des doublons
      2. b. Valeurs manquantes
      3. c. Modification des éléments
    6. 6. Traitements avancés
      1. a. Valeurs aberrantes
      2. b. Valeurs approximatives
      3. c. Séries temporelles
  3. Les quatre piliers de la manipulation de données avec pandas
    1. 1. Filtrage avancé d’un DataFrame avec les opérateursbinaires
    2. 2. Unir des DataFrames avec concat et merge
    3. 3. Fusion de DataFrames avec la méthode merge
    4. 4. Trier et ordonner les valeurs d’un DataFrame :méthodes sort_values et sort_index
    5. 5. Grouper les éléments d’un DataFrame :méthodes groupby, agg et crosstab
Analyser et comprendre vos données
  1. Introduction
    1. 1. Types de variables
    2. 2. Notions de population et d’échantillon
    3. 3. Lois de probabilités statistiques
  2. Statistiques descriptives
    1. 1. Analyse univariée
      1. a. Indicateurs de position
      2. b. Indicateurs de dispersion
    2. 2. Analyse bivariée
      1. a. Corrélation entre variables quantitatives
      2. b. Association entre variables qualitatives
      3. c. Relation entre variable qualitative et quantitative
  3. Inférence statistique
    1. 1. Notion d’intervalle de confiance
    2. 2. Principes des tests d’hypothèses
    3. 3. Tests paramétriques
      1. a. Test de normalité
      2. b. Test t de Student
      3. c. ANOVA à un facteur
    4. 4. Tests non paramétriques
      1. a. Test de Mann-Whitney
      2. b. Test de Kruskal-Wallis
  4. Techniques avancées d'analyse statistique
    1. 1. Régression linéaire simple et multiple
      1. a. Régression linéaire simple
      2. b. Interprétation des coefficients
    2. 2. Régression linéaire multiple
      1. a. Estimation des paramètres
      2. b. Interprétation des coefficients
    3. 3. Évaluation approfondie du modèle
    4. 4. Limites et considérations
    5. 5. Predictive Power Score
  5. Cas d'étude : A/B testing en marketing
    1. 1. Présentation du contexte et des objectifs
    2. 2. Conception de l’expérience A/B
    3. 3. Collecte et préparation des données
    4. 4. Analyse statistique des résultats
      1. a. Statistiques descriptives
      2. b. Test d’hypothèse pour la comparaison desgroupes
      3. c. Calcul et interprétation de la taille d’effet
    5. 5. Visualisation des résultats
    6. 6. Interprétation et prise de décisionbasée sur les données
    7. 7. Limitations et considérations pour les futurstests
Créer un Data Warehouse
  1. Introduction
    1. 1. Définitions préalables
      1. a. OLTP (Online Transaction Processing)
      2. b. OLAP (Online Analytical Processing)
    2. 2. Qu’est-ce qu’un Data Warehouse??
  2. Les caractéristiques et les bénéfices d'un Data Warehouse
    1. 1. Les caractéristiques principales
    2. 2. Les bénéfices d’un Data Warehouse
  3. Les composants d'une architecture analytique
  4. Les différents types d’architecture d'un projet analytique
    1. 1. Architecture Single Tier
    2. 2. Architecture Two Tier
    3. 3. Architecture Three Tier
    4. 4. Conclusion
  5. Normalisation/dénormalisation
  6. Différentes méthodes de design de DWH
    1. 1. Méthodologie de design Inmon
    2. 2. Méthodologie de design Kimball
    3. 3. Méthodologie de design OBT simple
    4. 4. Méthodologie de design data vault
    5. 5. Le cycle de vie d’un projet de Data Warehouse
  7. Les différents types de tables dans un Data Warehouse
    1. 1. Les tables de faits (fact tables)
    2. 2. Les tables de dimensions (dimension tables)
  8. Les schémas
    1. 1. Star Schema (schéma en étoile)
    2. 2. Snowflake Schema (schéma en flocon de neige)
  9. Projet Data Warehouse
    1. 1. Prérequis
      1. a. Ubuntu
      2. b. Windows
      3. c. Windows
    2. 2. Script Python
    3. 3. Création du diagramme ERD
    4. 4. Requêtes
Automatiser votre pipeline
  1. Introduction aux ETL et à l'automatisation des pipelines de données
    1. 1. Définition et importance des ETL
    2. 2. Avantages de l’automatisation des pipelines de données
    3. 3. Aperçu des outils d’automatisation : Airflowet Luigi
  2. Apache Airflow : un outil puissant pour l'orchestration des workflows
    1. 1. Présentation d’Airflow
    2. 2. Concepts clés : DAG, Tasks, Operators
    3. 3. Installation et configuration de base (Linux)
    4. 4. Création d’un pipeline simple avec Airflow
    5. 5. Avantages et cas d’utilisation
  3. Luigi : une alternative légère pour l'automatisation des tâches
    1. 1. Introduction à Luigi
    2. 2. Concepts fondamentaux : Tasks, Targets, Parameters
    3. 3. Installation et configuration
    4. 4. Création d’un pipeline de base avec Luigi
    5. 5. Principaux avantages et cas d’utilisation
  4. Comparaison entre Airflow et Luigi
    1. 1. Architecture et conception
    2. 2. Définition et gestion des workflows
    3. 3. Planification et exécution
    4. 4. Intégration et extensibilité
    5. 5. Scalabilité et performance
    6. 6. Communauté et support
  5. Bonnes pratiques pour concevoir des pipelines de données avec Python
    1. 1. Modularité et réutilisabilité ducode
    2. 2. Gestion des erreurs et reprise sur échec
    3. 3. Logging et monitoring
    4. 4. Versioning des pipelines
    5. 5. Tests et validation des données
    6. 6. Documentation du code et des processus
  6. Cas pratique : création d'un pipeline ETL complet
    1. 1. Définition des besoins et du flux de données
      1. a. Structure du code
      2. b. Fonctions ETL (etl_functions.py)
      3. c. DAG Airflow
      4. d. Avantages de cette approche
    2. 2. Implémentation avec Airflow
    3. 3. Implémentation avec Luigi
    4. 4. Comparaison des approches et discussion
  7. Conclusion et perspectives
    1. 1. Récapitulatif des points clés
    2. 2. Tendances futures dans l’automatisation des pipelinesde données
Visualiser vos données
  1. Introduction à la visualisation des données
  2. Pourquoi visualiser les données ?
    1. 1. Au-delà des chiffres : l’importancede la visualisation
    2. 2. Python : un outil sans limites
  3. Tour d'horizon des différentes librairies graphiques avec Python
    1. 1. Un écosystème riche et diversifié
    2. 2. Le trio gagnant : matplotlib, seaborn et Plotly
    3. 3. matplotlib
      1. a. Installation
      2. b. Présentation du jeu de données
      3. c. Graphiques en ligne
      4. d. Diagrammes en barres
      5. e. Nuage de points
    4. 4. seaborn
      1. a. Installation
      2. b. Jeu de données
      3. c. Histogrammes
      4. d. Boîtes à moustaches
      5. e. Nuage de points
      6. f. Matrice de corrélation
      7. g. Pairplot
    5. 5. Plotly
      1. a. Introduction
      2. b. Installation
      3. c. Graphique en cascade
      4. d. Indicateurs
      5. e. Jauges
      6. f. Funnel
      7. g. Cartes
      8. h. Treemaps
    6. 6. Les graphiques « sur mesure »
      1. a. Graphiques combinés
      2. b. Graphique de ruban
      3. c. Area chart
  4. Bonnes pratiques de conception
  5. Cas pratique
Tableaux de bord et rapports
  1. Des données aux décisions : exploiter au mieux le tableau de bord
  2. Storytelling : l'art de faire parler vos données
  3. Maîtriser les tableaux de bord BI avec Python
    1. 1. Streamlit
      1. a. Installation
      2. b. Les composants
      3. c. Optimisations
      4. d. Notre premier tableau de bord Streamlit
    2. 2. Taipy
      1. a. Installation
      2. b. Les composants de base
      3. c. Premier tableau de bord Taipy
      4. d. Création d’interfaces avec taipy.gui.builder
    3. 3. Dash
      1. a. Installation
      2. b. Les composants de base
      3. c. Éléments de structure de page
      4. d. Contrôle et interactivité
      5. e. Création du tableau de bord avec Dash
  4. Créer des rapports BI percutants (et rapidement)
    1. 1. Jupyter Notebooks
    2. 2. Quarto
  5. Diffuser et partager vos analyses
    1. 1. Développement local
    2. 2. Préparation au déploiement
    3. 3. Options de déploiement
      1. a. Plateformes de déploiement spécifiquesaux frameworks
      2. b. Plateformes cloud polyvalentes
      3. c. Hébergement statique avec générationcôté client
      4. d. Serveurs privés virtuels (VPS)
    4. 4. Sécurité et accès
    5. 5. Maintenance et mise à jour
Éthique, sécurité et RGPD
  1. Introduction
    1. 1. Importance de l’éthique, de la sécurité etdu RGPD en Business Intelligence
    2. 2. Enjeux actuels dans le traitement des donnéesd’entreprise
  2. Éthique dans la Business Intelligence
    1. 1. Principes éthiques fondamentaux en BI
      1. a. Transparence
      2. b. Équité
      3. c. Responsabilité
    2. 2. Biais dans les données et les analyses
      1. a. Types de biais courants
      2. b. Conséquences des biais sur les décisionsd’entreprise
    3. 3. Prise de décision éthique baséesur les données
    4. 4. Gouvernance des données éthique
  3. Sécurité des données en Business Intelligence
    1. 1. Importance de la sécurité des donnéesen entreprise
    2. 2. Menaces courantes pour la sécurité desdonnées
      1. a. Cyberattaques
      2. b. Fuites de données internes
      3. c. Erreurs humaines
    3. 3. Meilleures pratiques de sécurité desdonnées
      1. a. Contrôle d’accès et authentification
      2. b. Chiffrement des données
      3. c. Sauvegardes et plans de reprise après sinistre
    4. 4. Formation et sensibilisation des employés à lasécurité
  4. RGPD et conformité en Business Intelligence
    1. 1. Vue d’ensemble du RGPD
    2. 2. Principes clés du RGPD applicables à laBI
      1. a. Consentement et base légale du traitement
      2. b. Minimisation des données
      3. c. Limitation de la finalité
    3. 3. Droits des individus sous le RGPD
      1. a. Droit d’accès
      2. b. Droit à l’effacement
      3. c. Droit à la portabilité des données
    4. 4. Mise en conformité RGPD dans les projetsde BI
      1. a. Analyse d’impact relative à la protectiondes données (AIPD)
      2. b. Privacy by Design et Privacy by Default
    5. 5. Gestion des violations de données et notification
  5. Intégration de l'éthique, de la sécurité et du RGPD dans les processus de BI
    1. 1. Création d’une culture d’entreprise axéesur l’éthique et la protection des données
    2. 2. Intégration des considérations éthiqueset de confidentialité dans le cycle de vie des projetsBI
    3. 3. Audits et évaluations régulières
    4. 4. Collaboration entre équipes (BI, juridique,sécurité, conformité)
  6. Défis et opportunités futurs
    1. 1. Évolution des réglementations surla protection des données
    2. 2. Innovations technologiques et leurs implications éthiques
    3. 3. Équilibre entre innovation et protectiondes données
  7. Conclusion
  8. Ressources complémentaires
    1. 1. Guides et cadres éthiques
    2. 2. Outils et ressources pour la sécurité desdonnées
Auteur : Gaël PENESSOT

Gaël PENESSOT

Fort de 15 ans d'expérience en Python et en analyse de données, Gaël PENESSOT allie expertise technique et vision business. Il partage sa passion pour la data et la BI à travers des formations, du contenu LinkedIn et des missions de conseil, rendant accessibles les outils essentiels de l'analyse moderne. Avec ce livre, il poursuit son envie de partager ses connaissances et permet aux lecteurs de mettre immédiatement en application les concepts pour la création d’outils BI avec le langage Python.
En savoir plus

Nos nouveautés

voir plus