Skip to content

SocialGouv/recosante

Repository files navigation

Recosante

Recosante : Un service public numérique de recommandations d'actions pour réduire l'impact de l'environnement sur sa santé.

Accessible sur https://recosante.beta.gouv.fr/

Ce dépôt est un monorepo créé pour faciliter le déploiement sur l'infrastructure de la Fabrique numérique des ministères sociaux.

Les sous-dossiers ont été repris du travail effectué par l'équipe dédiée de beta.gouv.fr, à partir des dépôts suivant :

Brève description

Recosanté est composé de trois services :

  • Une API d’exposition des indicateurs qui est dans ce dépot, techniquement il s’agit d’une API écrite en python avec le framework Flask. Cette API sert aussi à gérer les abonnements au service.

  • Un service qui envoie les newsletters, techniquement c’est un worker celery qui est passe toutes les heures pour voir s’il doit envoyer des mails ou bien des notifications web.

  • Un service qui sauvegarde les différents indices (indice ATMO, épisodes de pollution, Risque d'allergie lié à l'exposition aux pollens (RAEP), vigilance météo, indice UV). Le code de ce service se trouve ici.

Les données sont stockées dans une base de données postgresql, dans le schéma public pour les données d’abonnements, et dans le schéma indice_schema pour les données de prévisions des différents indices renvoyés.

Structure et projets

indice_pollution

Ce projet utilise celery pour interroger différentes API (AirParif, indice ATMO régionaux, ...) et alimenter sa propre base de données (shema indice_schema) toutes les heures.

Il s'exporte de plus comme une librairie utilisable par nimporte quel projet.

Plus d'information dans le README.md du projet.

api

Ce projet utilise également celery pour générer des envois de mails aux utilisateurs ayant souscrit à la newsletter via Brevo (ex sendInBlue). Il contient une API flask qui sert la data nécessaire au site web. Il comporte un schema propre lui permettant de stocker les utilisateurs, newsletters et incriptions. Il utilise enfin la librarie indice_pollution pour interroger le schema indice_schema.

Plus d'information dans le README.md du projet.

frontend

Ce projet est le site recosanté. Il utilise Gatsby.

Plus d'information dans le README.md du projet.

mail

Ce projet contient les templates mails utilisés par Brevo (ex sendInBlue).

Plus d'information dans le README.md du projet.

Stack technique

Notre stack technique est principalement composée de :

  • front-end : React, Gatsby.
  • back-end : Python, Flask, Celery / Redis, PostgreSQL.
  • hébergement et autres services : Docker, Kubernetes, Brevo (ex Sendinblue).

Schéma simplifié d'architecture

flowchart TD
    subgraph Internet
        user[Utilisateur]
        brevo["Brevo (Ex SendInBlue)"]
        subgraph apis[APIs externes]
            atmo[API ATMO data par région]
            airparif[API AirParif]
            ftp[FTP clever cloud]
        end
    end

    subgraph Azure
        subgraph Kubernetes
            frontend[Service FrontEnd]
            flower["Service Flower (Celery UI)"]
            redis[Sevice Redis]
            subgraph serviceAPI[Service API]
                api[API]
                celeryAPI[Celery]
                indiceLib[Librairie Indice pollution]
            end

            subgraph serviceIndice[Service Indice pollution]
                indice[Indice pollution]
                celeryIndice[Celery]
            end
        end

        subgraph PostgreSQL
            apiSchema[API Schema]
            indiceSchema[Indice Schema]
        end
    end

    user-->|consulte|frontend
    user-->|no auth|api
    user-->|basic-auth|flower
    flower-->redis
    celeryAPI-->redis
    celeryIndice-->redis
    frontend<-->|data|serviceAPI
    serviceAPI<-->|data|apiSchema
    brevo<-->|sync + gestion mails|celeryAPI
    celeryIndice-->|synchro toutes les heures|indiceSchema
    apis-->|data|celeryIndice
    indiceSchema-->|requêtes|indiceLib
    indiceLib-->|requêtes|api

Récolte des données pour les indicateurs

Baignades

  1. le frontend utilise le code INSEE de la commune pour requêter le backend
  2. de ce code INSEE on requête notre base de données (table indice_schema/commune) qui contient 35096 communes, afin de récupérer le code du département (01, 02, 03...)
  3. de ce code département on récupère aussi un idCarte (fra, reu, may, guy, mar...)
  4. on exécute une requête non authentifiée vers https://baignades.sante.gouv.fr/baignades/siteList.do?idCarte={0}&insee_com={1}&code_dept={2}&f=json avec les paramètres récupérés précédemment afin de récupérer la liste des sites de baignades concernés
  5. on crée un code département dptddass (le code département en 3 chiffres, précédés de 0 si nécessaire)
  6. on extrait de la requête effectuée en 4 un isite grâce auquel on compose un nouvel id de site idSite ({dptddass}{isite})
  7. on calcule l'année concernée, différente selon les hémisphères
  8. on exécute une requête non authentifiée vers https://baignades.sante.gouv.fr/baignades/consultSite.do?dptddass={0}&site={1}&annee={2} qui renvoie un html
  9. on parse ce html afin de retrouver les informations que l'on souhaite: Début de la saison, Fin de la saison, Interdictions le cas échéant, Observations, Échantillons, Rang.
  10. on renvoie au frontend l'ensemble des informations disponibles

Potentiel Radon

Le Potentiel Radon n'est pas une donnée dynamique

  1. le frontend utilise le code INSEE de la commune pour requêter le backend
  2. de ce code INSEE on requête notre base de données (table indice_schema/potentiel_radon) qui contient 35002 communes, afin de récupérer le potentiel (entre 1 et 3)
  3. on renvoie au frontend

Indice UV ✅

  1. chaque matin à 7h un fichier YYYYMMDD.csv contenant les indices UV de la journée est déposé par une tierce partie sur un bucket Clever Cloud. Ce fichier est structuré de cette manière pour quelques 36608 communes: Code insee, Commune, Date, UV_J0, UV_J1, UV_J2, UV_J3.
  2. un cron job est exécuté toute les heures pour se connecter via FTP au bucket et récupérer les indices UV.
  3. toutes les données sont enregistrées en base de données dans la table indice_schema/indice_uv (19 millions de lignes fin août 2023)
  4. ainsi pour chaque requête du frontend, on requête notre base de données et on renvoie au frontend

RAEP (Risque d'allergie lié à l'exposition aux pollens) ✅

  1. un cron job est exécuté toute les heures pour faire une requête non authentifiée vers https://www.pollens.fr/docs/ecosante.csv qui renvoie un csv avec toutes les données pour chaque département de France métropolitaine
  2. ces données sont valables pour une semaine, de mercredi à mercredi.
  3. on parse ce CSV et on alimente notre base de données dans la table indice_schema/raep
  4. le frontend fait une requête avec le code INSEE de la commune, et le backend trouve le code département associé
  5. ainsi pour chaque requête du frontend, on requête notre base de données et on renvoie au frontend

Vigilance météo ✅

  1. un cron job est exécuté toute les heures pour faire une requête authentifiée vers https://public-api.meteofrance.fr/public/DPVigilance/v1/cartevigilance/encours qui renvoie un JSON avec touts les données à la date d'aujourd'hui et demain
  2. ce json est parsé et on alimente notre base de données dans la table indice_schema/vigilance_meteo, avec des données par département
  3. le frontend fait une requête avec le code INSEE de la commune, et le backend trouve le code département associé
  4. ainsi pour chaque requête du frontend, on requête notre base de données et on renvoie au frontend

Indices ATMO

Cette partie est la plus délicate :) puisqu'elle nécessite de récupérer des données de beaucoup de sources différentes, par région

  1. Un cron job est exécuté toute les heures pour faire une requête vers une API ou un site sur lequel on peut scrapper les données et les récupérer en format JSON. Si les données sont récupérées par une API alors les formats sont généralement identiques (format normalisé) même si les données peuvent être récupérées sur différents sites selon les régions.
  2. Pour chaque code insee(zone_id), on associe les données no2, so2, o3, pm10, pm25, valeur, date_ech (date de la journée prédite) et date_diff(date lorsque la prédiction a été effectuée) pour ensuite alimenter la base de données indice_schema/IndiceATMO, en mettant à jour les données existantes s'il y en a.
  3. Le frontend fait une requête avec le code INSEE de la commune, et le backend trouve la zone associée dans la base de données.
  4. Ainsi pour chaque requête du frontend, on requête notre base de données et on renvoie au frontend

Pour chaque région, voici le détail concernant la récupération des données avec l'API ou le scrapping :

Auvergne-Rhône-Alpes

Scrapping (mais en réalité simple requête API) : Requête authentifiée vers https://api.atmo-aura.fr/api/v1/communes/{insee}/indices/atmo?api_token={api_key}&date_debut_echeance={date_} qui renvoie un JSON avec toutes les données à partir de la date du jour.

Bourgogne-Franche-Comté (ne fonctionne pas) 🚨

Requête API non authentifiée vers https://atmo-bfc.iad-informatique.com/geoserver/ows qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25) à partir de la date du jour.

Bretagne (ne fonctionne pas) 🚨

Requête API non authentifiée vers https://data.airbreizh.asso.fr/geoserver/ind_bretagne/ows qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25) à partir de la date du jour.

Centre-Val de Loire

Dans le code il semble que ce soit : https://www.ligair.fr/ville/city?q=01400 (où le code postal est envoyé en params via 'q'.

Mais je ne reçois que des tableaux vides ensuite. Si requête vers https://www.ligair.fr/ville/city : On reçoit un objet de type key:number, value:nom_de_ville.

Requête API non authentifiée vers https://geo.api.gouv.fr/communes/{insee} pour récupérer le code postal de la ville, puis requête vers http://www.ligair.fr/ville/city pour récupérer le nom de la ville dans le bon format pour ensuite scrapper http://www.ligair.fr/commune/{ville_bon_format} pour récupérer les polluants responsables des dégradations de la qualité de l'air.

Corse ✅

Requête API non authentifiée vers https://services9.arcgis.com/VQopoXNvUqHYZHjY/arcgis/rest/services/indice_atmo_communal_corse/FeatureServer/0/query?outFields=*&outSR=4326&f=json&orderByFields=date_ech DESC&where=date_ech >= CURRENT_DATE - INTERVAL '1' DAY qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25) à partir de la date du jour.

Grand Est ✅

Requête API non authentifiée vers https://opendata.arcgis.com/api/v3/datasets/b0d57e8f0d5e4cb786cb554eb15c3bcb_0/downloads/data?format=geojson&spatialRefId=4326 qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Guadeloupe ✅

[À PRÉCISER] Requête sur https://services8.arcgis.com/7RrxpwWeFIQ8JGGp/arcgis/rest/services/ind_guadeloupe_1/FeatureServer/0/query: il s'agit d'une page où il faudrait faire du scrapping - mais aucun signe de scrapping dans la codebase 🧐.

Si on reprend les query params de la Corse on obtient des résultats pour la Guadeloupe: https://services8.arcgis.com/7RrxpwWeFIQ8JGGp/arcgis/rest/services/ind_guadeloupe_1/FeatureServer/0/query?outFields=*&outSR=4326&f=json&orderByFields=date_ech DESC&where=date_ech >= CURRENT_DATE - INTERVAL '1' DAY

Guyane (Erreur 404)

Requête API non authentifiée vers https://dservices8.arcgis.com/5JImMrIjAqUJnR3H/arcgis/services/ind_guyane_nouvel_indice/WFSServer?service=wfs&version=2.0.0&request=getfeature&typeName=ind_guyane_nouvel_indice:ind_guyane_agglo&outputFormat=GEOJSON qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Hauts-de-France ✅

Requête API non authentifiée sur https://services8.arcgis.com/rxZzohbySMKHTNcy/arcgis/rest/services/ind_hdf_2021/FeatureServer/0/query?outFields=*&outSR=4326&f=json&orderByFields=date_ech DESC&where=date_ech >= CURRENT_DATE - INTERVAL '1' DAY qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Île-de-France ✅ (pb avec la trop longue liste des codes insee)

Requête API authentifiée vers https://api.airparif.asso.fr/indices/prevision/commune?insee={insee} qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Martinique ✅

Requête API non authentifiée vers https://services1.arcgis.com/y8pKCLYeLI1K2217/arcgis/rest/services/Indice_QA/FeatureServer/0/query?where=1=1&f=json&returnGeometry=False&orderByFields=ESRI_OID&outFields=* qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Mayotte

Pas de données récupérées.

Normandie ✅

Requête API non authentifiée vers https://api.atmonormandie.fr/index.php/lizmap/service/?project=flux_indice_atmo_normandie&repository=dindice&OUTPUTFORMAT=GeoJSON&SERVICE=WFS&REQUEST=GetFeature&dl=1&TYPENAME=ind_normandie_3jours&VERSION=1.0.0 qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Nouvelle-Aquitaine ✅

Requête API non authentifiée vers https://opendata.atmo-na.org/geoserver/alrt3j_nouvelle_aquitaine/wfs?service=wfs&request=getfeature&typeName=alrt3j_nouvelle_aquitaine:alrt3j_nouvelle_aquitaine&outputFormat=json&PropertyName=code_zone,lib_zone,date_ech,date_dif,code_pol,lib_pol,etat,couleur,com_court,com_long qui renvoie un GeoJSON du type suivant, que l'on mappe ensuite avec notre schéma de données:

{
    "type": "Feature",
    "id": "alrt3j_nouvelle_aquitaine.26",
    "geometry": null,
    "properties": {
        "code_zone": "17",
        "lib_zone": "CHARENTE-MARITIME",
        "date_ech": "2023-09-05T10:00:00Z",
        "date_dif": "2023-09-04T16:16:34.233Z",
        "code_pol": "1",
        "lib_pol": "Dioxyde de soufre",
        "etat": "PAS DE DEPASSEMENT",
        "couleur": "#19ff19",
        "com_court": null,
        "com_long": null
    }
}

Occitanie

Requête API non authentifiée vers https://geo.api.gouv.fr/communes/{insee} pour récupérer le nom de la ville dans son bon format pour ensuite scrapper https://www.atmo-occitanie.org/{ville_bon_format}.

Pays de la Loire ✅

Requête API non authentifiée vers https://data.airpl.org/geoserver/ind_pays_de_la_loire/wfs?version=2.0.0&typeName=ind_pays_de_la_loire:ind_pays_de_la_loire&service=WFS&outputFormat=application/json&request=GetFeature&CQL_FILTER=date_ech >= '2023-09-04T00:00:00Z' qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Réunion

Pas de données récupérées.

Sud ✅

Requête API non authentifiée vers https://geoservices.atmosud.org/geoserver/ind_sudpaca/ows?service=WFS&version=1.1.0&request=GetFeature&typeName=ind_sudpaca:ind_sudpaca&CQL_FILTER=date_ech >= '2023-09-04T00:00:00Z'&outputFormat=json qui renvoie un JSON avec toutes les données (chaque code insee avec son code no2, so2, o3, pm10, pm25).

Développement

Requirements

Le projet est basé sur les outils suivant

# Environnements conteneurisés
docker
docker-compose

# Projets python
python
pip
poetry

# Projets JavaScript
node
npm
yarn

Si vous souhaitez lancer le projet en local, nous vous invitons à installer tous ces binaires et à les avoir diponibles dans le PATH de votre terminal.

Lancer tous les services

Tous les services peuvent être lancés via la commande

yarn start

ou

docker-compose up

Lancer les services en local

Merci de vous référer au README.md de chaque projet que vous souhaitez lancer en local. Gardez en mémoire que ces projets ont besoin d'autres services pour fonctionner (base de données, redis...). Afin de lancer en local le minimum nécessaire à l'exécution de chaque projet, vous pouvez utiliser la commande

yarn up

Stopper les conteneurs

A tout moment, vous pouvez stopper les conteneurs docker via les commandes

yarn stop

ou

docker-compose stop

Stoppera les conteneurs

yarn down

ou

docker-compose down

Stoppera et supprimera les conteneurs

Les volumes bases de données seront conservés. Si vous souhaitez les supprimer, veuillez le faire manuellement avec docker volume.

Tester

Afin d'exécuter les tests unitaires, merci de vous référer au README.md de chaque projet afin de préparer les variables d'environnement nécessaires. Une fois les instructions complétées, vous pouvez utiliser la commande

yarn test

à la racine du projet.

Linter

Afin d'exécuter le lint, merci de vous référer au README.md de chaque projet afin de préparer les dépendances nécessaires. Une fois les instructions complétées, vous pouvez utiliser la commande

yarn lint

Le projet utilise pylint. Pour autoformatter votre code avec vsCode, nous vous conseillons les extensions suivantes

Nota Bene

Lorsque vous développez sur la librairie indice_pollution ou sur l'api, vous devez utiliser leur virtual environnement respectifs. Cela peut être fait sous vscode en utilisant la commande command + shift + p, puis Python: Select Interpreter et choisir celui que vous souhaitez dans la liste afin que les dépendances soient résolues correctement.

Il faut que les .venv des projets soient installés avec poetry pour que vsCode les détecte. Merci de vous référer aux README.md de chaque projet.

pylint va vérifier l'ordre des imports. Pour les formatter automatiquement, nous vous conseillons d'utiliser isort. Cependant, il y a une limitation d'isort considérant les répertoires locaux comme des libraries. Vous pouvez lui spécifier de la configuration via vos settings vsCode (settings.json racine ou workspace).

{
  "isort.args": ["--known-local-folder", "ecosante", "--known-local-folder", "tests"]
}

Pour l'api

{
  "isort.args": ["--known-local-folder", "indice_pollution"]
}

Pour la librairie indice_pollution

Contribution et deploiement continu

Chaque contribution fonctionnelle se fait sous la forme de pull-requests.

A chaque création et mise à jour de pull-request, une nouvelle version de l’application est déployée sur le cluster kubernetes de la fabrique dans un environnement de démo (preview) qui lui est propre.

Une fois la pull-request validée, le merge dans la branche master va déclencher le déploiement dans l'environnement de pré-production sans interruption de service.

Pour déployer en production, une task github est disponible.

Licence

Apache 2.0 - Direction du numérique des ministère sociaux.

Voir LICENSE