Voici le backend de l'application Pass Culture; il est lancé via docker-compose
en utilisant le fichier
docker-compose-app.yml
du répertoire parent de api
: pass-culture-main
.
Plus de détails sur le lancement de l'infra docker-compose sont accessibles dans le README de pass-culture-main
Une documentation Swagger des APIs est générée selon l'OpenAPI Specification (OAS3) grâce à un schéma généré par Spectree:
- API Contremarque
- App Native
- Adage
- API privée et API publique dépréciée
- API pro publique v2
- API pro privée
Avec venv
(vous pouvez aussi utiliser virtualenv
si vous préférez, voire virtualenvwrapper
):
python3.10 -m venv ./venv
source venv/bin/activate
pip install -e .
pip install -r requirements.txt
La génération de PDF via weasyprint
nécessite également de suivre
ces étapes d'installation.
Prérequis au lancement des tests
Une base de données de test et un cache redis sont nécessaires à l'exécution des tests.
- Soit en démarrant les conteneurs de la base de données pc-postgres-test (spécifique aux tests) et du cache redis via docker-compose
docker-compose -f ../docker-compose-app.yml up -d postgres-test redis
- Soit en démarrant ces conteneurs via docker
docker run -d --name postgres -p 5434:5432 \
--env-file ../env_file \
-v postgres_local_data:/var/lib/postgresql/data \
cimg/postgres:12.9-postgis
docker run -d --name redis -p 6379:6379 \
-v redis_local_data:/data \
redis redis-server
- Soit en démarrant les services postgresql et redis, par exemple lorsqu'ils ont été installés via Homebrew:
brew services start postgresql brew services start redis
Les tests pourront ensuite être exécutés avec ou sans docker-compose
-
Lancement des tests via docker-compose
pc test-backend # Pour lancer tous les tests pc test-backend tests/core/offers/test_api.py::CreateOfferTest::test_create_offer_from_scratch # Pour lancer un test en particulier
-
Lancement des tests depuis la ligne de commande. Il est ainsi très simple d'accéder à
stdin
/stdout
via le paramètre-s
, par exemple pour utiliser des breakpoints.python -m pytest # Pour lancer tous les tests python -m pytest tests/core/offers/test_api.py::CreateOfferTest::test_create_offer_from_scratch # Pour lancer un test en particulier
Les tests utilisent leur propre base de données. Si un test a besoin d'accéder à la base de données, il faut décorer la fonction ou la classe avec:
@pytest.mark.usefixtures("db_session")
pour encapsuler le test dans une transaction. On peut aussi marquer le module entier en ajoutant sous les imports:
pytestmark = pytest.mark.usefixtures("db_session")
Les différentes fixtures utilisées dans les tests sont définies dans tests/conftest.py
Les variables d'environnement nécessaires au bon fonctionnement mais qui porte des données sensibles (identifiants, clés d'API, ...)
ne sont pas enregistrés dans les fichiers d'environnement du dépôt.
Il faut les ajouter dans le fichier api/.env.local.secret
.
pc start-backend
Si la base de données n'a pas été initialisée, vous devez suivre les étapes suivantes :
-
Ajouter cette variable au fichier
.env.local
à la racine du dépôt (en complétant par le port de votre serveur postgresql):DATABASE_URL=postgresql://pass_culture:passq@localhost:<port>/pass_culture
-
Installer les extensions et jouer les migrations
source venv/bin/activate flask install_postgres_extensions alembic upgrade pre@head alembic upgrade post@head
Vous pouvez maintenant lancer l'application Flask
python src/pcapi/app.py
Afin de naviguer/tester différentes situations de données, il existe dans api des scripts permettant d'engendrer des bases de données "sandbox".
La plus conséquente est industrial
, elle se créée via la commande:
flask sandbox -n industrial
Troubleshooting:
Si la commande sandbox renvoie des erreurs que je n'arrive pas à résoudre, tester de supprimer et reconstruire sa BDD locale. Pour ça:
- stopper les images lancées
- run:
docker rm -f pc-postgres
<= suppression container - run:
docker volume rm pass-culture-main_postgres_data
<= suppression données - relancer:
pc start-backend
- puis relancer:
pc sandbox -n industrial
Le backend ne permet pas (encore) de s'authentifier directement. On peut s'authentifier de deux manières:
- En se connectant sur Pro. Une fois authentifié, un cookie de session est stocké et le back validera le cookie.
- Sans session depuis le front Pro, une authentification est proposée via Google Account. Seuls les utilisateurs du projet passculture.app sont autorisés.
Il est possible de se connecter aux bases de données lancées via docker compose en utilisant les informations ci-dessous
-
pc-postgres
- user : pass_culture
- password : passq
- port : 5434
- database : pass_culture
-
pc-postgres-test
- user : pytest
- password : pytest
- port : 5433
- database : pass_culture
- Lancer python avec docker:
pc python
- Dans l'éditeur de code, identifier la factory
pcapi.core
. Tous les arguments sont renseignés par défaut et peuvent être surchargés. - importer la factory et l'utiliser: les données sont disponibles en localhost
>>> from pcapi.core.users.factories import UserFactory;
>>> UserFactory(email='[email protected]’);
On peut ensuite se connecter avec ce mail et le mot de passe par défaut en localhost.
>>> from pcapi.core.users.factories import UserFactory;
>>> user = UserFactory(email='[email protected]’)
>>> from pcapi.core.offerers.factories import OffererFactory
>>> factory = OffererFactory(siren=444444444)
>>> from pcapi.core.offerers.factories import UserOffererFactory
>>> UserOffererFactory(user, offerer)
On peut aussi surcharger directement les arguments des factories appelées par d'autres factories, en préfixant l'argument avec le nom de la factory secondaire suivie d'un double underscore. Les deux lignes suivantes sont équivalentes à celles qui précèdent:
>>> from pcapi.core.offerers.factories import UserOffererFactory
>>> UserOffererFactory(user__email='[email protected]’, offerer__siren=444444444)
>>> from pcapi.models import db
>>> db.session.rollback()
Pour une meilleure expérience de développement sur le repo API, des hooks (pre-commit , pre-push ) s'exécutent lorsqu'un commit est effectué sur le projet API,
L'environnement python en local est nécessaire pour que les outils d'analyse de code (isort
, batch
, pylint
...) se
lancent.
Si les hooks ne se lancent pas, lancer pc install-hooks
(commande incluse dans pc install
)
Des fichiers CONTRIBUTING.md
à la racine de différents modules Python du projet apporteront des détails et conseils
spécifiques.
Install openssl with
brew install openssl
if you don't have it already.add openssl path to
LIBRARY_PATH
:
export LIBRARY_PATH=$LIBRARY_PATH:/usr/local/opt/openssl/lib/
install psycopg2 with pip
pip3 install psycopg2
Autre piste
Après avoir lancé les tests avec Docker (pc test-backend
), les tests peuvent échouer en les lançant avec Python (python -m pytest
)
Il faut supprimer les fichiers de cache de pré-compilation de Python, par exemple avec la commande suivante
find . -type f -name "*.py[co]" -delete -or -type d -name "__pycache__" -delete
Lorsque les tests échouent avec l'erreur suivante
saml2.sigver.SigverError: Cannot find ['xmlsec1']
Il faut installer la dépendance xmlsec1
Sous OS X :
brew install libxmlsec1
Sous une distribution basée sur Debian :
apt install xmlsec1
Configurer le working directory par défaut pour être toujours à la racine de ce projet
Pour debugger sous IntelliJ Pycharm, configurer la configuration de lancement python en précisant :
-
Le script à lancer :
scr/pcapi/app.py
-
Les variables d'environnement
DATABASE_URL
etPORT
(Sinon le port sera 5001) -
Le répertoire de lancement (Working directory) qui doit pointer vers api
Le fichier de configuration vscode permet notamment de lancer black
et isort
lorsqu'un
fichier est sauvegardé.
Vérifier que l'interpréteur python utilisé par VSCode est le bon. Taper cmd+shift+P
puis Python: select interpreter
et choisir le python précédemment installé en local (virtual env ou pyenv).
Les commandes à lancer régulièrement (par example des synchro journalières) sont définies dans le fichier src/pcapi/scheduled_tasks/commands.py Pour que les commandes soient exécutées, il faut ouvrir une PR sur le repo pass-culture/pass-culture-deployment Les infos sont dans le README