🎯 À propos de moi
Développeur Full-Stack Python avec plus de 8 ans d'expérience, spécialisé dans :
- Développement d'APIs REST : (Flask, FastAPI, Django) sécurisées et performantes.
- Big Data et Analyse : Traitement et manipulation de données massives avec des outils comme PySpark et Pandas.
- DevOps et CI/CD : Intégration et déploiement continu avec Docker, Kubernetes, GitLab CI/CD.
- Modélisation Machine Learning : Développement et déploiement de modèles pour la prédiction et l'analyse.
- Mise en place d'architectures robustes et scalables pour des applications web et Big Data
- Cloud & Azure : Maîtrise des services Azure Key Vault, Azure Databricks, Azure Storage.
- Scrum Master certifié : Gestion Agile et optimisation des processus de développement
📄 Mon CV
📧 Email : ahmed.nasri.ing@gmail.com
🌍 LinkedIn : Ahmed Nasri
- Objectif : Ce projet est une API RESTful permettant de gérer une bibliothèque avec :
- 📖 Gestion des auteurs : Ajouter, lister et supprimer des auteurs.
- 📚 Gestion des livres : Ajouter, lister et supprimer des livres.
- 🔄 Gestion des emprunts : Permet aux utilisateurs d'emprunter des livres et de gérer le stock en temps réel.
- 🔐 Authentification JWT : Sécurisation des accès avec JSON Web Token.
- 🔍 Recherche de livres : Endpoint permettant de retrouver un livre par son titre.
- 🏗 Déploiement avec Docker & MongoDB : Conteneurisation pour une exécution facile et rapide.
- 📊 Gestion des logs : Supervision avancée des performances avec des logs et un suivi des requêtes.
- 🏗 Déploiement avec Docker & MongoDB..
- Détails Techniques :
- Python (Flask, MongoEngine, PyJWT, Pandas)
- Base de données : MongoDB.
- Gestion des Logs : logging pour suivre les opérations de l'API.
- Tests Unitaires : Pytest pour la validation des endpoints.
- Conteneurisation & Déploiement : Docker, Docker Compose.
- Challenges Résolus :
- 📌 Stockage optimisé avec MongoDB pour gérer efficacement les relations entre les livres, auteurs et emprunts.
- 🔐 Sécurisation des accès avec JWT pour protéger les endpoints sensibles.
- 📊 Monitoring des performances via des logs structurés.
- 🛠️ Automatisation des tests avec Pytest pour garantir la fiabilité des endpoints API.
- 🏗 Déploiement facile avec Docker, permettant une mise en production rapide et reproductible
- Tech Stack :
- Langage : Python
- Framework Web : Flask (Flask-RESTful, Flask-JWT-Extended)
- Base de données : MongoDB avec MongoEngine
- Outils de Conteneurisation : Docker, Docker Compose
- Gestion des logs et monitoring : Logging Python
- Tests : Pytest pour les tests unitaires
-
Objectif : Ce projet est une API RESTful permettant de gérer un système de coupons avec :
- 🎟️ Gestion des coupons : Ajouter, lister et supprimer des coupons.
- 🔢 Vérification d’éligibilité : Vérifie si un produit peut bénéficier d’un coupon.
- 📊 Calcul des réductions : Applique automatiquement le bon de réduction au produit.
- 🔐 Authentification JWT : Sécurisation des accès avec JSON Web Token.
- 🔄 Conditions avancées : Applique des règles complexes (
AND
,OR
,NOT
) sur les coupons. - 📌 Gestion des logs : Suivi des requêtes et des performances.
- 🏗 Déploiement avec Docker & MongoDB : Conteneurisation pour une exécution facile et rapide.
- Langage : Python
- Framework Web : Flask (
Flask-RESTful
,Flask-JWT-Extended
) - Base de données : MongoDB avec MongoEngine
- Gestion des logs : Logging Python (
logging
) - Tests unitaires :
pytest
pour la validation des endpoints - Conteneurisation & Déploiement : Docker, Docker Compose
- 📌 Optimisation du stockage avec MongoDB, en structurant efficacement les conditions des coupons.
- 🔐 Sécurisation des accès avec JWT pour protéger les endpoints sensibles.
- 📊 Monitoring avancé via des logs structurés et traçabilité des actions API.
- 🛠️ Tests automatisés avec pytest pour garantir la fiabilité des fonctionnalités critiques.
- 🏗 Déploiement facile avec Docker, permettant une mise en production rapide et reproductible.
- Objectif : Mise en place d'un pipeline ETL pour extraire, transformer et charger des données brutes vers une base de données optimisée.
- Détails Techniques :
- Airflow : Orchestration et planification des tâches.
- Pandas : Nettoyage et transformation des données.
- Monitoring : Prometheus pour la collecte des métriques, Grafana pour la visualisation.
- Docker : Conteneurisation du pipeline.
- Challenges Résolus :
- Supervision avancée des performances grâce à des tableaux de bord en temps réel.
- Gestion des tâches longues avec récupération automatique en cas d’échec.
- Tech Stack : Python, Apache Airflow, Pandas, Prometheus, Grafana, Docker.
- Objectif : Analyser des fichiers de logs volumineux pour détecter des anomalies et des tendances.
- Détails Techniques :
- PySpark : Traitement distribué des données pour gérer des volumes massifs.
- Visualisation : Utilisation de Matplotlib pour représenter les résultats.
- Features :
- Filtrage et agrégation des données pour obtenir des insights utiles.
- Exportation des résultats sous forme de rapports prêts à l'emploi.
- Tech Stack : Python, PySpark, Matplotlib.
- Objectif : Développement d’une application pour planifier et optimiser les visites de drones sur des sites spécifiques.
- Détails Techniques :
- Backend :
- API REST en Python Flask.
- Base de Données :
- PostgreSQL/PostGIS pour les calculs géospatiaux avancés.
- DevOps :
- Dockerisation complète.
- CI/CD avec GitLab.
- Tests :
- Tests backend avec Pytest.
- Backend :
- Tech Stack : Python Flask, sqlalchemy, PostgreSQL, Docker, Pytest.
- Objectif : Modélisation de la propagation d'épidémies avec des agents intelligents et du deep learning.
- Détails Techniques :
- Deep Learning : Utilisation de RNN (Recurrent Neural Networks) pour la prédiction.
- Simulation Multi-Agents : Modélisation des interactions entre agents (populations, lieux).
- Graph Neural Networks : Analyse des relations spatio-temporelles des données.
- Tech Stack : Python, TensorFlow, Matplotlib, Quantum.
Catégorie | Compétences |
---|---|
Langages de Programmation | Python, JavaScript, PHP, SQL |
Frameworks | Flask, Django, Pandas, PySpark, TensorFlow, Keras |
Bases de Données | PostgreSQL, MySQL, MongoDB, SQLite |
DevOps | Docker, GitLab CI/CD, Prometheus, Grafana, Kubernetes |
Cloud | Microsoft Azure (Blob Storage, Databricks) |
Méthodologies | Agile (Scrum), TDD, BDD |
Tests | Pytest, Unittest, Coverage |
- Application CRUD avec Django et Docker : Création d'une API sécurisée pour la gestion des utilisateurs.
- Automatisation avec Apache Airflow : Développement d’un pipeline ETL complexe intégrant des sources de données multiples.
- Analyse Financière avec Polars : Utilisation de Polars pour traiter et analyser rapidement des datasets financiers.
- Expertise en Python et frameworks associés.
- Maîtrise des environnements cloud et DevOps.
- Passion pour les systèmes distribués et l'optimisation des pipelines de données.
- Capacité à livrer des solutions robustes et scalables adaptées aux besoins clients.
🌍 N'hésitez pas à explorer mes dépôts et à me contacter pour toute collaboration ou opportunité !