Architecture des Données, Sécurité et Gouvernance
Comment Nexus Panthera protège, structure et maîtrise vos données
La donnée est aujourd’hui un actif stratégique pour toute entreprise. Informations clients, échanges commerciaux, historiques d’actions, données marketing : ces éléments sont au cœur de votre activité et méritent une protection à la hauteur de leur importance.
Nexus Panthera repose sur une architecture SaaS moderne, conçue selon les standards des grandes plateformes technologiques internationales. Notre priorité est claire : offrir une infrastructure sécurisée, fiable, transparente et conforme aux exigences des entreprises, y compris les plus grandes.
Cette page détaille précisément comment vos données sont hébergées, structurées, protégées, gouvernées et supprimées.
1. Un principe fondamental : vos données vous appartiennent
Avant toute considération technique, un engagement clair : les données traitées via Nexus Panthera sont utilisées exclusivement pour fournir le service que vous avez choisi.
Elles ne sont pas revendues, ni exploitées à des fins publicitaires, ni mutualisées pour créer des bases d’analyse inter-clients.
Chaque entreprise évolue dans un environnement logique distinct. La séparation des données n’est pas une option, c’est un principe d’architecture.
2. Pas de data lake mutualisé entre clients
Qu’est-ce qu’un data lake ?
Un data lake est un immense espace de stockage où des données brutes sont centralisées pour être exploitées à grande échelle, souvent à des fins analytiques ou d’intelligence artificielle.
Certaines plateformes regroupent toutes les données de leurs utilisateurs dans de tels environnements globaux.
Ce n’est pas le modèle de Nexus Panthera
La plateforme ne repose pas sur un data lake mutualisé entre clients.
Vos données ne sont pas versées dans un réservoir commun servant à croiser des informations entre entreprises.
Ce que cela signifie pour vous
Vos données ne sont jamais mélangées avec celles d’autres organisations
Elles ne sont pas utilisées pour entraîner des modèles globaux
Elles restent confinées à votre environnement applicatif
Si vous souhaitez créer votre propre data lake pour des analyses avancées, vous pouvez exporter vos données vers votre propre infrastructure, sous votre contrôle total.
3. Hébergement sur des infrastructures cloud de référence mondiale
Les données sont hébergées sur des infrastructures opérées par deux leaders mondiaux du cloud :
Amazon Web Services
Google Cloud Platform
Ces fournisseurs exploitent certains des centres de données les plus sécurisés au monde et disposent de certifications internationales majeures telles que ISO 27001, SOC 1, SOC 2, et bien d’autres.
Pourquoi c’est essentiel
Ces entreprises investissent massivement dans :
la cybersécurité
la protection physique des centres de données
la redondance électrique et réseau
la surveillance 24/7
la continuité d’activité en cas de sinistre
Cela garantit un niveau de sécurité et de disponibilité difficilement atteignable avec des infrastructures traditionnelles.
4. Architecture multi-cloud : résilience et performance
La plateforme n’est pas dépendante d’un seul fournisseur cloud. Certaines briques techniques peuvent être réparties entre AWS et Google Cloud.
Objectifs
Résilience : réduire le risque qu’un incident isolé impacte l’ensemble des services
Performance : optimiser la rapidité d’accès selon les usages
Continuité : maintenir un haut niveau de disponibilité
Cette approche est courante dans les architectures SaaS de niveau entreprise.
Quelles instances AWS ou Google Cloud sont utilisées ?
L’infrastructure utilisée repose sur des services cloud managés proposés par Amazon Web Services (AWS) et Google Cloud Platform (GCP).
Il est important de comprendre qu’on ne parle pas d’un serveur unique ou d’une “machine précise”, mais d’une architecture distribuée et élastique, composée de plusieurs types de ressources cloud qui travaillent ensemble.
Partie calcul (serveurs applicatifs)
Techniquement
Les traitements applicatifs (logique métier, automatisations, gestion CRM, API) reposent sur des instances de calcul virtualisées, équivalentes aux services :
AWS EC2 (Elastic Compute Cloud)
ou services de calcul managés côté Google Cloud (VM managées ou conteneurs)
Ces instances exécutent le code de l’application.
En clair
Ce sont les “moteurs” qui font tourner la plateforme :
quand un utilisateur modifie un contact, déclenche une automatisation ou consulte un tableau de bord, ce sont ces serveurs qui traitent l’action.
Pourquoi ce type d’instances ?
Parce qu’elles permettent :
d’augmenter automatiquement la puissance lors de pics d’activité
de répartir la charge sur plusieurs machines
d’éviter qu’un seul serveur devienne un point de défaillance
Bases de données
Techniquement
Les données structurées (contacts, opportunités, messages, etc.) sont stockées dans des bases de données relationnelles managées, équivalentes à :
AWS RDS ou Aurora (bases SQL managées)
Ces services gèrent automatiquement :
les sauvegardes
la réplication
la haute disponibilité
les mises à jour de sécurité
En clair
Ce sont les “bibliothèques intelligentes” où sont rangées vos données.
Elles sont conçues pour que les informations restent cohérentes, même si des milliers d’actions ont lieu en même temps.
Pourquoi des bases managées ?
Parce que cela réduit le risque humain et améliore :
la stabilité
la sécurité
la continuité de service
Stockage de fichiers
Techniquement
Les fichiers (pièces jointes, médias, documents) sont stockés sur du stockage objet, équivalent à :
AWS S3 (Simple Storage Service)
Ce type de stockage est :
redondé sur plusieurs machines
répliqué sur plusieurs zones
conçu pour durer dans le temps
En clair
Si vous uploadez un document ou une image, il est stocké dans un système distribué où la perte d’un disque ou d’un serveur n’entraîne pas la perte du fichier.
Réseau et sécurité
Techniquement
L’architecture utilise :
VPC (Virtual Private Cloud) pour isoler les environnements
pare-feu cloud (Security Groups, règles réseau)
équilibreurs de charge (Load Balancers)
En clair
Les serveurs ne sont pas exposés directement à Internet.
Le trafic passe par des couches de contrôle qui filtrent et répartissent les connexions, ce qui améliore la sécurité et la stabilité.
Sauvegardes et réplication
Techniquement
Les bases de données et certains stockages bénéficient :
de sauvegardes automatiques
de réplication sur plusieurs zones géographiques
En clair
Même si un centre de données a un problème majeur, une copie des données existe ailleurs.
Monitoring et supervision
Techniquement
Des outils de monitoring cloud surveillent :
l’usage CPU et mémoire
les performances
les anomalies réseau
les tentatives d’accès inhabituelles
En clair
Des systèmes automatiques vérifient en permanence que tout fonctionne normalement et alertent en cas de comportement suspect.
Pourquoi on ne peut pas donner “le numéro exact d’instance”
Dans une architecture moderne :
Les serveurs se créent et se détruisent automatiquement
La charge est répartie dynamiquement
Les ressources évoluent en fonction du trafic
Il n’y a donc pas une machine unique, mais un ensemble dynamique de ressources.
C’est volontaire : cela évite qu’une panne matérielle ou une surcharge bloque le service.
Résumé simple
L’infrastructure utilise :
des serveurs cloud élastiques pour faire tourner l’application
des bases de données managées pour stocker les données
du stockage distribué pour les fichiers
des réseaux privés et pare-feu pour la sécurité
des sauvegardes et réplications pour la résilience
Cette combinaison permet d’assurer performance, sécurité, continuité et évolutivité à un niveau difficilement atteignable avec une infrastructure traditionnelle.
5. Base de données relationnelle transactionnelle
Organisation des données
Les informations sont stockées dans une base de données relationnelle. Cela signifie qu’elles sont organisées en tables liées entre elles (contacts, entreprises, opportunités, messages, etc.).
Principes techniques (ACID)
La base respecte les principes garantissant la fiabilité des données :
Atomicité : une action est réalisée entièrement ou pas du tout
Cohérence : les données restent valides
Isolation : les opérations simultanées ne se perturbent pas
Durabilité : une donnée enregistrée ne disparaît pas
Bénéfices
Pas de corruption des données
Relations fiables entre informations
Traçabilité complète
Stabilité même lors de fortes charges
6. Modèle Conceptuel de Données structuré
Les données sont organisées autour d’entités métiers :
Contacts, entreprises, opportunités, pipelines, communications, campagnes, tâches, utilisateurs, paiements.
Les relations permettent par exemple :
qu’un contact appartienne à une entreprise
qu’un contact ait plusieurs interactions
qu’un pipeline contienne plusieurs opportunités
Cette structure garantit cohérence et automatisations fiables.
7. Règles de gestion exécutées côté serveur
Les règles métier (automatisations, déclencheurs, conditions) sont traitées côté serveur.
Cela assure :
exécution fiable même sans utilisateur connecté
cohérence globale
sécurité des traitements
8. Sécurité des données
Chiffrement
Données en transit protégées par TLS
Données au repos chiffrées en AES-256
Sécurité réseau
Pare-feu applicatifs, segmentation réseau, détection d’intrusion, surveillance continue.
9. Gestion des accès et traçabilité
Rôles et permissions granulaires
Journalisation des connexions
Historique des actions
Chaque action peut être retracée.
10. Sauvegardes et continuité d’activité
Sauvegardes automatiques
Réplication sur plusieurs serveurs
Redondance géographique
Plans de reprise après incident
11. Séparation des environnements
Les environnements de développement, test et production sont distincts.
Les données réelles ne sont pas librement utilisées dans les environnements de test.
12. Gestion des incidents de sécurité
Surveillance continue, détection d’anomalies, procédures d’intervention et notification selon les obligations légales.
13. Conformité RGPD
Les traitements respectent le RGPD :
minimisation des données
limitation des finalités
droits d’accès, rectification, suppression
sécurité des traitements
Un accord de traitement des données peut être fourni.
14. Gestion des sous-traitants
Les sous-traitants techniques (hébergement, messagerie, etc.) sont sélectionnés pour leurs standards élevés de sécurité.
Ils n’exploitent pas les données à des fins commerciales.
15. Réversibilité des données
À tout moment :
export complet possible
formats standards
aucune dépendance bloquante
16. Résiliation et suppression des données
Export possible, accès coupé immédiatement, suppression des environnements actifs, suppression progressive des sauvegardes, aucune réutilisation.
17. Conformité SOC 2 Type II : un standard de sécurité entreprise
La plateforme est conforme au cadre SOC 2 Type II, un standard international reconnu pour évaluer la sécurité et la fiabilité des services cloud.
Que signifie SOC 2 ?
SOC 2 est un référentiel d’audit qui évalue cinq principes fondamentaux :
Sécurité
Disponibilité
Intégrité du traitement
Confidentialité
Protection des données personnelles
Pourquoi le niveau Type II est important
Contrairement à un simple audit déclaratif, le niveau Type II vérifie que les contrôles de sécurité sont réellement appliqués dans le temps et qu’ils fonctionnent.
Cela implique :
audit indépendant
vérification continue des processus
documentation détaillée des contrôles
Bénéfices pour vous
Niveau de sécurité conforme aux attentes des grandes entreprises
Processus internes renforcés
Réduction des risques de failles
Reconnaissance internationale du sérieux des pratiques
Beaucoup d’organisations exigent un rapport SOC 2 avant de travailler avec un fournisseur SaaS. Cette conformité est un gage fort de maturité et de fiabilité.
Conclusion
L’architecture de Nexus Panthera repose sur :
Hébergement sur AWS et Google Cloud
Architecture multi-cloud résiliente
Base de données relationnelle fiable
Absence de data lake mutualisé
Cloisonnement strict des données
Règles métier exécutées côté serveur
Sécurité avancée (chiffrement, réseau, surveillance)
Traçabilité complète
Sauvegardes robustes
Conformité RGPD
Réversibilité totale
Suppression des données à la résiliation
Conformité SOC 2 Type II
Cette approche garantit que vos données restent sécurisées, maîtrisées et sous votre contrôle, tout en bénéficiant d’une infrastructure de niveau international reconnue par les standards les plus exigeants du marché.
Questions fréquentes
Protection des données
Les données appartiennent exclusivement au client.
Nexus Panthera agit comme :
Sous-traitant de données (Data Processor)
Le client est le Responsable de traitement (Data Controller) au sens du RGPD.
Nous n’exploitons, ne revendons, ni n’analysons les données à des fins commerciales.
Les données sont hébergées sur l’infrastructure cloud de Google Cloud Platform (GCP) et/ou Amazon Web Services (AWS) selon la région.
Centres de données certifiés ISO 27001 / SOC 2 / SOC 3
Redondance multi-zones
Haute disponibilité
Localisation typique :
Europe (UE) pour les comptes européens
États-Unis pour les comptes US
La région de stockage peut être précisée sur demande.
Oui.
En transit
TLS 1.2+ (HTTPS)
Au repos
AES-256
Mots de passe
Hashés et salés (bcrypt)
Uniquement :
Le client
Les utilisateurs autorisés par le client
Une équipe technique restreinte en cas de maintenance critique
Mesures appliquées :
Journalisation des accès
Séparation des environnements
Principe du moindre privilège (least privilege)
Non.
Aucune revente
Aucun profilage publicitaire
Aucune exploitation commerciale des données
Les données sont utilisées uniquement pour fournir le service.
Oui.
Conformité notamment avec :
Article 28 – Sous-traitance
Data Processing Agreement (DPA)
Droits des personnes concernées :
accès
rectification
portabilité
suppression
opposition
Niveau 1 – Suppression dans le compte
Le client peut à tout moment :
supprimer ses contacts
supprimer ses campagnes
supprimer ses données opérationnelles
Les données deviennent immédiatement inaccessibles dans l’interface.
Niveau 2 – Suppression définitive serveur (RGPD)
Sur demande écrite, Nexus Panthera initie une procédure de :
Suppression définitive des données personnelles (Permanent GDPR Deletion)
Ce processus comprend :
suppression des bases actives
mise en file d’effacement des sauvegardes
traçabilité de la demande
Délai habituel : 7 à 30 jours.
Oui.
Sur demande, nous fournissons :
une confirmation écrite
l’identifiant de la requête
la date d’exécution
le périmètre des données supprimées
Conforme aux exigences du RGPD.
Sauvegardes chiffrées
Accès strictement limité
Rotation automatique
Politique de rétention définie
En cas de suppression RGPD :
les données sont supprimées immédiatement des systèmes actifs
puis éliminées des sauvegardes selon le cycle légal et technique de rétention.
Oui.
Le client peut exporter à tout moment :
ses contacts (CSV)
ses conversations
ses opportunités
son historique d’activité
Sans surcoût.
Oui.
Le client peut exporter à tout moment :
ses contacts (CSV)
ses conversations
ses opportunités
son historique d’activité
Sans surcoût.