Architecture des Données, Sécurité et Gouvernance

Comment Nexus Panthera protège, structure et maîtrise vos données

La donnée est aujourd’hui un actif stratégique pour toute entreprise. Informations clients, échanges commerciaux, historiques d’actions, données marketing : ces éléments sont au cœur de votre activité et méritent une protection à la hauteur de leur importance.

Nexus Panthera repose sur une architecture SaaS moderne, conçue selon les standards des grandes plateformes technologiques internationales. Notre priorité est claire : offrir une infrastructure sécurisée, fiable, transparente et conforme aux exigences des entreprises, y compris les plus grandes.

Cette page détaille précisément comment vos données sont hébergées, structurées, protégées, gouvernées et supprimées.

1. Un principe fondamental : vos données vous appartiennent

Avant toute considération technique, un engagement clair : les données traitées via Nexus Panthera sont utilisées exclusivement pour fournir le service que vous avez choisi.

Elles ne sont pas revendues, ni exploitées à des fins publicitaires, ni mutualisées pour créer des bases d’analyse inter-clients.

Chaque entreprise évolue dans un environnement logique distinct. La séparation des données n’est pas une option, c’est un principe d’architecture.

2. Pas de data lake mutualisé entre clients
Qu’est-ce qu’un data lake ?

Un data lake est un immense espace de stockage où des données brutes sont centralisées pour être exploitées à grande échelle, souvent à des fins analytiques ou d’intelligence artificielle.

Certaines plateformes regroupent toutes les données de leurs utilisateurs dans de tels environnements globaux.

Ce n’est pas le modèle de Nexus Panthera

La plateforme ne repose pas sur un data lake mutualisé entre clients.
Vos données ne sont pas versées dans un réservoir commun servant à croiser des informations entre entreprises.

Ce que cela signifie pour vous
  • Vos données ne sont jamais mélangées avec celles d’autres organisations

  • Elles ne sont pas utilisées pour entraîner des modèles globaux

  • Elles restent confinées à votre environnement applicatif

Si vous souhaitez créer votre propre data lake pour des analyses avancées, vous pouvez exporter vos données vers votre propre infrastructure, sous votre contrôle total.

 
3. Hébergement sur des infrastructures cloud de référence mondiale

Les données sont hébergées sur des infrastructures opérées par deux leaders mondiaux du cloud :

  • Amazon Web Services

  • Google Cloud Platform

Ces fournisseurs exploitent certains des centres de données les plus sécurisés au monde et disposent de certifications internationales majeures telles que ISO 27001, SOC 1, SOC 2, et bien d’autres.

Pourquoi c’est essentiel

Ces entreprises investissent massivement dans :

  • la cybersécurité

  • la protection physique des centres de données

  • la redondance électrique et réseau

  • la surveillance 24/7

  • la continuité d’activité en cas de sinistre

Cela garantit un niveau de sécurité et de disponibilité difficilement atteignable avec des infrastructures traditionnelles.

 
4. Architecture multi-cloud : résilience et performance

La plateforme n’est pas dépendante d’un seul fournisseur cloud. Certaines briques techniques peuvent être réparties entre AWS et Google Cloud.

Objectifs

Résilience : réduire le risque qu’un incident isolé impacte l’ensemble des services
Performance : optimiser la rapidité d’accès selon les usages
Continuité : maintenir un haut niveau de disponibilité

Cette approche est courante dans les architectures SaaS de niveau entreprise.

 
Quelles instances AWS ou Google Cloud sont utilisées ?

L’infrastructure utilisée repose sur des services cloud managés proposés par Amazon Web Services (AWS) et Google Cloud Platform (GCP).

Il est important de comprendre qu’on ne parle pas d’un serveur unique ou d’une “machine précise”, mais d’une architecture distribuée et élastique, composée de plusieurs types de ressources cloud qui travaillent ensemble.

 
Partie calcul (serveurs applicatifs)
Techniquement

Les traitements applicatifs (logique métier, automatisations, gestion CRM, API) reposent sur des instances de calcul virtualisées, équivalentes aux services :

  • AWS EC2 (Elastic Compute Cloud)

  • ou services de calcul managés côté Google Cloud (VM managées ou conteneurs)

Ces instances exécutent le code de l’application.

En clair

Ce sont les “moteurs” qui font tourner la plateforme :
quand un utilisateur modifie un contact, déclenche une automatisation ou consulte un tableau de bord, ce sont ces serveurs qui traitent l’action.

 
Pourquoi ce type d’instances ?

Parce qu’elles permettent :

  • d’augmenter automatiquement la puissance lors de pics d’activité

  • de répartir la charge sur plusieurs machines

  • d’éviter qu’un seul serveur devienne un point de défaillance

 
Bases de données
Techniquement

Les données structurées (contacts, opportunités, messages, etc.) sont stockées dans des bases de données relationnelles managées, équivalentes à :

  • AWS RDS ou Aurora (bases SQL managées)

Ces services gèrent automatiquement :

  • les sauvegardes

  • la réplication

  • la haute disponibilité

  • les mises à jour de sécurité

En clair

Ce sont les “bibliothèques intelligentes” où sont rangées vos données.
Elles sont conçues pour que les informations restent cohérentes, même si des milliers d’actions ont lieu en même temps.

 
Pourquoi des bases managées ?

Parce que cela réduit le risque humain et améliore :

  • la stabilité

  • la sécurité

  • la continuité de service

 
Stockage de fichiers
Techniquement

Les fichiers (pièces jointes, médias, documents) sont stockés sur du stockage objet, équivalent à :

  • AWS S3 (Simple Storage Service)

Ce type de stockage est :

  • redondé sur plusieurs machines

  • répliqué sur plusieurs zones

  • conçu pour durer dans le temps

En clair

Si vous uploadez un document ou une image, il est stocké dans un système distribué où la perte d’un disque ou d’un serveur n’entraîne pas la perte du fichier.

Réseau et sécurité
Techniquement

L’architecture utilise :

  • VPC (Virtual Private Cloud) pour isoler les environnements

  • pare-feu cloud (Security Groups, règles réseau)

  • équilibreurs de charge (Load Balancers)

En clair

Les serveurs ne sont pas exposés directement à Internet.
Le trafic passe par des couches de contrôle qui filtrent et répartissent les connexions, ce qui améliore la sécurité et la stabilité.

 
Sauvegardes et réplication
Techniquement
Les bases de données et certains stockages bénéficient :
  • de sauvegardes automatiques

  • de réplication sur plusieurs zones géographiques

En clair

Même si un centre de données a un problème majeur, une copie des données existe ailleurs.

Monitoring et supervision
Techniquement

Des outils de monitoring cloud surveillent :

  • l’usage CPU et mémoire

  • les performances

  • les anomalies réseau

  • les tentatives d’accès inhabituelles

En clair

Des systèmes automatiques vérifient en permanence que tout fonctionne normalement et alertent en cas de comportement suspect.

Pourquoi on ne peut pas donner “le numéro exact d’instance”

Dans une architecture moderne :

  • Les serveurs se créent et se détruisent automatiquement

  • La charge est répartie dynamiquement

  • Les ressources évoluent en fonction du trafic

Il n’y a donc pas une machine unique, mais un ensemble dynamique de ressources.

C’est volontaire : cela évite qu’une panne matérielle ou une surcharge bloque le service.

Résumé simple

L’infrastructure utilise :

  • des serveurs cloud élastiques pour faire tourner l’application

  • des bases de données managées pour stocker les données

  • du stockage distribué pour les fichiers

  • des réseaux privés et pare-feu pour la sécurité

  • des sauvegardes et réplications pour la résilience

Cette combinaison permet d’assurer performance, sécurité, continuité et évolutivité à un niveau difficilement atteignable avec une infrastructure traditionnelle.

 
5. Base de données relationnelle transactionnelle
Organisation des données

Les informations sont stockées dans une base de données relationnelle. Cela signifie qu’elles sont organisées en tables liées entre elles (contacts, entreprises, opportunités, messages, etc.).

Principes techniques (ACID)

La base respecte les principes garantissant la fiabilité des données :

  • Atomicité : une action est réalisée entièrement ou pas du tout

  • Cohérence : les données restent valides

  • Isolation : les opérations simultanées ne se perturbent pas

  • Durabilité : une donnée enregistrée ne disparaît pas

Bénéfices
  • Pas de corruption des données

  • Relations fiables entre informations

  • Traçabilité complète

  • Stabilité même lors de fortes charges

 
6. Modèle Conceptuel de Données structuré

Les données sont organisées autour d’entités métiers :

Contacts, entreprises, opportunités, pipelines, communications, campagnes, tâches, utilisateurs, paiements.

Les relations permettent par exemple :

  • qu’un contact appartienne à une entreprise

  • qu’un contact ait plusieurs interactions

  • qu’un pipeline contienne plusieurs opportunités

Cette structure garantit cohérence et automatisations fiables.

 
7. Règles de gestion exécutées côté serveur

Les règles métier (automatisations, déclencheurs, conditions) sont traitées côté serveur.

Cela assure :

  • exécution fiable même sans utilisateur connecté

  • cohérence globale

  • sécurité des traitements

 
8. Sécurité des données
Chiffrement

Données en transit protégées par TLS
Données au repos chiffrées en AES-256

Sécurité réseau

Pare-feu applicatifs, segmentation réseau, détection d’intrusion, surveillance continue.

 
9. Gestion des accès et traçabilité
  • Rôles et permissions granulaires

  • Journalisation des connexions

  • Historique des actions

Chaque action peut être retracée.

 
10. Sauvegardes et continuité d’activité
  • Sauvegardes automatiques

  • Réplication sur plusieurs serveurs

  • Redondance géographique

  • Plans de reprise après incident

 
11. Séparation des environnements

Les environnements de développement, test et production sont distincts.
Les données réelles ne sont pas librement utilisées dans les environnements de test.

 
12. Gestion des incidents de sécurité

Surveillance continue, détection d’anomalies, procédures d’intervention et notification selon les obligations légales.

 
13. Conformité RGPD

Les traitements respectent le RGPD :

  • minimisation des données

  • limitation des finalités

  • droits d’accès, rectification, suppression

  • sécurité des traitements

Un accord de traitement des données peut être fourni.

 
14. Gestion des sous-traitants

Les sous-traitants techniques (hébergement, messagerie, etc.) sont sélectionnés pour leurs standards élevés de sécurité.
Ils n’exploitent pas les données à des fins commerciales.

 
15. Réversibilité des données

À tout moment :

  • export complet possible

  • formats standards

  • aucune dépendance bloquante

 
16. Résiliation et suppression des données

Export possible, accès coupé immédiatement, suppression des environnements actifs, suppression progressive des sauvegardes, aucune réutilisation.

 
17. Conformité SOC 2 Type II : un standard de sécurité entreprise

La plateforme est conforme au cadre SOC 2 Type II, un standard international reconnu pour évaluer la sécurité et la fiabilité des services cloud.

Que signifie SOC 2 ?

SOC 2 est un référentiel d’audit qui évalue cinq principes fondamentaux :

  • Sécurité

  • Disponibilité

  • Intégrité du traitement

  • Confidentialité

  • Protection des données personnelles

Pourquoi le niveau Type II est important

Contrairement à un simple audit déclaratif, le niveau Type II vérifie que les contrôles de sécurité sont réellement appliqués dans le temps et qu’ils fonctionnent.

Cela implique :

  • audit indépendant

  • vérification continue des processus

  • documentation détaillée des contrôles

Bénéfices pour vous
  • Niveau de sécurité conforme aux attentes des grandes entreprises

  • Processus internes renforcés

  • Réduction des risques de failles

  • Reconnaissance internationale du sérieux des pratiques

Beaucoup d’organisations exigent un rapport SOC 2 avant de travailler avec un fournisseur SaaS. Cette conformité est un gage fort de maturité et de fiabilité.

 
Conclusion

L’architecture de Nexus Panthera repose sur :

  • Hébergement sur AWS et Google Cloud

  • Architecture multi-cloud résiliente

  • Base de données relationnelle fiable

  • Absence de data lake mutualisé

  • Cloisonnement strict des données

  • Règles métier exécutées côté serveur

  • Sécurité avancée (chiffrement, réseau, surveillance)

  • Traçabilité complète

  • Sauvegardes robustes

  • Conformité RGPD

  • Réversibilité totale

  • Suppression des données à la résiliation

  • Conformité SOC 2 Type II

Cette approche garantit que vos données restent sécurisées, maîtrisées et sous votre contrôle, tout en bénéficiant d’une infrastructure de niveau international reconnue par les standards les plus exigeants du marché.

Questions fréquentes

Protection des données

Les données appartiennent exclusivement au client.

Nexus Panthera agit comme :

  • Sous-traitant de données (Data Processor)

  • Le client est le Responsable de traitement (Data Controller) au sens du RGPD.

Nous n’exploitons, ne revendons, ni n’analysons les données à des fins commerciales.

Les données sont hébergées sur l’infrastructure cloud de Google Cloud Platform (GCP) et/ou Amazon Web Services (AWS) selon la région.

  • Centres de données certifiés ISO 27001 / SOC 2 / SOC 3

  • Redondance multi-zones

  • Haute disponibilité

Localisation typique :

  • Europe (UE) pour les comptes européens

  • États-Unis pour les comptes US

La région de stockage peut être précisée sur demande.

Oui.

En transit

  • TLS 1.2+ (HTTPS)

Au repos

  • AES-256

Mots de passe

  • Hashés et salés (bcrypt)

 

Uniquement :

  • Le client

  • Les utilisateurs autorisés par le client

  • Une équipe technique restreinte en cas de maintenance critique

Mesures appliquées :

  • Journalisation des accès

  • Séparation des environnements

  • Principe du moindre privilège (least privilege)

Non.

  • Aucune revente

  • Aucun profilage publicitaire

  • Aucune exploitation commerciale des données

Les données sont utilisées uniquement pour fournir le service.

Oui.

Conformité notamment avec :

  • Article 28 – Sous-traitance

  • Data Processing Agreement (DPA)

  • Droits des personnes concernées :

    • accès

    • rectification

    • portabilité

    • suppression

    • opposition

Niveau 1 – Suppression dans le compte

Le client peut à tout moment :

  • supprimer ses contacts

  • supprimer ses campagnes

  • supprimer ses données opérationnelles

Les données deviennent immédiatement inaccessibles dans l’interface.

Niveau 2 – Suppression définitive serveur (RGPD)

Sur demande écrite, Nexus Panthera initie une procédure de :

Suppression définitive des données personnelles (Permanent GDPR Deletion)

Ce processus comprend :

  • suppression des bases actives

  • mise en file d’effacement des sauvegardes

  • traçabilité de la demande

Délai habituel : 7 à 30 jours.

Oui.

Sur demande, nous fournissons :

  • une confirmation écrite

  • l’identifiant de la requête

  • la date d’exécution

  • le périmètre des données supprimées

Conforme aux exigences du RGPD.

  • Sauvegardes chiffrées

  • Accès strictement limité

  • Rotation automatique

  • Politique de rétention définie

En cas de suppression RGPD :

  • les données sont supprimées immédiatement des systèmes actifs

  • puis éliminées des sauvegardes selon le cycle légal et technique de rétention.

  • Oui.

    Le client peut exporter à tout moment :

    • ses contacts (CSV)

    • ses conversations

    • ses opportunités

    • son historique d’activité

    Sans surcoût.

  • Oui.

    Le client peut exporter à tout moment :

    • ses contacts (CSV)

    • ses conversations

    • ses opportunités

    • son historique d’activité

    Sans surcoût.