cybersécurité

La mise en œuvre d’une architecture Zero Trust

Depuis quelques années, les organisations sont sensibilisées à l’architecture Zero Trust comme étant le nouveau concept émergeant, au point qu’elles doivent aujourd’hui commencer à appliquer les éléments de base de l’architecture Zero Trust. Cependant la diversité des missions, des équipes et des besoins propres rendent les documents, les feuilles de route, les orientations non uniformes : le Zero Trust ne peut pas s’envisager sous l’angle de la conformité, à chaque environnement sa stratégie.

Tribune Gigamon – La clé est de commencer par les éléments de base et de s’assurer qu’ils s’intègrent dans le modèle opérationnel de chaque organisation au fur et à mesure de la maturité de l’architecture Zero Trust. Quelle que soit la forme ou la composition de leur environnement, il est indispensable de poser des fondations solides qui permettront la flexibilité, la normalisation des données et la visibilité.

Les 3 paramètres essentiels pour une mise en œuvre du Zero Trust

  1. La flexibilité

Les infrastructures informatiques s’adapteront et changeront en fonction de l’évolution des besoins de l’entreprise, de la mission et de l’environnement. Une visibilité constante et cohérente de bout en bout sur son environnement est nécessaire, à mesure que le système de calcul évolue et se déplace entre les ressources de calcul physiques et virtuelles, sur site et sur cloud. La nature dynamique des réseaux définis par logiciel (SDN) exige également que la structure de visibilité soit facilement adaptable.

  1. La normalisation des données

Il s’agit d’une composante essentielle de l’élaboration d’analyses robustes, précises et étendues sur diverses sources de données pour les réseaux sur site, les conteneurs et les multiples fournisseurs cloud. La détection basée sur l’intelligence artificielle et le machine learning (IA/ML) dépend des données utilisées pour former les classificateurs. De grandes variations de données et de sources rendront les classificateurs de détection peu fiables et incohérents dans l’environnement d’une organisation. La standardisation et la normalisation des sources de données (telles que les journaux) dans tous les composants de l’environnement sont essentielles pour que les moteurs de détection basés sur l’IA/ML puissent être utilisés et également pour aider à prendre des décisions fondées sur des règles concernant les comportements des utilisateurs et des systèmes. La nature propriétaire des fournisseurs de services cloud (CSP) continuera à faire de la normalisation des données un défi pour les organisations qui souhaitent l’interopérabilité.

Source

Veille-cyber

Recent Posts

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…

1 jour ago

Cybersécurité des transports urbains : 123 incidents traités par l’ANSSI en cinq ans

L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…

1 jour ago

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

3 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

4 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

5 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

5 jours ago

This website uses cookies.