Site icon Blog ARC Optimizer

Performances rapides avec le cache de sortie distribuée dans Sitefinity


Le système de gestion de contenu Sitefinity prend désormais totalement en charge le cache de sortie distribuée, offrant des performances jusqu'à 200 fois supérieures dans certains scénarios. Apprenez à l'appliquer facilement et où vous devriez l'utiliser.

Si vous n'avez pas encore entendu le récemment publié Sitefinity CMS 11.1 introduit la prise en charge complète du cache de sortie distribuée, parmi autres mises à niveau . Une déclaration audacieuse, assortie de quelques autres fournisseurs de CMS .NET du secteur, et de presque personne en ce qui concerne le niveau d'intégration et d'implémentation / maturité / exhaustivité que Sitefinity a à offrir.

Si vous êtes déjà familiarisé avec le concept de cache de sortie distribuée et que, comme nous dans l’équipe produit, vous êtes également ravi de voir cette fonctionnalité arriver sur le CMS Sitefinity, cet article de blog est pour vous. Si vous venez de voir le titre accrocheur et que vous avez décidé de continuer à lire, ne vous arrêtez pas à mi-chemin – cet article de blog est également pour vous. Dans les lignes suivantes, nous allons expliquer ce qu'est le cache de sortie distribué de Sitefinity CMS et pourquoi vous devez vous en soucier.

Qu'est-ce que le cache de sortie?

Commençons par un aperçu rapide du cache de sortie. Pour résumer la définition de Microsoft le cache de sortie est un mécanisme d'optimisation permettant à ASP.NET d'envoyer une copie prétraitée d'une page au lieu de suivre l'intégralité du processus consistant à exécuter des requêtes de base de données, à assembler la page et à envoyer le fichier. sortie vers le client. Le cache de sortie existe pour réduire le temps de réponse du serveur Web. Il s'agit de la couche de mise en cache la plus importante, car c'est la première couche touchée par une demande entrante et garantit que le contenu est diffusé instantanément à partir de la mémoire cache au lieu d'être traité sur le serveur à chaque fois.

Si nous pouvions dessiner un diagramme simple expliquant ce concept, il ressemblerait à ceci (cliquez pour voir en taille réelle):

Avantages de l'exécution du CMS Sitefinity avec le cache de sortie distribué de la documentation produit officielle .

Est-il facile de passer à la mémoire cache de sortie distribuée?

La mémoire cache de sortie distribuée ne constitue pas un complément, un travail communautaire, un projet open source ou tout autre format susceptible de donner une impression quelque peu douteuse de la la stabilité des fonctionnalités. C'est une fonctionnalité prête à l'emploi entièrement prise en charge. En fait, il faut quelques secondes pour être configuré côté Sitefinity (ajoutez-en quelques minutes pour configurer le stockage en cache distribué de votre choix).

C'est aussi simple que ça. aller à la section Cache de sortie dans le CMS Sitefinity Paramètres avancés et sélectionner une valeur du Cache Provider différente de la valeur par défaut ( InMemory .

. même instance SiteManity CMS utilisant des fournisseurs de cache de sortie InMemory ou Distributed.Les tests couvrent un large éventail de scénarios, notamment les tests de démarrage, de préchauffage et de charge, afin de refléter le scénario complet de démarrage et de redémarrage d'un site démarré / redémarré, ainsi qu'un site Web. navigation sous charge par visiteurs du site. La documentation fournit également une comparaison des avantages et des inconvénients des caches de sortie InMemory et Distributed ce qui vous permet de faire le bon choix en tenant compte de plusieurs facteurs, tels que les performances, l'évolutivité et le coût.

Show Me!

Utilisons le fournisseur Redis pour un exemple pratique rapide. Nous allons utiliser un abonnement Microsoft Azure actif et ajouter un nouveau cache Redis via le portail de gestion Azure:

Demandez une démonstration aujourd'hui ou essayez Sitefinity CMS pour vous-même.




Source link
Quitter la version mobile