Vous manquez de mémoire sur votre smartphone ? Conseils d'optimisation simples. La mise en cache - qu'est-ce que c'est

Le processus d'exploitation d'un ordinateur personnel implique l'exécution de commandes utilisateur. Pour optimiser ce processus et réduire les coûts de temps, de nombreuses technologies sont mises en œuvre dans l'ordinateur, dont la place principale est la mise en cache. Et si ce terme est compréhensible pour les utilisateurs avancés, il ne fait que dérouter les débutants. Qu'est-ce que la mise en cache des données et quel rôle ce processus joue-t-il dans le fonctionnement d'un ordinateur ? Et en quoi la mise en cache sur un système de bureau diffère-t-elle d'une procédure similaire sur les gadgets mobiles ?

Notion de cache

Si nous parlons dans un langage simple qui sera compréhensible par absolument toutes les catégories d'utilisateurs, alors un cache est un tampon dans lequel sont placées les données traitées par le processeur afin d'en accélérer l'accès par le cristal. L’un des principaux avantages d’un cache est la rapidité, car on y accède beaucoup plus rapidement qu’un disque dur. Son volume est cependant limité, ce qui constitue l’un de ses inconvénients. Il convient de noter que la technologie de mise en cache est utilisée non seulement dans le processeur, mais également dans le fonctionnement du disque dur, dans le fonctionnement des navigateurs Internet et de divers services en ligne, ainsi que dans de nombreux autres processus qui se produisent lors du fonctionnement d'un ordinateur personnel. ordinateur. La mise en cache est basée sur la structuration de tableaux de données, qui, à leur tour, ne sont qu'une copie des principales informations stockées sur l'ordinateur. Pour accélérer l'accès aux données mises en cache, chaque tableau se voit attribuer une étiquette personnelle, qui fait office d'identifiant nécessaire pour déterminer la qualité de la correspondance avec l'original.

Processus d'utilisation

Lors du fonctionnement du CPU ou de tout autre client, une demande de certaines données se produit. Cependant, la première étape consiste à utiliser les données non essentielles situées sur le disque dur et celles qui se trouvent directement dans la mémoire cache. S’il y en a, alors ce qu’on appelle un hit se produit. Si nécessaire, les données mises en cache peuvent également être écrites sur la source principale de stockage d'informations. Cependant, si le cache ne contient pas le tableau requis, le client recherche les données nécessaires dans le stockage sous-jacent, après quoi les données trouvées sont copiées dans la mémoire cache.

Mise à jour des données

Le processus de mise à jour des données est le plus simple à envisager en utilisant l'exemple d'un navigateur Internet. Pendant le fonctionnement de ces programmes, le contenu Web est copié dans le cache afin d'accélérer le téléchargement ultérieur du contenu Web. Ainsi, pendant le fonctionnement, le programme recherche en permanence une copie de la ressource téléchargée dans son cache. Cependant, en raison de la taille limitée de la mémoire cache, celle-ci est périodiquement mise à jour, de sorte que certaines des informations précédemment stockées sont simplement effacées. Ce procédé repose sur un algorithme particulier dont le principe de fonctionnement est quasiment identique quel que soit le type de gadget utilisé.

Politique d'enregistrement

Lors du processus de modification du tableau de données contenu dans la mémoire cache, les données originales stockées sur le support de stockage principal changent également. Le délai qui existe entre les modifications apportées dépend de la stratégie d'écriture. Aujourd'hui, il n'existe que deux types d'enregistrements :
Enregistrement immédiat. Toutes les modifications sont apportées simultanément au cache et à la mémoire principale.
Enregistrement différé ou inversé. Les modifications apportées au tableau de données, qui se trouve dans la mémoire d'un périphérique de stockage permanent, ne sont pas effectuées immédiatement, mais à une certaine fréquence ou si une demande de ces données émane de l'utilisateur. Pour suivre toutes les modifications, le principe d'identification des enregistrements est utilisé.

Les défis modernes

Avec le développement des technologies modernes et l'invention de nouveaux modèles de processeurs fonctionnant à des fréquences plus élevées, ainsi que de RAM à haute vitesse, il est devenu nécessaire d'augmenter les performances de la mémoire cache. Cela s'explique par le fait que la mémoire cache est plus efficace si la fréquence de la mémoire RAM est inférieure à celle du cristal, puisque le CPU tourne beaucoup plus vite. Par conséquent, les ingénieurs ont apporté certaines améliorations et implémenté leur propre mémoire cache dans divers appareils, ce qui a permis d'augmenter la durée de fonctionnement du cache principal. Il convient également de noter que les processeurs modernes mettent en œuvre des mémoires cache plus petites, puisque leur fonctionnement est basé sur le principe de l'adressage virtuel, qui permet de traiter très rapidement de grandes quantités de données. Cependant, une approche similaire dans le développement d’autres appareils s’est révélée moins efficace, voire même inutile dans certains cas. Par exemple, la plupart des modèles modernes de smartphones et de tablettes utilisent une mémoire cache lente et petite, de sorte que dans ces gadgets, le taux de rafraîchissement du cache est beaucoup plus élevé.

Fonctionnement mutuel du cache de différents appareils

De tout ce qui précède, nous pouvons conclure que la mémoire cache fonctionne plus efficacement et plus rapidement s'il n'y en a qu'une. Mais que se passe-t-il s’il y en a beaucoup ? Dans ce cas, le cache fonctionne selon le principe de cohérence ou grâce à des technologies d'échange mutuel de données. Il existe trois types d'échange :
Inclusif : Chaque cache fonctionne indépendamment des autres.
Exclusif : la méthode d'échange de données est développée individuellement, en tenant compte de toutes les caractéristiques individuelles.
Non exclusif : un standard universel pour échanger des données en masse.

Niveaux de mise en cache

Les modèles modernes de processeurs et autres appareils prennent en charge la mémoire cache à trois ou quatre niveaux. Plus il comporte de niveaux, plus la quantité de données qu'il peut stocker est importante, mais plus il faut de temps pour les traiter.
Cache de premier niveau. C'est l'un des plus rapides car il est situé directement sur un noyau physique du cristal, ce qui nécessite moins de temps pour traiter les données qui y sont stockées. Ce cache est implémenté dans tous les modèles de processeurs modernes et fonctionne de manière synchrone avec le processeur à la même fréquence.

Cache de deuxième niveau. Dans la plupart des cas, elle se situe à proximité du cache de premier niveau et est utilisée comme mémoire partagée. Pour déterminer sa valeur, il faut diviser le volume par le nombre de cœurs physiques implémentés dans le cristal.
Cache de troisième niveau. C'est le plus gros en volume, mais aussi le plus lent en fonctionnement. L'objectif principal du cache de troisième niveau est de combiner les tableaux de données stockés dans le cache de deuxième niveau.

Cache niveau 4. On le retrouve principalement dans les systèmes et serveurs puissants qui utilisent plusieurs processeurs pendant leur fonctionnement. Il est situé indépendamment du cristal et est implémenté sur une puce distincte.

Associativité du cache

La caractéristique principale et la plus importante de la mémoire cache est l’associativité. En termes simples, il s'agit d'une division logique des données mises en cache en blocs séparés afin d'optimiser le processus de traitement des données et d'accélérer le processus d'accès. C'est pourquoi, lors du fonctionnement de l'ordinateur, la RAM est en étroite interaction avec le cache.

La mise en cache du site Web est l'une des technologies les plus utiles. Son utilisation rend les sites Web extrêmement rapides, ce qui conduit à un meilleur référencement et à une satisfaction accrue des utilisateurs. Sans parler de la conversion plus élevée offerte par le cache Internet.

Qu’est-ce que la mise en cache ?

L'idée même de mettre en œuvre la mise en cache est simple. Laissez-moi vous donner un exemple.

Si je vous demande combien font 5 fois 3, vous réaliserez que la bonne réponse est 15. Vous n'avez pas besoin de le calculer - vous vous souvenez simplement du résultat et n'effectuez aucun traitement mental. C'est à peu près ainsi que fonctionne la mise en cache.

Les sites Web sont visités des milliers, voire des millions de fois par mois. Chaque fois que le navigateur demande une page Web, le serveur doit effectuer une série de calculs complexes. Il récupère les dernières publications, génère l'en-tête et le pied de page du site, trouve les widgets de la barre latérale, etc. Mais dans de nombreux cas, le résultat du calcul restera inchangé. Ce serait formidable si nous pouvions forcer le serveur à mémoriser le résultat final, plutôt que de traiter chaque requête séparément. C'est exactement ce que fait la mise en cache !

Comment les pages mises en cache sont servies

Cache Internet : qu'est-ce que c'est ? Je vais vous expliquer maintenant. Disons que vous disposez d'un blog avec la mise en cache activée. Lorsque quelqu'un visite la page d'accueil de votre blog pour la première fois, il la reçoit de la manière habituelle : la demande est traitée sur le serveur et la page Web résultante qui doit être affichée est convertie en fichier HTML et envoyée au navigateur du visiteur. .

La mise en cache étant activée, le serveur stocke ce fichier HTML dans son " BÉLIER" (ou BÉLIER), cela se fait très rapidement. La prochaine fois que vous souhaiterez afficher la page d'accueil, le serveur n'aura aucun traitement ni conversion au format HTML. Au lieu de cela, il enverra le fichier HTML préalablement préparé au navigateur.

Mais que se passe-t-il si mon contenu change ?

Cela semble bien, mais que se passe-t-il si vous activez la mise en cache puis publiez un nouveau message ? Sera-t-il en dehors du cache et invisible pour les visiteurs ? Les systèmes de mise en cache correctement configurés gèrent très bien ces scénarios.

Le système de mise en cache consiste non seulement en un mécanisme permettant de stocker les fichiers HTML préparés, mais également en un mécanisme permettant de vider le cache lorsque certaines conditions sont remplies. Par exemple, du nouveau contenu est publié.

WordPress est configuré pour vider le cache Internet de la page d'accueil et archiver les pages lorsqu'au moins un nouvel article est publié. Cependant, il doit laisser toutes les autres pages car elles ne sont pas modifiées.

La mise en cache est-elle efficace ?

Un site Web, conçu et mis en œuvre correctement, peut se charger en seulement deux secondes. N'est-ce pas assez rapide ? La mise en cache est-elle nécessaire ? La réponse est définitivement oui.

En utilisant la mise en cache du navigateur et du serveur, vous pouvez toujours réduire les temps de chargement. Et quand il s’agit de vitesse de chargement, cela vaut toujours la peine d’en faire le plus possible !

Quelle est l’efficacité de la mise en cache ? Selon une étude récente de YUI, la mise en cache du navigateur peut augmenter la vitesse d’un site Web jusqu’à 300 % !

Types de mise en cache

Il existe deux types de mise en cache : le serveur et le navigateur. Regardons les différences entre eux.

Mise en cache du navigateur

Lorsque vous visitez un site Web, vous n’avez pas seulement besoin d’extraire le contenu de la page que vous consultez. Cela implique un ensemble de ressources, telles que des fichiers Javascript, des feuilles de style, des polices, que le navigateur télécharge en plus du contenu de la page.

Avant de vider le cache d'Internet Explorer, vous devez comprendre que la mise en cache permet au navigateur de stocker ces fichiers pendant un certain temps, il n'est donc pas nécessaire de les récupérer à chaque fois que vous visitez un site. Par exemple, lorsque vous visitez un site pour la première fois, vous recevrez un ensemble de ressources que le navigateur mettra en cache. Cela prendra quelques secondes, mais lors de votre prochaine visite sur le site, vous remarquerez une réduction significative du temps de chargement.

Mise en cache sur le serveur

Au lieu de traiter chaque requête, le serveur accepte les résultats de ces requêtes et les stocke. Il sert ensuite les résultats stockés, ce qui rend tout beaucoup plus rapide.

Vous pouvez rencontrer les termes « cache d'objets » et « cache pleine page" Les deux désignent des méthodes de mise en cache sur le serveur. Le cache pleine page est ce dont nous avons parlé jusqu'à présent.

Le cache d'objets stocke uniquement des fragments de données, pas une page complète. Cela peut être utile lors de la sauvegarde du résultat d'opérations complexes, telles que la création d'un menu de navigation.

Mise en cache dans WordPress

Il y a trois choses que vous devez savoir sur la mise en cache dans WordPress : écrire du code efficace, utiliser des plugins de mise en cache et utiliser le cache intégré de votre hébergement.

Utiliser les plugins de mise en cache WordPress

La règle la plus importante est de ne jamais utiliser plus d’un plugin de cache de pages Internet à la fois. Cela ne rendra pas votre site plus rapide, mais beaucoup plus lent et le brisera simplement.

Utilisez un seul plugin de mise en cache à la fois. S'il est configuré correctement, cela contribuera à accélérer considérablement le site. Les meilleurs plugins de mise en cache sont WP Rocket, W3 Total Cache et WP Super Cache.

Utilisation de la mise en cache fournie par l'hébergement

Cela s’applique aux sites fonctionnant sur WordPress. Je peux recommander WPEngine, Flywheel et Kinsta. Ils fournissent tous d’excellents services de mise en cache.

Les systèmes de mise en cache utilisés par ces hébergeurs fonctionnent à un niveau bien inférieur à celui des plugins WordPress, ce qui est bien plus efficace. Ils sont configurés spécifiquement pour fonctionner avec WordPress et l’hébergement utilisé, ce qui augmente encore leur valeur.

Si vous utilisez un hébergement WordPress dédié, je vous recommande de ne pas installer du tout de plugin de mise en cache. Beaucoup de ces sites d’hébergement interdisent même l’utilisation de plugins de mise en cache afin qu’ils ne réduisent pas l’efficacité des systèmes de mise en cache mis en place par le fournisseur.

Écrire du code efficace

Nous n’entrerons pas dans les détails, mais la première chose que vous devez savoir est le fonctionnement de WordPress.

Par exemple, si vous obtenez des métadonnées pour une publication et que vous appelez get_post_meta($post_id, 'co-auteur', true);,WordPress récupère toutes les métadonnées de ce message. Par conséquent, avoir 50 requêtes get_post_meta() distinctes pour récupérer une publication n’est pas un gaspillage.

La prochaine chose que vous devez apprendre est de savoir comment utiliser correctement les transitoires dans WordPress. Les transitoires sont une solution unique pour mettre en cache des objets avec une date d'expiration. Ils peuvent être utilisés pour mettre en cache un pied de page ou un en-tête qui ne change pas dans le temps sauf cas particuliers. Ensuite, vous videz simplement le cache.

Conclusion

Le cache de site Internet est une technologie qui augmente la vitesse d’un site sans rien sacrifier de manière significative. Lorsqu'il est utilisé correctement, il accélérera non seulement considérablement le processus de chargement des pages, mais réduira également la charge sur le serveur.

Diagramme de cache de mémoire CPU

Un cache est une mémoire à vitesse d'accès plus rapide, destinée à accélérer l'accès aux données contenues en permanence en mémoire à vitesse d'accès plus lente (ci-après dénommée « mémoire principale »). La mise en cache est utilisée par les processeurs, les disques durs, les navigateurs et les serveurs Web.

Un cache est constitué d'un ensemble d'entrées. Chaque enregistrement est associé à un élément de données ou à un bloc de données (un petit morceau de données), qui est une copie de l'élément de données dans la mémoire principale. Chaque entrée possède un identifiant qui identifie la correspondance entre les éléments de données dans le cache et leurs copies dans la mémoire principale.

Lorsqu'un client de cache (CPU, navigateur Web, système d'exploitation) accède aux données, le cache est examiné en premier. Si une entrée avec un identifiant correspondant à l'identifiant de l'élément de données demandé est trouvée dans le cache, alors les éléments de données dans le cache sont utilisés. Ce cas s'appelle accès au cache. Si aucune entrée n'est trouvée dans le cache contenant l'élément de données demandé, celui-ci est alors lu de la mémoire principale dans le cache et devient disponible pour un accès ultérieur. Ce cas s'appelle manque de cache. Le pourcentage d'accès au cache lorsqu'un résultat y est trouvé est appelé taux de réussite ou taux de réussite mettre en cache.

Par exemple, un navigateur Web vérifie son cache disque local pour voir s'il existe une copie locale de la page Web correspondant à l'URL demandée. Dans cet exemple, l'URL est l'identifiant et le contenu de la page Web correspond aux éléments de données.

Si la taille du cache est limitée, en cas d'échec, une décision peut être prise de supprimer certaines entrées pour libérer de l'espace. Divers algorithmes d'expulsion sont utilisés pour sélectionner l'enregistrement à supprimer.

Lorsque les éléments de données du cache sont modifiés, ils sont mis à jour dans la mémoire principale. Le délai entre la modification des données dans le cache et la mise à jour de la mémoire principale est contrôlé par ce qu'on appelle rédiger une politique.

En cache avec enregistrement immédiat chaque changement provoque une mise à jour synchrone des données dans la mémoire principale.

En cache avec enregistrement différé(ou répondre) la mise à jour intervient lorsqu'un élément de donnée est évincé, périodiquement ou à la demande du client. Pour garder une trace des éléments de données modifiés, les entrées du cache stockent un indicateur de modification ( modifié ou "sale"). Un échec de réécriture du cache peut nécessiter deux accès à la mémoire principale : le premier pour écrire les données à remplacer à partir du cache et le second pour lire l'élément de données souhaité.

Si les données de la mémoire principale peuvent être modifiées indépendamment du cache, alors l'entrée du cache peut devenir non pertinent. Les protocoles de communication entre les caches qui maintiennent la cohérence des données sont appelés protocoles de cohérence du cache.

Cache du processeur

Mise en cache des résultats du travail

De nombreux programmes écrivent quelque part les résultats intermédiaires ou auxiliaires du travail afin de ne pas les calculer à chaque fois qu'ils sont nécessaires. Cela accélère le travail, mais nécessite de la mémoire supplémentaire (RAM ou disque). Un exemple d’une telle mise en cache est l’indexation de bases de données.

L'industrie informatique est constamment à la recherche de moyens d'améliorer sa productivité. Prenant pour slogan que plus vite, c'est toujours mieux, les ingénieurs recherchent néanmoins des moyens d'augmenter la productivité sans trop compliquer la conception ni trop augmenter le coût des appareils.

Un ordinateur, composé d’appareils dont les principes de fonctionnement et les objectifs sont très différents, peut, à juste titre, être qualifié de « nid de discorde ». Eh bien, ses sous-systèmes et nœuds ne veulent pas travailler en harmonie pour le bien commun. Si le processeur prend de l'avance, la mémoire est en retard et il n'est pas nécessaire de parler de lecteurs de disque. Et faire courir tout le monde à la vitesse fixée par le leader est extrêmement difficile.

La mise en cache est l'une des techniques techniques visant à coordonner le fonctionnement de périphériques de différentes vitesses, utilisés plusieurs fois dans un ordinateur et à différents niveaux. Bien que la mise en œuvre de la mise en cache dans un cas particulier puisse être assez complexe, l’idée sous-jacente est très simple. À l'intérieur d'un ordinateur, un cache est un endroit où les informations sur le programme, les adresses ou les données sont temporairement stockées.

Étant donné que l'informatique est de nature hautement itérative (c'est-à-dire qu'une séquence d'actions est répétée encore et encore avec des changements minimes), la mise en cache constitue une méthode très efficace pour augmenter les performances en permettant au système de stocker les données fréquemment nécessaires dans le cache intermédiaire le plus proche. mémoire accessible par l’appareil plus rapidement et plus facilement que l’accès à la mémoire principale.

Lire la mise en cache sur les disques durs Tous les grands fabricants, comme Seagate, reconnaissent la technique de mise en cache comme particulièrement efficace pour les disques durs. Cela est dû au fait que la vitesse des disques durs est des milliers, voire des millions de fois inférieure à celle des éléments RAM à semi-conducteurs d'une carte mère d'ordinateur.

Étant donné que l'ordinateur accède généralement aux lecteurs de disque de manière séquentielle, c'est-à-dire que la séquence de requêtes est quelque peu prévisible, les performances du sous-système de disque peuvent être considérablement améliorées en lisant des données supplémentaires dans la mémoire cache avant que l'ordinateur ne les demande. Et les données nécessaires seront alors récupérées de la mémoire SSD plusieurs milliers de fois plus rapidement que si elles devaient être lues à partir d'un disque.

Les tests montrent que lorsqu'un ordinateur demande des données à une certaine adresse, dans 80 à 90 % des cas, la requête suivante touchera les données situées après. Malheureusement, essayer d’améliorer les performances en utilisant la mise en cache reste risqué. Des informations supplémentaires sont lues à partir du disque sur la base de chances de succès, bien que grandes, mais pas à cent pour cent, c'est-à-dire sur le fait qu'elles seront utiles à l'avenir.

Ainsi, la mise en cache de lecture est basée sur la prédiction des prochains accès au disque pour les données (généralement situées immédiatement après celle qui vient d'être lue) et sur leur placement dans la mémoire rapide avant que le système n'en ait besoin. Étant donné que le programme de mise en cache lit les informations en mémoire avant d'y accéder, ce mécanisme est souvent appelé tampon de lecture anticipée. Du point de vue d'une augmentation encore plus significative des performances, cela n'a aucun sens de placer le tampon cache et le programme correspondant dans la mémoire principale de l'ordinateur, car cela nécessitera alors une partie des ressources informatiques du processeur central. . Le lecteur de disque lui-même peut gérer la mise en cache proactive sans distraire l'ordinateur avec les tracas liés à la gestion de la mémoire cache.

Pour ces raisons, tous les disques durs, y compris les disques durs mobiles, de bureau et haut de gamme, prennent aujourd'hui en charge la mise en cache de lecture à l'aide d'un concept avancé. Par exemple, en plaçant un plus grand nombre de puces mémoire sur un disque, cela permet de conserver davantage de données prêtes sans attendre qu'elles soient lues sur le disque après avoir reçu une requête. En d'autres termes, lors de l'installation non pas de 64, mais de 128 kilo-octets de mémoire sur la carte de circuit imprimé du variateur de vitesse, il devient possible de lire et de préparer deux fois plus d'informations pour la sortie à l'avance. Et, tant que l'ordinateur continue de demander des données écrites séquentiellement sur le disque, elles lui seront instantanément transmises depuis le cache.

Aujourd'hui, alors que la plupart des fabricants utilisent entre 128 et 512 kilo-octets de mémoire cache, Seagate, dans ses disques Barracuda et Cheetah les plus productifs, a augmenté son volume jusqu'à un mégaoctet (offrant la possibilité de l'augmenter quatre fois), et les disques durs Elite ont un la capacité d'enregistrement (23 gigaoctets) est immédiatement équipée de 2 mégaoctets de cache. Cela est nécessaire compte tenu des applications auxquelles ces disques durs sont destinés - pour les postes de travail et serveurs haut de gamme, les mini et superordinateurs. Dans chacun de ces cas, une grande quantité de données doit constamment être lue au taux de transfert maximum. Le plus rapidement possible.

Mise en cache adaptative Chaque fois qu'un ordinateur accède à des données déjà présentes dans le cache, la requête est appelée « accès au cache ». Si les données demandées ne sont pas dans le cache et que le lecteur doit activer sa mécanique et les lire sur les disques, on parle de « raté ». Le moyen le plus simple de juger de l’efficacité du fonctionnement d’un programme (ou d’un algorithme) de mise en cache est d’évaluer son taux d’échecs. En comparant le nombre de hits avec le nombre d'échecs, on obtient ce que l'on appelle un « hit rating » pour le système de mise en cache appliqué.

L’utilisation de stratégies connues sous le nom de mise en cache adaptative et segmentée permet de minimiser la fréquence des ratés.

Voici un exemple du fonctionnement d'un cache segmenté. Supposons que le disque dur dispose de 800 kilo-octets de mémoire cache. Une stratégie de mise en cache simple suppose que la totalité de ces 800 kilo-octets sera remplie de données en lecture anticipée. Si l'une de ces données n'est pas nécessaire au système lors de son prochain accès, elle devra être entièrement supprimée du cache. C'est un raté. Permettez-moi de noter que cela se produit assez souvent lors du fonctionnement des systèmes multitâches modernes, dans lesquels plusieurs programmes d'application accèdent alternativement au disque pour obtenir des données, chacun d'eux étant intéressé par les informations enregistrées sur le disque dans un endroit complètement différent.

Imaginez maintenant que la mémoire cache soit divisée en deux segments de 400 kilo-octets chacun. Le lecteur les traite comme deux tampons de cache complètement indépendants. Désormais, les données d'une application peuvent être écrites dans le premier segment de 400 Ko, et pour une deuxième application, elles peuvent être écrites dans le deuxième segment de 400 Ko. Les données des deux programmes seront servies à partir de la mémoire cache, le ratio de réussites et d'échecs sera multiplié par deux, voire plus. C'est pourquoi Seagate utilise des tampons de cache dans ses disques durs, divisés en deux ou quatre segments de taille fixe. Les ingénieurs de Seagate estiment injustifié d'augmenter leur nombre au-delà de quatre, sauf cas exceptionnels.

La deuxième façon d’améliorer les taux de réussite est appelée mise en cache adaptative. En réalité, le terme mise en cache adaptative décrit deux méthodes différentes pour améliorer l’efficacité. Conformément au premier, une segmentation adaptative est mise en œuvre, ce qui permet au contrôleur de disque dur de contrôler le nombre de segments indépendants organisés dans la mémoire cache. Le deuxième type de mise en cache adaptative implique l'utilisation d'un algorithme adaptatif.

Supposons à nouveau que le disque dur dispose d'un tampon de cache en lecture anticipée de 800 kilo-octets et que ce tampon est divisé en quatre segments de 200 kilo-octets. Supposons également qu'une application exécutée sur l'ordinateur demande des données qui ne sont disponibles dans aucun des quatre segments. Le lecteur doit accepter les erreurs et les lire sur ses plateaux de disque, tout en décidant où les placer dans le cache. Pour prendre cette décision, il doit déterminer lequel des quatre segments est le mieux à nettoyer. Bien entendu, il n'est pas souhaitable de placer de nouvelles données dans un segment à partir duquel des informations pourraient bientôt être demandées, car cela entraînerait leur relecture et le rechargement du cache. L'algorithme adaptatif décide quelles données de segment sont les plus susceptibles de ne plus être nécessaires, sur la base de sa propre analyse de l'utilisation précédente des données.

L’avantage de la mise en cache est qu’elle offre un moyen relativement peu coûteux et simple d’adapter les performances de votre ordinateur et de vos périphériques. Une mise en cache bien mise en œuvre peut améliorer les performances de plusieurs ordres de grandeur.

Roman Sabalenko, basé sur des matériaux de Seagate

Probablement, de nombreux utilisateurs d'ordinateurs et d'appareils mobiles ont au moins parfois rencontré le concept de « données mises en cache ». De quoi s’agit-il, beaucoup, à vrai dire, n’en ont tout simplement aucune idée. Cependant, grâce à des astuces pour accélérer tout appareil doté d'un système d'exploitation, ils savent avec certitude que le cache doit être vidé. C'est en partie vrai, mais toutes les données ne peuvent pas être supprimées. Il arrive que sans eux, certains programmes installés sur l'appareil ne fonctionneront tout simplement pas.

Que signifie « données mises en cache » au sens général ?

Voyons donc le concept général. Grosso modo, ce terme décrit les données stockées sur un ordinateur ou un système mobile pour accélérer l'accès ultérieur à certaines applications ou sites sur Internet en téléchargeant des informations dont la récupération serait normalement plus longue.

Pour que ce soit plus clair, nous pouvons donner un exemple de la façon dont les données mises en cache sont utilisées. Qu'en est-il, par exemple, si un utilisateur visite une page Internet sur laquelle il regarde des photographies ? Il s’agit de leurs copies sous forme de miniatures, qui sont enregistrées dans un dossier spécial sur le disque dur de l’ordinateur ou sur la mémoire interne d’un appareil mobile. En rentrant dans la page, l'utilisateur n'a pas besoin d'attendre que tout le contenu (par exemple, graphiques, vidéo et, en général, multimédia) soit chargé, puisque tous les éléments de la page sont ajoutés directement à partir du répertoire cache.

au téléphone ?

Mais ce n’était là qu’une justification générale. Avec Internet, tout est clair. Voyons maintenant quelles sont les données d'application mises en cache sur un téléphone (c'est-à-dire les applets autres que les navigateurs Web).

En fait, ces informations sont quelque peu similaires par essence aux données enregistrées sur Internet, mais elles sont pour la plupart associées à l'enregistrement des paramètres ou du contenu spécifique de tout programme avec lequel le système d'exploitation fonctionne. Pour que ce soit un peu plus clair, regardons quelques exemples ci-dessous.

Exemples d'utilisation du cache

Examinons quelques types de données de base qui peuvent et ne peuvent pas être supprimées. Dans le premier cas, cela s'applique à toutes les applications installées sur le système, à moins que leur pleine fonctionnalité ne nécessite l'utilisation d'un cache supplémentaire différent de celui du système.

Mais avec le contenu spécial du cache, qui doit souvent être copié soi-même sur un téléphone ou une tablette ou téléchargé en outre à partir d'Internet, la situation est quelque peu différente.

L’exemple le plus simple concerne les données mises en cache du jeu. Qu'est-ce que ça pourrait être ? Oui, n'importe quoi : des textures supplémentaires, des graphiques, de la vidéo, de l'audio ou même des paramètres du jeu lui-même. Comme cela est déjà clair, ces informations ne peuvent en aucun cas être supprimées, car le jeu ne démarrera tout simplement pas ou donnera une erreur indiquant qu'il manque ceci et cela pour démarrer.

Il en va de même pour certaines applications musicales pour appareils mobiles. Prenons FL Studio Mobile comme exemple. Même le propre programme d'installation de l'application ne dispose pas de tout le nécessaire pour exécuter le séquenceur. En d’autres termes, seul le shell logiciel principal est installé.

Que sont les données d'application mises en cache sur le téléphone par rapport à ce type de programme ? Il s'agit de boîtes à outils, d'effets, de paramètres d'interaction avec d'autres applets, de paramètres de prise en charge de certains formats audio, etc. En règle générale, un tel cache est enregistré dans un dossier obb spécial, situé sur le lecteur interne, sauf s'il est indiqué que il peut être placé sur une carte mémoire amovible. De telles informations occupent beaucoup de place, mais sans elles, l'application ne sera pas fonctionnelle (quelle est la valeur d'un seul shell logiciel, qui n'a ni outils ni effets ?).

Vider le cache sur un appareil mobile à l'aide de moyens standards

Que sont les données mises en cache sur un téléphone, nous l'avons un peu compris. Voyons maintenant comment nettoyer ce type de contenu, car il a tendance à ralentir le système.

Tout appareil Android dispose de deux outils de suppression du cache. Le premier est conçu pour supprimer les données de toutes les applications, le second vous permet de vider le cache uniquement pour une applet individuelle.

Si vous devez tout supprimer, utilisez le menu des paramètres dans lequel la section mémoire est sélectionnée. Lorsque vous appuyez sur une ligne de données mises en cache, le système émet un avertissement indiquant que toutes les informations seront supprimées. Nous sommes simplement d'accord et attendons que le nettoyage soit terminé.

Maintenant, quelques mots supplémentaires sur ce que sont les données d'application mises en cache en termes de suppression pour une applet sélectionnée séparément. Vous pouvez retrouver des informations à leur sujet dans la même section mémoire, mais en allant dans le menu de l'application.

Ensuite, il vous suffit de sélectionner l'applet souhaitée et, après être entré dans son menu, d'appuyer sur le bouton Effacer le cache en bas. En général, la première et la deuxième méthode semblent quelque peu gênantes, car dans ce cas, la suppression peut être effectuée à partir de différentes sources. Par conséquent, il est préférable d'utiliser des programmes spéciaux.

Utiliser des optimiseurs et des nettoyeurs

Aujourd'hui, de nombreux programmes de ce type ont été créés par analogie avec des systèmes informatiques fixes. Dans les mêmes référentiels Play Market ou AppStore, vous pouvez en trouver même pas des dizaines, mais des centaines.

Les données mises en cache (ce que c'est est déjà clair) peuvent être supprimées pour l'ensemble du système et pour chaque applet sélectionnée.

Quant aux programmes eux-mêmes, les plus préférables sont les applications et les applets étroitement ciblées conçues pour une optimisation générale. Les premiers sont représentés par des programmes tels que App Cache Cleaner, Auto Cahe Cleaner, etc.

Parmi les optimiseurs, on peut notamment souligner les versions mobiles de CCleaner, All-in-one Toolbox et bien d'autres. Ce qu'il faut utiliser exactement est une question de préférence personnelle, car chacun de ces programmes a ses propres avantages et inconvénients.

Au lieu d'un total

Il s’agit tout simplement de comprendre le terme « données mises en cache ». Je pense que ce que c'est est déjà clair pour la plupart des utilisateurs. Cependant, la question de la suppression de ces informations doit être abordée avec une extrême prudence, car pour certains types de programmes, comme mentionné ci-dessus, cela peut être nécessaire au travail. Mais comme le montre la pratique, il vaut mieux se tourner vers les services publics généraux. Dans ceux-ci, l'outil de suppression du cache est un module obligatoire. Et en les utilisant, vous pouvez également accélérer le système.



Des questions ?

Signaler une faute de frappe

Texte qui sera envoyé à nos rédacteurs :