Utiliser le SSD comme cache. Optimiser le fonctionnement d'un disque SSD sous Windows. GPA global

  • Optimisation du serveur,
  • Administration système,
  • Stockage de données,
  • Entrepôts de données
  • Dans les articles sur les systèmes de stockage des « Notes de l'administrateur », les technologies d'organisation logicielle d'une baie de disques n'ont pratiquement pas été prises en compte. De plus, toute une série de scénarios relativement bon marché pour accélérer le stockage à l'aide de disques SSD sont restés dans les coulisses.


    Par conséquent, dans cet article, j'examinerai trois bonnes options pour utiliser les disques SSD afin d'accélérer le sous-système de stockage.

    Pourquoi ne pas simplement assembler une matrice de SSD - un peu de théorie et de raisonnement sur le sujet

    Le plus souvent, les SSD sont considérés simplement comme une alternative aux disques durs, avec une bande passante et des IOPS plus élevées. Cependant, un tel remplacement direct est souvent trop coûteux (les disques de marque HP, par exemple, coûtent à partir de 2 000 $) et les disques SAS habituels sont renvoyés au projet. Alternativement, les disques rapides sont simplement utilisés de manière ponctuelle.


    En particulier, il semble pratique d'utiliser un SSD pour une partition système ou pour une partition avec des bases de données - vous pouvez vous renseigner sur les gains de performances spécifiques dans. De ces mêmes comparaisons, il est clair que lors de l'utilisation de disques durs conventionnels, le goulot d'étranglement réside dans les performances du disque, mais dans le cas d'un SSD, l'interface sera le goulot d'étranglement. Par conséquent, le remplacement d’un seul disque n’apportera pas toujours le même résultat qu’une mise à niveau complète.


    Les serveurs utilisent des SSD avec une interface SATA, ou des SAS et PCI-E plus puissants. La plupart des SSD pour serveurs SAS disponibles sur le marché sont vendus sous les marques HP, Dell et IBM. À propos, même sur les serveurs de marque, vous pouvez utiliser des disques des fabricants OEM Toshiba, HGST (Hitachi) et autres, ce qui vous permet de rendre la mise à niveau aussi bon marché que possible avec des caractéristiques similaires.


    Avec l'utilisation généralisée des disques SSD, un protocole d'accès distinct pour les disques connectés au bus PCI-E, NVM Express (NVMe), a été développé. Le protocole a été développé à partir de zéro et dépasse largement les capacités SCSI et AHCI habituelles. Les SSD dotés d'interfaces PCI-E, U.2 (SFF-8639) et certaines interfaces M.2, plus rapides que les SSD conventionnels, fonctionnent généralement avec NVMe plus que doublé. La technologie est relativement nouvelle, mais avec le temps, elle prendra certainement sa place dans les systèmes de disques les plus rapides.


    Un peu sur le DWPD et l'influence de cette caractéristique sur le choix d'un modèle spécifique.

    Lorsque vous choisissez des disques SSD avec une interface SATA, vous devez faire attention au paramètre DWPD, qui détermine la durabilité du disque. DWPD (Drive Writes Per Day) est le nombre autorisé de cycles de réécriture d'un disque entier par jour pendant la période de garantie. Parfois, il existe une caractéristique alternative TBW/PBW (TeraBytes Written, PetaBytes Written) : il s'agit du volume d'enregistrement déclaré sur le disque pendant la période de garantie. Dans les SSD à usage domestique, l'indicateur DWPD peut être inférieur à un, dans les SSD dits « serveur », il peut être de 10 ou plus.


    Cette différence est due aux différents types de mémoire :

      NAND SLC. Le type le plus simple est que chaque cellule mémoire stocke un bit d’information. Par conséquent, ces disques sont fiables et offrent de bonnes performances. Mais vous devez utiliser plus de cellules mémoire, ce qui affecte négativement le coût ;

      MLC-NAND. Chaque cellule stocke déjà deux bits d’information – le type de mémoire le plus populaire.

      NAND eMLC. Identique au MLC, mais la résistance à l'écrasement est augmentée grâce à des puces plus chères et de haute qualité.

    • CCM NAND. Chaque cellule stocke trois bits d'informations. Le disque est le moins cher à produire, mais il présente les performances et la durabilité les plus faibles. Pour compenser les pertes de vitesse, la mémoire SLC est souvent utilisée pour le cache interne.

    Ainsi, lors du remplacement de disques conventionnels par des disques SSD, il est logique d'utiliser des modèles MLC en RAID 1, qui offriront une excellente vitesse avec le même niveau de fiabilité.


    On pense que l’utilisation du RAID avec un SSD n’est pas une bonne idée. La théorie est basée sur le fait que les SSD en RAID s'usent de manière synchrone et qu'à un moment donné, tous les disques peuvent tomber en panne en même temps, en particulier lors de la reconstruction de la matrice. Cependant, avec le disque dur, la situation est exactement la même. A moins que des blocs endommagés de la surface magnétique ne vous permettent même pas de lire les informations, contrairement à un SSD.

    Le coût encore élevé des disques SSD nous amène à réfléchir à des utilisations alternatives, au-delà du remplacement ponctuel ou de l'utilisation de systèmes de stockage basés uniquement sur les SSD.

    Extension du cache du contrôleur RAID

    La vitesse de la matrice dans son ensemble dépend de la taille et de la vitesse du cache du contrôleur RAID. Ce cache peut être étendu à l'aide d'un SSD. La technologie ressemble à une solution d'Intel.


    Lors de l'utilisation d'un tel cache, les données utilisées le plus souvent sont stockées sur des disques SSD de mise en cache, à partir desquels elles sont lues ou écrites ultérieurement sur un disque dur ordinaire. Il existe généralement deux modes de fonctionnement, similaires au RAID habituel : écriture différée et écriture directe.


    Dans le cas de l'écriture directe, seule la lecture est accélérée, et avec la réécriture, la lecture et l'écriture sont accélérées.


    Vous pouvez en savoir plus sur ces paramètres sous le spoiler.

      Lors de la configuration d'un cache en écriture directe, l'écriture est effectuée à la fois dans le cache et dans la baie principale. Cela n'affecte pas les écritures, mais accélère les lectures. De plus, les pannes de courant ou l'ensemble du système ne sont plus si terribles pour l'intégrité des données ;

    • Le paramètre de réécriture vous permet d'écrire des données directement dans le cache, ce qui accélère les opérations de lecture et d'écriture. Dans les contrôleurs RAID, cette option ne peut être activée que lors de l'utilisation d'une batterie spéciale protégeant la mémoire non volatile ou lors de l'utilisation de la mémoire flash. Si vous utilisez un SSD séparé comme cache, le problème d'alimentation n'est plus un problème.

    Une licence spéciale ou une clé matérielle est généralement requise pour fonctionner. Voici les noms spécifiques des technologies des fabricants populaires sur le marché :

      LSI (Broadcom) MegaRAID CacheCade. Vous permet d'utiliser jusqu'à 32 SSD pour le cache, avec une taille totale ne dépassant pas 512 Go, le RAID des disques de mise en cache est pris en charge. Il existe plusieurs types de clés matérielles et logicielles, le coût est d'environ 20 000 roubles ;

      Microsemi Adaptec MaxCache. Permet jusqu'à 8 caches SSD dans n'importe quelle configuration RAID. Il n'est pas nécessaire d'acheter une licence distincte ; le cache est pris en charge dans les adaptateurs de la série Q ;

    • HPE SmartCache dans les serveurs ProLiant de 8e et 9e génération. Les prix actuels sont disponibles sur demande.

    Le fonctionnement du cache SSD est extrêmement simple : les données fréquemment utilisées sont déplacées ou copiées sur le SSD pour un accès rapide, et les informations moins populaires restent sur le disque dur. En conséquence, la vitesse de travail avec des données répétitives augmente considérablement.


    Les graphiques suivants illustrent le fonctionnement d'un cache RAID basé sur SSD :



    StorageReview - comparaison des performances de différentes baies lorsque vous travaillez avec une base de données : des disques standards et leur alternative basée sur LSI CacheCade ont été utilisés.


    Mais s’il existe une implémentation matérielle, il existe probablement un équivalent logiciel pour moins d’argent.

    Cache rapide sans contrôleur

    En plus du RAID logiciel, il existe également un cache SSD logiciel. Windows Server 2012 a introduit une technologie intéressante appelée Storage Spaces, qui vous permet de créer des matrices RAID à partir de n'importe quel disque disponible. Les disques sont regroupés en pools qui hébergent déjà des volumes de données – une conception qui rappelle la plupart des systèmes de stockage matériels. Les fonctionnalités utiles des espaces de stockage incluent les niveaux de stockage et le cache de réécriture.



    Les niveaux de stockage vous permettent de créer un pool de disques durs et SSD, où les données les plus courantes sont stockées sur le SSD. Le rapport SSD/HDD recommandé est de 1:4 à 1:6. Lors de la conception, il convient d'envisager la possibilité de mise en miroir ou de parité (analogues de RAID-1 et RAID-5), car chaque partie du miroir doit avoir le même nombre de disques et SSD ordinaires.


    Le cache d'écriture dans les espaces de stockage n'est pas différent de la réécriture normale dans les matrices RAID. Seulement ici, le volume requis est « coupé » du SSD et est par défaut d'un gigaoctet.

    Considérons plusieurs options différentes pour construire un sous-système de disque serveur afin de les comparer en termes de prix et de performances. Choisissons 10 To comme capacité utile de stockage sur disque. Toutes les options supposent l'utilisation d'un contrôleur RAID matériel avec un cache de 2 Go.

    Option budgétaire- deux disques durs 3,5" de 10 To avec une interface SATA et une vitesse de broche de 7 200 tr/min, combinés dans une matrice RAID1. Les performances d'une telle matrice ne dépasseront pas 500 opérations par seconde (IOPS) en lecture et 250 IOPS en écriture. Supplémentaire L'avantage de cette solution est la possibilité de multiplier la capacité de stockage en ajoutant de nouveaux disques dans les baies libres du panier de disques du serveur.

    Option productive- 12 HDD 2.5" 10'000RPM d'une capacité de 1.8To en RAID10 (RAID5 ou RAID50 est deux fois plus lent en écriture). On obtient ici environ 5'000 IOPS en lecture, et 2'500 IOPS en écriture - en 10 fois plus cher que la première option. Cependant, ces disques coûteront environ six fois plus cher.

    Performances maximales fournira une matrice RAID10 de disques SSD, par exemple 12 morceaux d'Intel DC S4600 1,9 To. Les performances d'une telle baie seront de 800 000 IOPS sur les opérations de lecture et de 400 000 IOPS sur les opérations d'écriture, soit 160 fois plus rapide que la deuxième option, mais 4 fois plus chère que celle-ci et 24 fois plus chère que la première option. Le choix de disques SSD plus grands donnera à peu près les mêmes chiffres en termes de coût et de performances légèrement inférieures.

    Option
    tableau
    En lisant
    (IOPS)
    Enregistrer
    (IOPS)
    À quelle heure
    fois plus rapide
    À quelle heure
    fois plus cher
    Disque dur 10 To x 2500 250
    Disque dur 1,8 To x 125’000 2’500 X10X6
    SSD 1,9 To x 12800’000 400’000 X1600X24

    En général, plus c'est cher, plus c'est rapide. Et même la vitesse dépasse le prix.

    Le gain de performances de 3 ordres de grandeur offert par les SSD est extrêmement attractif, mais a un coût prohibitif pour un stockage de cette taille.

    Heureusement, il existe une technologie moins coûteuse qui peut offrir des performances du même ordre de grandeur qu’une baie SDD conventionnelle. Il est basé sur l'utilisation de disques SSD comme mémoire cache du sous-système de disque.

    L'idée de la mise en cache SSD repose sur le concept de données « chaudes ».

    En règle générale, les applications serveur fonctionnent activement avec seulement une petite partie des données stockées sur le sous-système de disque du serveur. Par exemple, sur le serveur 1C, les transactions sont effectuées principalement avec les données de la période d'exploitation en cours et la plupart des demandes adressées au serveur d'hébergement Web font généralement référence aux pages les plus populaires du site.

    Ainsi, dans le sous-système de disque du serveur, il existe des blocs de données auxquels le contrôleur accède beaucoup plus souvent que les autres blocs. Le contrôleur, qui prend en charge la technologie de mise en cache SSD, stocke ces blocs « chauds » dans la mémoire cache des disques SSD. L'écriture et la lecture de ces blocs à partir de disques SSD sont beaucoup plus rapides que la lecture et l'écriture à partir de disques durs.

    Il est clair que la division des données en « chauds » et « froids » est tout à fait arbitraire. Cependant, comme le montre la pratique, l'utilisation même d'une paire de petits disques SSD combinés dans une matrice RAID1 pour la mise en cache des données « chaudes » permet une très forte augmentation des performances du sous-système de disque.

    La technologie de mise en cache SSD est utilisée pour les opérations de lecture et d'écriture.

    L'algorithme de mise en cache SSD est implémenté par le contrôleur ; il est assez simple et ne nécessite aucun effort de configuration et de maintenance de la part de l'administrateur. L'essence de l'algorithme est la suivante.

    Lorsque le serveur envoie une requête au contrôleur pour lire un bloc de données

    Si oui, le contrôleur lit le bloc dans le cache SSD.

    Sinon, le contrôleur lit le bloc sur les disques durs et écrit une copie de ce bloc dans le cache SSD. La prochaine fois qu'il y aura une demande de lecture pour ce bloc, il sera lu à partir du cache SSD.

    Lorsque le serveur envoie une requête au contrôleur pour écrire un bloc de données, le contrôleur vérifie si le bloc donné se trouve dans le cache SSD.

    Si oui, le contrôleur écrit ce bloc dans le cache SSD.

    Sinon, le contrôleur écrit ce bloc sur les disques durs et dans le cache SSD. La prochaine fois qu'une demande d'écriture de ce bloc sera faite, il sera uniquement écrit dans le cache SSD.

    Que se passe-t-il si lors de la prochaine demande d'écriture d'un bloc qui n'est pas dans le cache SSD, il n'y a pas d'espace libre pour cela ? Dans ce cas, le bloc « le plus ancien » du cache SSD en termes de temps d'accès sera écrit sur le disque dur, et un « nouveau » bloc prendra sa place.

    Ainsi, quelque temps après que le serveur commence à fonctionner à l'aide de la technologie de mise en cache SSD, la mémoire cache du SSD contiendra principalement des blocs de données auxquels les applications serveur accèdent plus souvent.

    Si vous envisagez d'utiliser la mise en cache SSD pour une utilisation en lecture seule, vous pouvez utiliser un seul disque SSD ou une matrice RAID0 de disques SSD comme cache sur le SSD, car le cache SSD ne stockera que des copies des blocs de données stockés sur le disque dur. conduit.

    Si la mise en cache SSD doit être utilisée pour la lecture et l'écriture, les données « chaudes » ne seront stockées que dans la mémoire cache du SSD. Dans ce cas, il est nécessaire d'assurer la sauvegarde de ces données, pour lesquelles il est nécessaire d'utiliser deux ou plusieurs disques SSD combinés dans une matrice RAID avec redondance, par exemple RAID1 ou RAID10, comme mémoire cache.

    Voyons comment fonctionne la technologie de mise en cache SSD dans la pratique et comparons en même temps l'efficacité de sa mise en œuvre sur des contrôleurs de deux fabricants différents - Adaptec et LSI.

    Essai

    Baie de disques principale : RAID10 de six disques durs SATA 3,5" 1 To. Le volume utilisable de la baie est de 2,7 To.

    Cache SSD : RAID1 de deux SSD Intel DC S4600 240 Go. Le volume utile de la baie est de 223 Go.

    Nous avons utilisé les 20 premiers millions de secteurs, soit 9,5 Go, de la matrice RAID10 principale comme données chaudes. La petite quantité de données « chaudes » sélectionnée ne change fondamentalement rien, mais elle peut réduire considérablement le temps de test.

    Contrôleurs testés : Adaptec SmartRAID 3152-8i et BROADCOM MegaRAID 9361-8i (LSI).

    La charge sur le sous-système de disque a été créée à l'aide de l'utilitaire iometer. Paramètres de charge de travail : taille de bloc 4K, accès aléatoire, profondeur de file d'attente 256. Nous avons choisi une profondeur de file d'attente plus élevée pour comparer les performances maximales sans prêter attention à la latence.

    Les performances du sous-système de disque ont été enregistrées à l'aide de Windows System Monitor.

    Adaptec (Microsemi) SmartRAID 3152-8i avec technologie maxCache 4.0

    Ce contrôleur prend en charge par défaut la technologie de mise en cache SSD maxCache 4.0 et dispose de 2 Go de sa propre mémoire cache avec protection contre les coupures de courant incluse.

    Lors de la création de la matrice RAID10 principale, nous avons utilisé les paramètres par défaut du contrôleur.

    La matrice de cache RAID1 sur le SSD a été définie sur le mode Write-Back pour activer la mise en cache de lecture et d'écriture du SSD. Lors du réglage du mode Write-Through, toutes les données seront écrites sur le disque dur, nous n'obtiendrons donc qu'une accélération des opérations de lecture.

    Photo d'essai :

    Graphique 1. Test d'Adaptec maxCache 4.0

    La ligne rouge représente les performances du sous-système de disque lors des opérations d'écriture.

    Au premier instant, il y a une forte augmentation des performances jusqu'à 100 000 IOPS - les données sont écrites dans le cache du contrôleur, qui fonctionne à la vitesse de la RAM.

    Une fois le cache plein, les performances reviennent à la vitesse normale de la matrice de disques durs (environ 2 000 IOPS). À ce stade, les blocs de données sont écrits sur les disques durs, car ces blocs ne sont pas encore dans la mémoire cache du SSD et le contrôleur ne les considère pas comme « chauds ». Une copie des données est écrite dans le cache SSD.

    Peu à peu, de plus en plus de blocs sont réécrits ; ces blocs se trouvent déjà dans le cache SSD, le contrôleur les considère donc comme « chauds » et n'écrit que sur le SSD. Les performances des opérations d'écriture atteignent 40 000 IOPS et se stabilisent à ce niveau. Les données du cache SSD étant protégées (RAID1), il n'est pas nécessaire de les réécrire sur la baie principale.

    Notons au passage que la vitesse d'écriture déclarée par le constructeur pour les disques SSD Intel DC S4600 240 Go que nous utilisons ici est exactement de 38 000 IOPS. Puisque nous écrivons le même ensemble de données sur chaque disque dans une paire RAID1 en miroir, nous pouvons dire que les disques SSD fonctionnent à leur vitesse la plus rapide possible.

    Ligne bleue- performances du sous-système disque sur les opérations de lecture. La section de gauche lit les données d'une série de disques durs à une vitesse d'environ 2 000 IOPS ; il n'y a pas encore de données « chaudes » dans la mémoire cache du SSD. Simultanément à la lecture des blocs du disque dur, ils sont copiés dans la mémoire cache du SSD. Progressivement, la vitesse de lecture augmente légèrement à mesure que les blocs précédemment lus dans le cache SSD commencent à être « capturés ».

    Une fois que toutes les données « chaudes » ont été écrites dans le cache SSD, elles y sont lues à une vitesse de plus de 90 000 IOPS (deuxième section bleue).

    Ligne violette - charge combinée (50% lecture, 50% écriture). Toutes les opérations sont effectuées uniquement avec des données « chaudes » sur le SSD. Les performances sont d'environ 60 000 IOPS.

    CV

    Le contrôleur Adaptec SmartRAID 3152-8i fera un excellent travail d'organisation de la mise en cache SSD. Étant donné que le contrôleur inclut déjà la prise en charge de maxCache 4.0 et la protection du cache, seuls les SSD doivent être achetés. Le contrôleur est pratique et facile à configurer ; les paramètres par défaut offrent un niveau maximal de protection des données.

    Enregistrement vidéo des tests d'Adaptec maxCache 4.0 :

    LSI (BROADCOM) MegaRAID 9361-8i

    Ce contrôleur prend en charge la technologie de mise en cache SSD CacheCade 2.0. Pour l'utiliser, vous devez acheter une licence coûtant environ 20 000 roubles.

    La protection du cache n'est pas incluse dans le package, mais sur la base de tests, nous avons constaté que pour obtenir des performances maximales, il est préférable d'utiliser le cache du contrôleur en mode Write-Through, qui ne nécessite pas de protection du cache.

    Paramètres du contrôleur pour la baie principale : cache du contrôleur en mode Write-Through ; Modes de lecture Direct IO, No Read Ahead.

    Mémoire cache sur les disques SSD (matrice RAID1) en mode Write-Back pour la mise en cache des opérations de lecture et d'écriture.

    Image de test (ici la plage d'échelle verticale est le double de celle d'Adaptec) :

    Graphique 2. Test de LSI CacheCade 2.0

    La séquence de test est la même, l'image est similaire, mais les performances de CacheCade 2.0 sont légèrement supérieures à celles de maxCache.

    Lors des opérations d'écriture de données « chaudes », nous avons obtenu des performances de près de 60 000 IOPS contre 40 000 d'Adaptec, en lecture - près de 120 000 IOPS contre 90 000 IOPS, en charge combinée - 70 000 IOPS contre 60' 000 IOPS.

    Il n'y a pas de « pic » de performances au moment initial du test des opérations d'écriture, puisque le cache du contrôleur fonctionne en mode Write-Through et n'est pas utilisé lors de l'écriture de données sur des disques.

    CV

    Le contrôleur LSI dispose de paramétrages plus complexes, nécessitant une compréhension des principes de son fonctionnement. La protection du cache du contrôleur n'est pas requise pour utiliser la mise en cache SSD. Contrairement à Adaptec, il est possible d'utiliser le cache SSD pour gérer plusieurs matrices RAID à la fois. Meilleures performances que les contrôleurs Adaptec. Nécessite l'achat d'une licence CacheCade supplémentaire.

    Enregistrement vidéo des tests LSI CacheCade 2.0 :

    Conclusion

    Ajoutons à notre tableau. Lorsque vous comparez les prix, tenez compte du fait que pour une baie de 10 To, une mémoire cache plus grande est souhaitable. Nous prendrons les chiffres de performances de nos tests.

    Option
    tableau
    En lisant
    (IOPS)
    Enregistrer
    (IOPS)
    À quelle heure
    fois plus rapide
    À quelle heure
    fois plus cher
    Disque dur 10 To x 2 500 250
    Disque dur 1,8 To x 12 5’000 2’500 X10X6
    SSD 1,9 To x 12 800’000 400’000 X1600X24
    Disque dur 10 To x 2 + SSD 960 Go x 2, maxCache 90’000 40’000 X160X2,5
    Disque dur 10 To x 2 + SSD 960 Go x 2, CacheCade 120’000 60’000 X240X3

    Lors de l'écriture de la mise en cache d'écriture, utilisez toujours des baies redondantes (RAID1 ou RAID10) comme cache SSD.

    Pour le cache SSD, utilisez uniquement des disques SSD de serveur. Ils disposent d’une surface « invisible » supplémentaire d’environ 20 % du volume déclaré. Cette zone de réserve est utilisée pour les opérations de défragmentation interne et de garbage collection, de sorte que les performances de ces disques lors des opérations d'écriture ne diminuent pas même lorsqu'ils sont pleins à 100 %. De plus, la présence d'une zone de réserve permet d'économiser les ressources motrices.

    La ressource des disques SSD pour la mémoire cache doit correspondre à la charge sur le sous-système de stockage du serveur en termes de volume de données écrites. La ressource du lecteur est généralement déterminée par le paramètre DWPD (Drive Writes Per Day) - combien de fois par jour le lecteur peut être complètement écrasé pendant 5 ans. Les disques avec 3 DWPD ou plus seront généralement un choix approprié. Vous pouvez mesurer la charge réelle sur le sous-système de disque à l'aide du moniteur système.

    S'il est nécessaire de transférer toutes les données de la mémoire cache des disques SSD vers la baie principale, vous devez basculer le mode de fonctionnement du cache SSD de Write-Back à Write-Through et attendre que les données soient complètement écrites sur le disque dur. conduit. A la fin de cette procédure, mais pas avant, le contrôleur « autorisera » la suppression du volume de cache SSD.

    Si vous avez des questions ou des commentaires sur ce matériel, veuillez les adresser à.

    Une étude détaillée de l'impact de la mise en cache SSD sur les performances du disque dur

    Il y a près de deux ans, le chipset Intel Z68, alors haut de gamme, a été lancé, et avec lui la technologie Smart Response a fait ses débuts. Cela semblerait nouveau, mais il a en fait des racines profondes - l'idée de combiner les atouts des disques durs traditionnels et des disques SSD dans un seul système est dans l'air depuis longtemps. Que faut-il pour cela ? Vous devez ajouter une certaine quantité de mémoire flash au disque dur comme tampon de cache. Idéalement, au fil du temps, il devrait inclure les secteurs auxquels le système accède le plus souvent, ce qui entraînera une augmentation significative des performances - l'accès au SSD est plus rapide. Et le disque dur contiendra simplement des données et du code rarement exécuté, puisque sa capacité est suffisante pour cela, et la vitesse de lancement des programmes rarement utilisés n'est pas trop critique. Une option encore plus idéale, bien sûr, consiste à utiliser un SSD haute capacité, mais cette solution n'est idéale que du point de vue des performances - le coût de stockage des informations sur des disques SSD est plusieurs fois plus élevé que sur des disques durs. Et l'hybridation permet de se contenter d'une quantité de flash relativement faible, ce qui est peu coûteux et, idéalement, presque aussi rapide que l'utilisation d'un seul SSD.

    Les fabricants de disques durs ont abordé le problème de leur côté en intégrant un tampon flash directement dans les disques durs. Nous avons déjà pris connaissance de telles décisions et, de manière générale, sommes parvenus à la conclusion qu'elles sont justifiées. Certes, jusqu'à récemment, on ne les trouvait que parmi les modèles d'ordinateurs portables, ce qui est tout à fait logique : créer un système hybride de vos propres mains (c'est-à-dire à partir de plusieurs disques) dans un environnement d'ordinateur portable n'est pas toujours possible. Il est donc nécessaire de se faufiler dans un seul corps, et dans un autre qui rentre dans un ordinateur portable, ce qui nous a toujours obligé à faire des compromis. En particulier, le même Seagate Momentus XT ne contenait que 4 Go de mémoire flash dans la première génération et 8 Go dans la seconde. Mais sur un ordinateur de bureau, il y a plus de flexibilité. Vous pouvez, en général, simplement installer un SSD de 240 Go pour que tous les programmes y tiennent, et un grand disque dur pour les données. Ou vous pouvez prendre un SSD plus petit et utiliser Smart Response. De plus, il y a un an, le nombre de chipsets « appropriés » a considérablement augmenté : le Z68 a été complété par le nouveau Z77, le H77 (un peu moins cher), le Q77 d'entreprise et un certain nombre de modifications d'ordinateurs portables. En un mot, il y a de la marge pour faire demi-tour.

    C’est pourquoi nous avons décidé aujourd’hui d’explorer plus en détail le fonctionnement de la technologie Smart Response. Bref, nous l'avons déjà rencontrée lorsque nous étudiions le Z68, mais c'est tout, brièvement. Voyons maintenant en détail : ce qui accélère, comment cela accélère, ce qui ralentit...

    Qu’est-ce qu’on accélère ?

    Comme fluide de travail, nous avons décidé de prendre le Western Digital Green WD30EZRX, qui nous est déjà familier dans l'un des articles précédents. Il nous semble qu'un très bon objet est la série « verte » (donc pas la plus performante), et dans son cadre le variateur n'est pas le plus remarquable en raison de l'utilisation de plaques à faible densité (du point de vue moderne de voir). En général, comme nous l’avons déjà vu, son utilisation comme systémique et unique n’est pas très justifiée. Mais peut-être que Smart Response nous permettra d’inverser la tendance ?

    Comment pouvons-nous l’accélérer ?

    Les fabricants de SSD ont progressivement intensifié leur jeu et produisent déjà aujourd'hui un nombre considérable de séries spéciales de disques de mise en cache. Bien que, en principe, les plus ordinaires conviennent également. De plus, de nombreux passionnés ont encore acheté des disques SSD d'une capacité de 32 à 64 Go (ce sur quoi Intel comptait peut-être lors du lancement du Z68). Mais nous avons décidé d'aborder le problème « honnêtement » et avons pris le SSD de mise en cache AData Premier Pro SP300. Cependant, l'orientation vers une telle application n'est principalement indiquée que par sa capacité de 32 Go et l'interface mSATA. Et donc - un disque SSD tout à fait typique basé sur le contrôleur LSI SandForce SF-2141 déjà légèrement obsolète avec la version 5.0.2a du micrologiciel. En général, si quelqu'un a besoin d'un petit SSD avec une telle interface (par exemple, associé à une carte comme celle-ci), il peut l'utiliser. Aujourd'hui, nous utilisons le SP300 pour l'usage auquel il est destiné :)

    Comment pouvons-nous l’accélérer ?

    Pour que la technologie fonctionne, une carte avec le chipset approprié est requise, au moins Windows Vista, Intel Rapid Storage installé et le mode RAID du contrôleur de disque. Absolument toutes ces conditions sont remplies par notre test standard. Y compris le mode RAID, que nous utilisons toujours (même pour des disques uniques) précisément dans un souci de compatibilité (c'est-à-dire d'aptitude à la comparaison) des résultats.

    Et puis tout est simple. Si Intel Rapid Storage détecte la présence d'un SSD libre après le démarrage de l'ordinateur, il vous invite à activer « boost ». Ensuite, vous devez sélectionner un SSD, un lecteur en cache (s'il y en a plusieurs, comme dans notre cas), décider de la capacité allouée à la mise en cache (20 Go ou la capacité totale du SSD, mais pas plus de 64 Go - ceci est utile si vous souhaitez « extraire » un morceau d'un grand disque et utiliser le reste de manière « normale ») et, surtout, sélectionner le mode de mise en cache. Les deux derniers sont : Amélioré et Maximisé, différant par leur approche de l'enregistrement. Le premier (qui est sélectionné par défaut) ne le met pas réellement en cache - les données finissent sur le SSD uniquement selon la décision du conducteur : principalement selon le critère de fréquence d'utilisation. Le second, en effet, intègre un SSD entre le disque dur et le système : presque toutes les opérations d'écriture sont redirigées vers le disque SSD, et copiées sur le disque dur à partir de celui-ci - en grande partie et après un certain temps. Il est clair qu'ils devraient se comporter différemment : dans le premier cas, il y a plus d'espace pour lancer rapidement des programmes, mais le second, en théorie, devrait permettre d'accélérer considérablement les opérations d'écriture avec accès aléatoire. Cependant, il est plus probable que les données utiles seront remplacées par quelque chose qui était simplement prévu pour être « vidé et oublié », et en outre, il existe une certaine probabilité de perdre des données : que se passera-t-il si le SSD tombe en panne avant les fichiers sur le disque dur ? tu as le temps de mettre à jour ? En général, Intel recommande d'utiliser Enhanced, mais nous avons bien sûr testé les deux modes.

    Méthodologie de test

    La technique est décrite en détail dans un document séparé article. Vous pourrez y vous familiariser avec le matériel et les logiciels utilisés.

    Essai

    Opérations tamponnées



    C'est le même cas où, en principe, rien ne peut accélérer, mais cela peut ralentir : c'est une chose d'écrire quelque chose dans le tampon du disque dur, et une tout autre chose est le lancement chaotique du pilote pour tenter de comprendre si ces données sont sur le SSD (lors de la lecture) et quoi en général, que faut-il en faire (lors de l'enregistrement). En général, comme on pouvait s’y attendre, rien de bon.

    Temps d'accès

    Les requêtes couvrent les 3 téraoctets du disque dur, il n’est donc pas surprenant qu’elles ne trouvent rien dans le SSD. Mais au moins, ça ne ralentit pas – c’est bien.

    Ici, vous pouvez clairement voir la différence entre le mode Maximisé et tous les autres : nous l'avons enregistré sur le SSD, avons reçu une réponse indiquant que l'opération s'est terminée avec succès, et nous pouvons passer aux opérations suivantes, plutôt que d'attendre une réponse de le disque dur, qui, comme on le voit, demande 50 fois plus de temps.



    Dans AS SSD, l’image est la même. Seul l'enregistrement est accéléré par rapport à Everest en modes "normal", mais pas en mode Maximisé - il n'y a rien à améliorer là-bas :)

    Opérations séquentielles

    À partir d'un certain point, nous commençons à lire à partir d'un SSD, et non d'un disque dur, et le premier est plus rapide (bien qu'il ne s'agisse pas d'une sorte de modèle de performance « réactif »), donc tout s'accélère. Mais dans Maximized, tout va mal à cause de la logique compliquée : le pilote vérifie d'abord si ces données ont été récemment écrites sur le SSD, puis il se tourne vers le disque dur, ce qui ralentit le processus.

    Lors de l'enregistrement, l'image est inverse - ici, le mode Maximisé peut légèrement augmenter les performances. Surtout sur les petits blocs, ce qui constitue une opération plus pratique pour les SSD. Mais Enhanced ne fait que ralentir le processus : après tout, vous devez non seulement écrire des données sur le disque dur, mais également analyser si elles doivent être immédiatement placées dans le cache.

    En général, comme nous le voyons, la technologie Smart Response peut parfois améliorer les performances des opérations de bas niveau, mais peut également les réduire dès que l'on passe à un type de charge différent. De plus, comme on pouvait s'y attendre, les comportements Amélioré et Maximisé diffèrent radicalement.

    Accès aléatoire

    Naturellement, lors de la lecture des données, tout le monde se comporte de la même manière : les requêtes sont adressées directement au disque dur. Mais il y a aussi des nuances : comme on le voit, avec un grand nombre de requêtes, le disque hybride s'avère plus lent que le disque dur lui-même en raison de la surcharge logicielle. Pas grand-chose – environ 15 %. Mais cela ne doit pas non plus être négligé.

    Mais ici, seul le mode Maximisé diffère en raison d'une logique de fonctionnement trop complexe : nous écrivons rapidement des données sur le flash, recevons la requête suivante, l'exécutons, recevons la suivante - et découvrons qu'il est temps d'écrire les données des précédentes. au disque dur. En général, malgré le fait qu'à un niveau très bas, comme nous l'avons vu plus haut, ce mode accélère considérablement la conduite, en pratique il peut ne rien donner voire avoir un effet négatif.




    Ceci est particulièrement clairement observé dans les modèles de bases de données, où Enhanced ne donne rien (presque rien - un peu, néanmoins, la vitesse diminue), et Maximized parvient à ralentir le disque dur (bien que, semble-t-il, beaucoup plus). Cependant, avec une grande proportion d'opérations d'écriture, toutes les options aboutissent à un dénominateur commun, il s'agit donc d'un problème légèrement différent - les algorithmes sont trop compliqués.

    Performances des applications

    En fait, c'est pour cela que tout a été commencé : la productivité est multipliée par deux ou plus. Même VelociRaptor ne marque que 2737 points dans PCMark7, et c'est le disque dur le plus rapide du segment des ordinateurs de bureau - donc, semble-t-il, c'est du bonheur. Mais ne nous précipitons pas pour ouvrir le champagne, nous avons encore beaucoup de tests.

    Sur la piste « défenseur », le gain de vitesse est déjà proche du triple.

    Le mode Maximisé a compensé les deux cas précédents et a montré qu'en matière d'écriture de données, il peut être le plus rapide.

    Et la plus belle heure de la technologie - même l'ordre de grandeur est différent. Un seul SSD, bien sûr, est plusieurs fois plus rapide (si nous parlons de modèles hautes performances), mais c'est déjà plusieurs fois plus rapide. Et le système hybride est séparé des disques durs « classiques » par un ordre de grandeur.

    Sur la piste « jeu », la hausse est plus modeste, mais elle est toujours là. De plus, de telle sorte que, encore une fois, même les disques durs les plus rapides n'ont rien à rattraper à côté du modèle « vert », accéléré grâce à Smart Response.

    Nous sommes arrivés. Même si vous ne faites pas attention au fait que Maximized a « échoué » le travail sur le modèle ContentCreation (c'est facile à expliquer), les autres résultats ne suscitent pas non plus d'optimisme. Pourquoi le comportement de PCMark7 et NASPT est-il si différent ? Et ils fonctionnent différemment. PCMark7 possède sept traces enregistrées, avec un volume total pas si important. De plus, ils sont exécutés trois fois, et la première est aussi lente que lors de l'utilisation d'un disque dur. Cependant, à la seconde près, toutes les données sont déjà sur le SSD, nous les testons donc principalement. Par ailleurs, on constate que trois itinéraires n'ont toujours pas pu être accélérés.

    NASPT utilise également plusieurs séries de tests, mais tout le monde- y compris des modèles qui gèrent des fichiers de 32 Go. Ainsi, entre deux exécutions de modèles « fonctionnels », quelques centaines de gigaoctets parviennent à « voler » dans les deux sens. Et aussi intelligent que soit le conducteur, dans cette situation, apparemment, ses capacités mentales ne suffisent pas pour comprendre ce qui doit être conservé dans le cache et ce qui est « écrit et oublié ». Si vous modifiez légèrement la méthodologie de test, en « exécutant » plusieurs fois uniquement des groupes à partir des modèles spécifiés, jouant ainsi avec la technologie, tout devient merveilleux - à partir de la deuxième fois, la vitesse augmente fortement. Cependant, il est évident que dans la vie réelle, tout peut arriver : aussi bien les « bonnes » situations que les « mauvaises », il n'est donc pas surprenant que les deux se soient révélées être en test.

    Nous avons fait ce schéma un peu par malice, mais puisque nous avons les résultats, pourquoi ne pas les regarder ? Et l'exemple est très indicatif et laisse clairement entendre qu'il ne sert à rien d'essayer d'accélérer les lecteurs non système à l'aide de Smart Response. Cependant, examinons cette question un peu plus en détail.

    Travailler avec des fichiers volumineux

    Comme on peut s'y attendre, il n'y a aucun effet : la mise en cache utilisant la technologie Smart Response n'est pas proactive. Et la préemption n'aiderait pas beaucoup avec la lecture séquentielle (même multithread dans un test) d'un volume de données égal à la taille totale du cache flash.

    Lors de l'enregistrement des données, Smart Response ralentit considérablement. Au maximum - lors de l'utilisation du mode Maximisé, ce qui est compréhensible : une tentative de mise en œuvre d'une écriture différée de 32 Go de données à l'aide d'une clé USB pour les mêmes 32 Go est dans un premier temps vouée à l'échec. Eh bien, en mode Amélioré, ce problème n'existe pas, mais il y en a un autre : le conducteur doit non seulement enregistrer les données, mais également les analyser pour une utilisation ultérieure (éventuelle). Il n'est donc pas surprenant que « l'enregistrement direct » s'avère être le plus rapide - il n'y a aucune difficulté ici.

    Ce qui peut parfois s'améliorer, c'est la performance de l'écriture pseudo-aléatoire en même temps que la lecture. Et c'est insignifiant. Lors de l'accès séquentiel aux informations, Smart Response ralentit un peu. Aussi - insignifiant.

    GPA global

    Malgré tout ce que nous avons vu ci-dessus, nous avons reçu en moyenne une augmentation assez confiante de Smart Response. Pourquoi? Eh bien, comme nous l'avons vu, dans le même PCMark7, le gain est très important, qui s'est avéré n'être que partiellement compensé par la perte d'autres tests. De plus, les synthétiques de bas niveau se comportent souvent de manière très intéressante, et toutes les astuces de SR n'ont pas été présentées ci-dessus. À titre d'exemple, examinons quelques modèles AS SSD, que nous utilisons activement dans les tests SSD, mais qui sont généralement « cachés » lors des tests de disques durs.

    C'est simple : le test fonctionne avec un fichier de 1 Go, qui, bien sûr, se retrouve instantanément sur le SSD, donc en mode Amélioré, nous avons pratiquement mesuré le SSD. Maximisé, en raison de ses spécificités, fonctionne lentement avec un seul thread de lecture (la surcharge est comparable au principal), bien que même ici, il « accélère » le disque dur de 4 fois. Eh bien, sur 64 discussions - toutes les 20 fois.

    L'enregistrement ne donne pratiquement rien à Enhanced, puisque les données doivent encore être écrites dans un fichier sur le disque dur, mais si vous sélectionnez le mode Maximisé, nous obtenons la confirmation de la publicité Smart Response : votre disque dur fonctionnera comme un SSD ! :) De tels résultats, bien sûr, ont également affecté le score moyen, même si, comme nous le voyons, le résultat global n'est pas si impressionnant.

    Les résultats détaillés de tous les tests, comme promis, peuvent être consultés en téléchargeant un tableau au format Microsoft Excel.

    Total

    L'annonce du Z68 et de Smart Response a intéressé beaucoup de monde en raison de la beauté de l'idée : nous prenons un SSD petit et bon marché, un disque dur de grande capacité et... Nous obtenons un système de stockage de données hybride rapide qui combine les avantages des deux technologies. . Beaucoup de gens ont apprécié le fait que le SSD semble mettre en cache l'intégralité du disque dur, ce qui semble être un avantage par rapport à l'utilisation séparée d'un SSD et d'un disque dur - lorsque le système de disque est clairement divisé en parties « rapides » et « lentes ». En un mot, un profit total. Cependant, la situation réelle s’est avérée un peu plus complexe et ambiguë.

    Premièrement, comme nous pouvons le voir, de la mise en cache total le disque dur fait plus de mal que de bien - de nombreuses opérations « typiques du disque dur » sont ralenties plutôt qu'accélérées. Deuxièmement, le concept de « petit et bon marché » s’est effondré, car les prix des disques SSD ont considérablement baissé. Intel a commencé à travailler sur Smart Response il y a environ trois ans (peut-être deux ans et demi, mais pas moins - des produits prêts à l'emploi sont apparus il y a deux ans), alors que le coût de 1 Go d'informations sur un disque SSD était d'environ 3 dollars. Maintenant, il est tombé en dessous d'un dollar, et comme la diminution était principalement due à une augmentation de la densité des nouveaux microcircuits, le prix dépend du volume de manière non linéaire - plus il est élevé, moins il est relativement bon marché. D'un point de vue pratique, cela conduit au fait qu'aujourd'hui les prix des SSD de 32 et 128 Go ne diffèrent que de deux fois et qu'en termes absolus, toutes les économies sont réduites à environ 50 dollars. Qu'est-ce que 128 Go ? Il s'agit d'une capacité suffisante pour le système d'exploitation et un grand nombre de programmes d'application. De nombreux utilisateurs disposeront également d’espace libre pour le stockage des données. Eh bien, pour les informations pour lesquelles la vitesse d'accès n'est pas critique, vous pouvez simplement utiliser un disque dur de grande capacité sur un système de bureau. Le plus important est que cette approche offre une prévisibilité dont Smart Response ne peut se vanter, c'est-à-dire que quels que soient les scénarios de fonctionnement, les programmes s'exécutent toujours. rapide. Mais ce n'est pas le cas :) Dans un système hybride, cela peut être presque aussi rapide qu'avec un SSD, et peut-être aussi lent qu'en utilisant uniquement un disque dur. En termes simples, si un joueur joue au même jeu jour après jour, alors de Smart Response, il recevra une augmentation telle que nous l'avons vu ci-dessus sur la piste « Gaming » PCMark7 - une accélération significative de deux à trois fois. Mais s'il a une douzaine de jeux installés, et qu'à chaque fois il en sélectionne un au hasard (comme on dit, « selon son humeur »), alors il obtiendra... une grosse affaire, que NASPT nous a montré : les données dans le cache flash changera constamment, donc les niveaux de chargement, par exemple, resteront aussi lents que lorsqu'on utilise uniquement le disque dur : après tout, c'est fondamentalement ce qui fonctionnera.

    D'un autre côté, nous ne pouvons pas non plus qualifier la technologie d'inutile - tout dépend du cas d'utilisation. Dans le même ordinateur de jeu, il peut y avoir un circuit intéressant avec deux SSD et disque dur. Tout simplement parce que les jeux modernes sont volumineux et qu'il est coûteux de les stocker sur le disque SSD principal - il est trop volumineux et coûteux. Mais les problèmes peuvent être évités. Par exemple, nous installons un SSD de 128 Go pour le système et les principales applications. Pour les jeux et autres programmes « lourds » qui ne tiendront pas sur le premier disque, nous utilisons un disque dur rapide de capacité relativement petite, accéléré en plus à l'aide d'un SSD de 32 Go. Et pour stocker toutes sortes de données multimédias, telles que des films et autres choses (qui « vivent » souvent aujourd'hui en grande quantité sur les ordinateurs de jeu) - un autre disque dur. Gros volume, faible vitesse (et donc économique) et sans aucun « booster », ce qui dans un tel scénario d'utilisation ne peut que gêner, mais pas aider. Difficile? Cher? Oui, mais c'est tout à fait faisable. Et cette façon d’utiliser les différentes technologies nous permet d’obtenir le maximum de ce dont elles sont capables.

    De manière générale, comme on le voit, malgré la baisse des prix de la mémoire flash (et, par conséquent, des disques SSD), la technologie Smart Response a toujours droit à la vie, car dans certains scénarios d'utilisation, elle augmente les performances du système de stockage de données. . Il est seulement important de prendre en compte que ce n'est pas une panacée pour toutes les occasions : dans certains endroits c'est utile, et dans d'autres, au contraire, c'est nocif. Ainsi, avant de l’utiliser, vous devez peser le pour et le contre, comprendre exactement ce que vous allez faire et comment cela devrait fonctionner. Cependant, cela est vrai pour toutes les technologies modernes.

    Différences entre les sous-systèmes de disque SSD et HDD+SSD pour serveurs dédiés virtuels, comparaison des performances.

    Lecteurs de cache HDD+SSD

    Principe de fonctionnement. Nous utilisons des disques SSD rapides pour mettre en cache les demandes de disques durs HDD lents, mais beaucoup plus volumineux et peu coûteux. Dans ce mode, chaque accès au disque dur de la machine virtuelle est vérifié pour sa présence dans le cache, et s'il se trouve dans le cache, il est envoyé à partir de là, plutôt que lu à partir d'un disque lent. Si les données ne sont pas trouvées dans le cache, elles sont lues sur le disque dur et écrites dans le cache.

    Avantages de la technologie Cache disque dur + SSD. Le principal avantage de la technologie de cache HDD+SSD est la quantité d’espace disque fournie. De plus, les serveurs basés sur cette technologie sont moins chers, ce qui est important pour l'hébergement de projets de start-up, de serveurs de test et de services auxiliaires.

    • Sauvegardes de données
    • Archives de volume avec données
    • Tous services et sites pour lesquels la vitesse de lecture/écriture à partir des disques n'est pas critique

    Disques SSD

    Principe de fonctionnement. Le SSD (Solid-state drive) est un disque qui, contrairement aux disques durs classiques, ne comporte aucun élément mobile. Le SSD utilise la mémoire flash pour le stockage. En termes simples, il s'agit d'un gros lecteur flash.

    Avantages de la technologie SSD. Le principal avantage des disques SSD est la vitesse. Contrairement à un disque dur classique, aucun temps n'est consacré au positionnement des têtes de lecture : la vitesse d'accès aux données augmente. Selon les tests, la vitesse de lecture/écriture sur un SSD est plusieurs fois supérieure à celle des disques durs classiques.

    Qui en bénéficiera VDS ou VPS sur SSD?

    • Pour les propriétaires de boutiques en ligne : la vitesse de travail avec les bases de données sur SSD est disproportionnellement supérieure à celle sur disque dur.
    • Propriétaires d'autres sites : les pages de votre site s'ouvriront beaucoup plus rapidement, ce qui est important pour le classement dans les moteurs de recherche.
    • Pour les développeurs : la vitesse de compilation du code sur les disques SSD est plus rapide, gagnez du temps.
    • Pour les serveurs de jeux : la vitesse de chargement augmente, ne faites pas attendre les joueurs.

    Disques NVMe

    Principe de fonctionnement. NVM Express (NVMe, NVMHCI, Non-Volatile Memory Host Controller Interface Spécification) est une version mise à jour du disque SSD. Il utilise son propre protocole d'interaction, développé de toutes pièces, et se connecte via le port PCI Express.

    Avantages de la technologie NVMe. La lecture et l'écriture avec les disques NVMe sont 2 à 3 fois plus rapides qu'avec les disques SSD classiques. Le bus PCI Express ne limite pas la vitesse du disque, ce qui garantit des performances accrues. De plus, les opérations parallèles sont traitées plus rapidement sur NVMe ; davantage d'opérations de lecture-écriture sont effectuées par unité de temps.

    Quand commander un serveur virtuel avec disque NVMe?

    • Dans les mêmes cas que le SSD. Lorsque votre projet ne dispose plus de performances SSD suffisantes ou que vous prévoyez une croissance de projet et des charges élevées.

    Comparaison des performances

    Nous avons comparé les performances des machines virtuelles sur des serveurs physiques de « combat » avec différents sous-systèmes de disques.

    Nous avons pris en compte le nombre d'IOPS (le nombre d'opérations d'entrée/sortie, opérations d'entrée/sortie par seconde) - c'est l'un des paramètres clés lors de la mesure des performances des systèmes de stockage, des disques durs et des disques SSD (SSD). .

    Veuillez noter que les sites Web utilisent le plus souvent des opérations de lecture de données plutôt que des opérations d'écriture. Ce chiffre pour les disques SSD est trois fois supérieur à celui de la technologie HDD+SSD-cache.

    Comparaison des performances technologiques

    Introduction

    Les disques SSD sont généralement plus rapides que les disques durs magnétiques. Certes, certains disques de mémoire flash ont des vitesses d'écriture très médiocres, mais en général ce sont les disques SSD qui donnent désormais le ton, laissant dans l'ombre l'évolution des disques durs traditionnels.

    Certes, les disques SSD sont non seulement plus rapides, mais aussi beaucoup plus chers que les disques durs classiques. Chaque gigaoctet de stockage SSD n’est pas bon marché. Et s'il existe une option pour libérer quelques gigaoctets en désactivant les services et composants Windows inutiles, cela ne peut être négligé.

    Il convient également de noter que sur les forums de passionnés d'informatique, de nombreuses personnes affirment que quelques optimisations simples de Windows permettront d'obtenir des performances accrues. Mais est-ce vraiment vrai ?

    Dans cet article, nous avons décidé d'examiner de plus près les ajustements SSD les plus populaires et d'utiliser un test pour déterminer comment ils affectent les performances du système. Essentiellement, nous ne devons répondre qu'à deux questions simples : est-il possible, en utilisant certains ajustements du système, de libérer de l'espace sur le disque système et d'augmenter les performances de l'ordinateur ?

    De plus, nous prévoyons de tester deux SSD différents pour voir si l'effet dépend du modèle de SSD spécifique, ou si ces ajustements fonctionneront pour n'importe quel disque. Il est possible que ces ajustements soient complètement inutiles et qu'il n'y ait aucun moyen d'accélérer le fonctionnement du SSD.

    Nous allons tester neuf des réglages SSD les plus populaires pour le système d'exploitation Windows 7 :

    1. Désactivation de la restauration du système.
    2. Désactivez l'indexation des données.
    3. Désactivation du fichier d'échange.
    4. Désactivez l'hibernation.

    Mode AHCI et commande TRIM

    Avant de commencer à apporter des modifications subtiles au système, vous devez vous assurer que le contrôleur SATA est réglé sur le mode AHCI et que la commande TRIM est prise en charge par Windows 7. Ces deux paramètres, à proprement parler, ne peuvent pas être classés comme des optimisations pour les SSD. ils sont obligatoires pour la configuration de l'ordinateur, qui utilise un disque SSD.

    Le mode AHCI (Advanced Host Controller Interface) est un mode de contrôleur SATA spécifique qui vous permet d'utiliser des disques SATA remplaçables à chaud et la technologie NCQ (Native Command Queuing). L'utilisation de NCQ offre des performances plus élevées du sous-système de disque.

    Cela est particulièrement vrai pour les disques à mémoire flash qui utilisent un contrôleur multicanal : un disque SSD est bien mieux adapté pour exécuter plusieurs commandes simultanément. C'est pourquoi les disques SSD offrent des performances maximales précisément dans les grandes profondeurs de file d'attente, et les avantages de l'utilisation de NCQ peuvent être tout à fait perceptibles.

    N'oubliez pas un autre argument important en faveur de l'AHCI : ce n'est que dans ce mode de fonctionnement du contrôleur que vous pouvez profiter de la prise en charge des commandes TRIM fournie par le système d'exploitation Windows 7. La prise en charge de TRIM est nécessaire pour les disques SSD, car elle permet de maintenir un niveau élevé. améliorer les performances sur une longue période.

    D'après Wikipédia, GARNITURE- une commande qui permet au système d'exploitation d'informer le disque SSD quels blocs de données ne sont plus utilisés et peuvent être nettoyés par le disque lui-même. L'utilisation de TRIM permet au périphérique SSD de réduire l'impact "collecte des déchets"(garbage collection), ce qui entraînerait autrement une diminution de la vitesse d'écriture dans les secteurs concernés. La prise en charge de TRIM garantit des vitesses d'écriture plus stables et réduit également l'usure des cellules de mémoire libres.

    Comment vérifier que le contrôleur SATA fonctionne en mode AHCI

    Le mode AHCI du contrôleur SATA peut être défini dans les paramètres BIOS ou UEFI de votre carte mère. Sur la plupart des cartes mères modernes, il est installé par défaut, mais vous devez vous assurer que le BIOS est correctement configuré avant d'installer Windows, et non après. Si Windows est déjà installé, vous devez vérifier si le mode AHCI est activé :

    • Dans le menu Démarrer, sélectionnez Panneau de configuration.
    • Dans l'onglet "Affichage", sélectionnez le mode d'affichage "Petites icônes".
    • Sélectionnez "Gestionnaire de périphériques".
    • Dans le "Gestionnaire de périphériques", nous trouvons la branche "Contrôleurs IDE ATA/ATAPI", développons-la et recherchons les contrôleurs AHCI.
    • Si le contrôleur AHCI est dans la liste, alors le système fonctionne en mode AHCI.
    • Si les contrôleurs AHCI ne figurent pas dans la liste, le système fonctionne sans prise en charge AHCI.

    • Si le mode Legacy IDE est utilisé à la place de AHCI, il est recommandé de passer en mode ACHI. Cependant, avec le système d'exploitation installé, ce sera un peu plus difficile. Ceci est décrit plus en détail dans article de support technique sur le site Web de Microsoft .

    Comment vérifier que la commande TRIM est activée

    Si la prise en charge de TRIM est activée dans Windows 7, le système d'exploitation envoie les commandes appropriées au lecteur SSD. Vérifier si TRIM fonctionne est également assez simple :

    • Dans le menu Démarrer, saisissez cmd dans le champ de recherche.
    • Faites un clic droit sur le fichier exécutable cmd.exe et sélectionnez « Exécuter en tant qu'administrateur ».
    • Sur la ligne de commande, saisissez « fsutil behavior query DisableDeleteNotify » (sans les guillemets).
    • Si l'ordinateur signale DisableDeleteNotify = 0, la prise en charge de TRIM est activée.
    • Si le message DisableDeleteNotify = 1 s'affiche, la prise en charge de TRIM est désactivée.

    Désactivation de la restauration du système

    Passons à une description d'optimisations plus subtiles du système. La première consiste à désactiver la restauration du système, un système de restauration (restauration) intégré au système Windows qui utilise le principe des « points de contrôle ».

    La désactivation de la restauration du système résout deux problèmes. Premièrement, vous réduisez le nombre d’écritures sur le SSD, ce qui améliore sa longévité. Aujourd'hui, les avis divergent quant à savoir si vous devez vous inquiéter des écritures excessives sur un SSD. Le nombre de cycles de réécriture est le paramètre principal qui nous renseigne sur la durabilité des cellules mémoire sur lesquelles les disques SSD sont créés. Certains utilisateurs disent qu'il n'y a pas lieu de s'inquiéter : il est peu probable que vous voyiez le jour où les cellules de mémoire de votre SSD cesseront de stocker des données. D'autres utilisateurs, au contraire, font tout pour minimiser le nombre de cycles de réécriture. Il n’y a pas encore de réponse claire quant à savoir lequel d’entre eux a raison. Mais si vous ne comptez pas sur le hasard et faites partie de ceux qui ne veulent pas prendre de risques, alors désactiver la restauration du système est une bonne option pour réduire la charge sur les cellules mémoire. Ajoutons que les "points de contrôle" de restauration du système ne sont pas disponibles pour la commande TRIM et que l'utilisation régulière de cette fonction Windows peut potentiellement entraîner une diminution des performances du lecteur au fil du temps.

    La deuxième raison de refuser la récupération du système est d'économiser de l'espace libre sur le disque système. Les points de contrôle créés par la restauration du système sont stockés sur le disque système lui-même et « consomment » de l'espace disque coûteux sur le SSD. Cependant, ils ne fournissent pas toujours une restauration complète du système. En règle générale, il est plus sûr de créer une image système à part entière à l'aide d'un utilitaire spécialisé (Norton Ghost, Acronis True Image). Vous pouvez « déployer » une telle image sur le disque en quelques minutes et vous serez sûr de pouvoir revenir à un système fonctionnel. De plus, il n'est pas nécessaire de stocker une telle image sur le disque système lui-même. À ces fins, vous pouvez utiliser un disque dur ordinaire ou un disque externe.

    Comment désactiver la restauration du système

    • Faites un clic droit sur l'icône « Ordinateur » dans le menu « Démarrer » et sélectionnez « Propriétés ».
    • Sélectionnez l'onglet "Protection du système".
    • Cliquez sur le bouton « Configurer ».
    • Cochez la case à côté de "Désactiver la protection du système".

    Désactivation de l'indexation des données

    L'indexation des données est une autre fonctionnalité de Windows qui devrait être abandonnée pour de nombreuses raisons. Il y a deux raisons à cela. Premièrement, il est conçu pour améliorer les performances des disques durs conventionnels dotés de vitesses d'accès aléatoires médiocres afin de trouver les fichiers plus rapidement.

    Mais cette approche est peu utile pour les disques SSD, dont les vitesses de recherche et de lecture aléatoire sont d'un ordre de grandeur plus élevées. Dans ce cas, les avantages pour lesquels l’indexation a été inventée semblent pour le moins douteux.

    Deuxièmement, l'indexation implique des opérations d'écriture inutiles, tout comme la fonction de restauration du système décrite précédemment. La quantité de fichiers d'index écrits sur le disque est insignifiante, mais elle ne doit pas être radiée, car toute étape éliminant les opérations d'écriture inutiles sur le SSD est bénéfique.

    Comment désactiver l'indexation

    • Faites un clic gauche sur "Ordinateur" dans le menu "Démarrer".
    • Faites un clic droit sur l'icône de votre disque SSD et sélectionnez "Propriétés".
    • Décochez "Autoriser l'indexation du contenu des fichiers de ce lecteur en plus des propriétés des fichiers".
    • Une fenêtre d'avertissement devrait apparaître - annulez l'indexation uniquement pour le disque sélectionné ou pour tous les sous-dossiers et répertoires. Sélectionnez la deuxième option et cliquez sur OK.

    Désactivation du fichier d'échange

    Un fichier d'échange est l'un des mécanismes de mémoire virtuelle dans lesquels des fragments individuels (« pages ») de la RAM qui ne sont pas actuellement utilisés par le système sont déplacés vers le disque dur et y sont stockés, en attendant que l'utilisateur commence à travailler activement avec cela. ou une autre application. Nous parlons généralement de fenêtres de programme réduites et de tâches inactives similaires chargées dans la RAM. Il est clair que la vitesse d'accès à la mémoire virtuelle sur un disque dur est bien inférieure à celle de la RAM. Mais s'il y a une petite quantité de RAM dans le système ou si vous travaillez simultanément avec un grand nombre d'applications, cette approche n'a en réalité aucune alternative.

    Voici ce que dit Wikipédia concernant la compatibilité du fichier d'échange et du SSD : "Il est fort probable que l'utilisation du swap sur les disques SSD (qui ont un nombre limité de cycles de réécriture) réduit leur durée de vie."

    Ainsi, en désactivant la mémoire virtuelle, vous pouvez augmenter la longévité du disque, mais ce n'est pas la seule raison. La désactivation de la mémoire virtuelle permet de libérer plusieurs gigaoctets d'espace disque, ce qui n'est pas moins important.

    Il convient néanmoins de garder à l’esprit que cette opération comporte un certain risque. Si le système manque de mémoire physique, l'absence de fichier d'échange entraînera une instabilité du système. La désactivation de la mémoire virtuelle n'a de sens que si beaucoup de RAM est installée.

    Comment désactiver le fichier d'échange

    • Faites un clic droit sur l'icône "Ordinateur".
    • Sélectionnez Propriétés.
    • Sélectionnez Paramètres système avancés.
    • Allez dans l'onglet "Avancé" et cliquez sur le bouton "Options" dans la section "Performances".
    • La fenêtre « Options de performances » apparaîtra. Dans celui-ci, vous devez sélectionner l'onglet « Avancé » et dans la section « Mémoire virtuelle », cliquer sur le bouton « Modifier ».
    • La boîte de dialogue Mémoire virtuelle apparaît. Dans celui-ci, vous devez décocher l'option « Sélectionner automatiquement la taille du fichier d'échange ».
    • Sélectionnez "Sans fichier d'échange", cliquez sur le bouton "Définir".
    • Cliquez sur OK pour enregistrer les modifications et redémarrer l'ordinateur.

    Désactiver l'hibernation

    Selon l'aide de Microsoft : « Le mode veille prolongée est un mode basse consommation conçu principalement pour les ordinateurs portables. Lorsque vous passez en mode veille, tous les documents et paramètres ouverts sont stockés en mémoire et l'ordinateur passe en mode basse consommation ; lorsque vous passez en mode veille prolongée, tous les documents et programmes ouverts sont enregistrés sur le disque dur, puis l'ordinateur est éteint."

    Ces données sont stockées dans le fichier système caché Hiberfil.sys, situé dans le dossier racine du disque sur lequel le système d'exploitation Windows est installé. Le service Windows Kernel Power Manager crée ce fichier lors de l'installation de Windows. La taille du fichier d'hibernation correspond exactement à la taille de la RAM de l'ordinateur.

    En désactivant le mode hibernation, nous pouvons libérer de l'espace sur le SSD correspondant à la quantité de RAM installée. Un ordinateur équipé d'un SSD n'a pas besoin d'hiberner. Il est assez simple de le désactiver - le démarrage ultérieur de Windows est si rapide que vous pouvez simplement oublier ces modes. Cela est particulièrement vrai pour les propriétaires d'ordinateurs portables, car il est préférable d'éteindre complètement le PC du point de vue des économies d'énergie.

    Ainsi, le mode hibernation a été créé pour les ordinateurs équipés d'un disque dur ordinaire, leur permettant de se « réveiller » plus rapidement qu'un cycle d'alimentation complet de Windows. La vitesse de chargement du système d'exploitation sur les ordinateurs équipés d'un disque SSD est beaucoup plus élevée. L'hibernation dans ce cas n'a aucune signification pratique, mais il est logique de libérer l'espace occupé par Hiberfil.sys.

    Comment désactiver le mode hibernation

    • Dans la barre de recherche du menu Démarrer, tapez cmd.
    • Faites un clic droit sur le fichier exécutable cmd.exe et sélectionnez "Exécuter en tant qu'administrateur".
    • À l'invite de commande, entrez « powercfg -h off » (sans les guillemets).
    • Une fois l'opération terminée, la ligne de commande reviendra à l'état d'attente d'une nouvelle commande.

    Désactivation de Prefetch et SuperFetch

    SuperFetch est un service qui met en cache les fichiers les plus fréquemment utilisés. Compte tenu du temps d'accès minimum au disque SSD, celui-ci peut être désactivé. Lors de l'installation de Windows 7 sur un SSD, SuperFetch doit être automatiquement désactivé.

    Prefetch charge des blocs de fichiers programme dans la RAM. En désactivant cette fonctionnalité, vous pouvez également libérer de la mémoire système.

    Comment désactiver Prefetch et SuperFetch

    • Tapez Regedit dans la barre de recherche du menu Démarrer.

    • Dans le registre Windows, vous devez trouver la branche "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\SessionManager\Memory Management\PrefetchParameters".
    • Double-cliquez sur la clé EnablePrefetcher.
    • Dans la ligne "Valeur", modifiez la valeur à 0 et cliquez sur OK.
    • Répétez la même chose avec la clé EnableSuperfetch.
    • Redémarrez votre ordinateur.

    Désactivation de la suppression du tampon du cache d'entrée Windows

    Selon l'aide de Windows, la « mise en cache d'écriture » sur un périphérique de stockage consiste à utiliser la RAM pour accumuler les commandes d'écriture envoyées aux périphériques de stockage et les mettre en cache jusqu'à ce qu'un support plus lent (disques physiques ou mémoire flash peu coûteuse) puisse les traiter. Si nous parlons d'un disque dur, le système d'exploitation efface les commandes adressées au cache interne du disque dur. Lorsque vous désactivez la suppression du cache d'écriture, le cache de commandes est vidé directement pendant le processus d'écriture. En théorie, cela permet d'augmenter les performances en éliminant la commande supplémentaire permettant d'effacer la mémoire tampon. Mais dans la pratique, il existe un risque d'effet inverse, c'est-à-dire une diminution des performances du variateur, qui dépend directement de l'architecture et de la logique du variateur de vitesse.

    Ainsi, nous avons devant nous un de ces ajustements qui ne conviennent pas à tous les SSD. À savoir, ce paramètre n'est pas recommandé pour les disques SSD Intel : selon le fabricant, il affecte négativement les performances du disque. D'une manière ou d'une autre, lors de notre test, nous avons enregistré les caractéristiques de vitesse du sous-système de disque avant et après l'application de ce réglage afin de déterminer si ce réglage est compatible ou non avec les lecteurs Intel.

    Comment désactiver le vidage du tampon du cache d'enregistrement

    • Cliquez avec le bouton droit sur l'icône Ordinateur dans le menu Démarrer, puis cliquez sur Propriétés.
    • Sélectionnez Gestionnaire de périphériques.
    • Développez la branche "Périphériques de disque".
    • Faites un clic droit sur le disque SSD et sélectionnez "Propriétés".
    • Dans l'onglet Stratégie, cochez la case « Désactiver le vidage du tampon du cache d'entrée Windows pour ce périphérique ».

    Désactivation de SuperFetch et de la recherche Windows via les services

    Nous avons déjà écrit plus tôt sur l'objectif de SuperFetch, mais ici nous proposerons uniquement une autre option pour désactiver cette fonction via les « Services » Windows.

    Quant à Windows Search, la signification de cette fonction ressort clairement du nom. Windows Search indexe les fichiers et dossiers sur votre PC. Cet index se trouve dans le dossier caché C:\ProgramData\Microsoft\Search et occupe environ 10 % des fichiers indexés par le système. Lorsque vous recherchez quelque chose sur votre ordinateur à l'aide de la recherche Windows intégrée, une partie du fichier d'index est chargée dans la RAM, ce qui accélère considérablement les recherches aléatoires. Mais si le système est installé sur un disque SSD rapide, il est peu probable que l'augmentation des performances résultant de l'utilisation de cette fonction soit perceptible et il est logique de libérer de l'espace sur votre disque dur en désactivant le service Windows Search.

    Comment désactiver SuperFetch et Windows Search

    • Appuyez sur la combinaison de touches Windows + R pour afficher la boîte de dialogue Exécuter.
    • Tapez "services.msc" (sans les guillemets), appuyez sur Entrée.
    • Dans la fenêtre « Services » qui apparaît, recherchez Superfetch et double-cliquez sur son nom.

    • Dans le menu Type de démarrage, sélectionnez Désactivé, puis cliquez sur OK.
    • Recherchez Windows Search dans la liste des services et double-cliquez.
    • Cliquez sur le bouton « Stop », sélectionnez « Désactivé » dans la liste « Type de démarrage », puis cliquez sur OK.

    Désactivation de ClearPageFileAtShutdown et LargeSystemCache

    ClearPageFileAtShutdown fait exactement ce qu'il dit : efface le fichier d'échange lorsque le système redémarre. Auparavant, nous désactivions le fichier d'échange lui-même et il n'est désormais plus nécessaire de l'effacer à chaque redémarrage.

    LargeSystemCache détermine si le système conservera la taille de cache standard du système de fichiers (8 Mo) ou, si nécessaire, utilisera un cache plus grand, ce qui affecte directement le nombre d'écritures sur le disque. Un cache de système de fichiers volumineux réduit la quantité de RAM disponible pour les applications et les services.

    Si vous avez installé Windows 7 sur un SSD, il y a une forte probabilité que ces deux fonctions aient été automatiquement désactivées lors de l'installation du système, mais juste au cas où, vous pouvez vérifier cela et afficher les branches de registre correspondantes :

    • Appuyez sur la combinaison de touches Windows + R pour afficher la boîte de dialogue Exécuter.
    • Tapez "regedit" (sans les guillemets) et appuyez sur Entrée.

    • Ouvrez la clé de registre "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\SessionManager\Memory Management"
    • Double-cliquez sur les touches ClearPageFileAtShutdown et LargeSystemCache, en définissant chacune sur 0.
    • Redémarrez votre ordinateur.

    Mise en place d'un plan d'alimentation

    Ce paramètre permettra au SSD de traiter le « garbage collection » en mode veille, même s'il n'y a aucun travail sur l'ordinateur :

    • Allez dans le "Panneau de configuration".
    • Sélectionnez « Options d'alimentation », puis développez la liste « Afficher les modes d'alimentation supplémentaires ».
    • Sélectionnez le profil "Haute Performance".
    • Cliquez sur « Configurer le plan d’alimentation » et cliquez sur « Modifier les paramètres d’alimentation avancés ».
    • Dans la boîte de dialogue qui apparaît, développez la liste « Disque dur ».
    • Dans la fenêtre « Éteindre le disque dur », entrez 0, ce qui signifie « Jamais ».
    • Cliquez sur OK.


    Configuration des tests

    Équipement d'essai
    Processeur Intel Core i7-920 (Bloomfield), 45 nm, 3,2 GHz, 8 Mo de cache L3
    Carte mère (LGA 1366) EVGA 132-BL-E758-TR, chipset Intel X58 Express/ICH10R, version du BIOS : 6.00 PG
    BÉLIER 6 Go (3x2 Go) DDR3-1600 OCZ Platine (OCZ3P1600LV6GK)
    Disque dur Samsung Spinpoint F3 1 To (103SJ), micrologiciel 1AJ10001
    Disques SSD Intel X25-M G2 80 Go (SSDSA2M080G2GC), micrologiciel 2CV102M3

    OCZ Vertex 2 240 Go (P75HAVO6H3N8E278), firmware 1.29

    Carte vidéo EVGA SuperClocked 01G-P3-1563-AR GeForce GTX 560 Ti (Fermi) 1 Go GDDR5 256 bits (SLI)
    unité de puissance Corsaire CMPSU-850TX

    Logiciels et pilotes
    système opérateur Windows 7 Intégral 64 bits
    Pilote SATA Pilote de technologie de stockage Intel Rapid 10.1.0.1008

    Notre objectif dans ce cas n'est pas de comparer les disques Intel et OCZ entre eux. La tâche principale est d'évaluer les avantages ou les inconvénients des ajustements du système décrits précédemment pour les lecteurs sur différents contrôleurs. Selon notre idée, la configuration du banc de test est proche de la configuration standard d'un PC moderne pour passionnés. Le disque SSD est utilisé comme disque système ; le système d'exploitation et un ensemble de programmes les plus fréquemment utilisés y sont installés. Les jeux, les dossiers utilisateur, etc. se trouvent sur le disque dur.

    Pour tester Windows « propre » sans optimisations avant d'installer Windows 7, nous avons utilisé Secure Erase pour chacun des disques SSD ayant participé au test.

    Un intervalle de deux jours a été maintenu entre les tests pour éviter une diminution des performances du disque due à de nombreuses opérations d'écriture et à l'accumulation de garbage collection, ce qui peut réduire considérablement les caractéristiques de vitesse d'un lecteur OCZ basé sur le contrôleur SandForce SF-1200.

    De plus, nous avons partitionné le lecteur OCZ Vertex 2 afin que le système puisse voir 74,4 Go. Cela est nécessaire pour garantir une capacité égale avec le lecteur Intel X25-M de deuxième génération et pour augmenter la zone de « chevauchement » des données sur l'OCZ Vertex 2.

    CrystalDiskMark 3.0

    Tout d'abord, examinons les performances de CrystalDiskMark 3.0 x64, en prêtant attention aux vitesses de lecture et d'écriture. Répétons encore une fois de quels paramètres nous parlons :

    1. Désactivation de la restauration du système.
    2. Désactivez l'indexation des données.
    3. Désactivation du fichier d'échange.
    4. Désactivez l'hibernation.
    5. Désactivez la prélecture (lecture anticipée).
    6. Désactivez la suppression du cache d'entrée Windows.
    7. Désactivez SuperFetch et Windows Search.
    8. Désactivez ClearPageFileAtShutdown et LargeSystemCache.
    9. Mise en place d'un plan d'alimentation.

    Pour éviter un grand nombre de graphiques détaillés, nous avons combiné les ajustements du système : au début, seuls les quatre premiers ont été appliqués, puis tous ensemble. Naturellement, les graphiques montrent également les résultats d'un Windows 7 « propre » (sans utiliser de réglages), installé sur un disque préalablement nettoyé à l'aide de Secure Erase.


    En regardant les graphiques, nous voyons que lors du test de lecture, les deux disques SSD présentent une légère différence de performances avant et après l'application des ajustements.


    Lors du test de performances d'enregistrement, l'image est un peu plus intéressante. Cette fois, il y a vraiment une différence de performances après avoir appliqué les réglages. Mais les résultats eux-mêmes sont très mitigés. D'une part, la vitesse d'OCZ Vertex 2 dans le test d'écriture de blocs aléatoires de 4 kilo-octets a augmenté de 20 Mo/s. Mais dans le cas de l'Intel X25-M, les performances diminuent fortement lorsque toutes les optimisations sont appliquées. Les résultats de l'application uniquement des quatre premiers ajustements diffèrent peu de ceux d'un disque « propre », donc le problème, apparemment, réside dans les ajustements de la seconde moitié de la liste - cela est peut-être dû à la désactivation du nettoyage du cache d'enregistrement Windows.

    Augmentation de la capacité de stockage

    Nous n'avons pas du tout été surpris que les quatre premières optimisations n'aient pas eu d'impact fondamental sur les performances du SSD dans CrystalDiskMark. Ces paramètres sont plutôt axés sur le nettoyage de l'espace disque. Mais peut-on s’attendre à ce qu’ils contribuent réellement à augmenter la quantité d’espace disque disponible ?

    Lorsque vous utilisez les réglages du premier groupe, la quantité d'espace disque disponible augmente de 10 Go et est à peu près la même pour les deux lecteurs. Pour un petit disque SSD utilisé comme lecteur système, ce résultat est assez visible : sur la base du coût actuel d'un gigaoctet d'espace disque SSD, vous économiserez environ 25 $. L'espace disque libéré est suffisant pour installer un ou deux jeux.

    Iomètre

    Lorsque vous travaillez avec des bases de données, les SSD « propres » sont supérieurs aux disques « optimisés ». L'Intel X25-M a davantage souffert des optimisations que le disque OCZ : ses performances chutent de moitié à presque toutes les profondeurs de file d'attente. Les résultats affichés par Vertex 2 sont les mêmes aux profondeurs de 1 à 2 et de 16 à 64, mais de 4 à 8 ajustements du système réduisent légèrement les performances.

    Nous voyons une image similaire dans le script du serveur Iometer. Les performances de l'Intel X25-M sont réduites de plus de moitié (sauf pour la profondeur de file d'attente 4, où les résultats sont étrangement cohérents), tandis que le disque OCZ "optimisé" affiche à peu près les mêmes performances que le disque "nu".

    Dans le scénario « serveur web », les différences entre les disques avant et après « optimisation » sont négligeables. Intel X25-M montre pour la première fois une légère augmentation des performances, OCZ Vertex 2 - au contraire, après avoir appliqué des ajustements, il fonctionne un peu plus lentement.

    Dans le scénario de charge du poste de travail, les résultats répètent pratiquement les graphiques du scénario du serveur de fichiers. Les performances de l'Intel X25-M chutent de près de moitié à toutes les profondeurs de file d'attente sauf 4. Les graphiques OCZ Vertex 2 avant et après l'application des ajustements sont les mêmes, à l'exception des profondeurs de file d'attente de 4 à 16, où le lecteur « optimisé » montre un résultat légèrement meilleur.

    Streaming Iomètre


    Les graphiques de lecture de flux ressemblent aux graphiques d’un scénario de serveur Web. Intel X25-M présente une légère augmentation des performances à n'importe quelle profondeur de file d'attente, et OCZ Vertex 2, après avoir appliqué des modifications, est légèrement inférieur à un disque « propre » à une profondeur de 8 à 16.


    Dans les tests d'enregistrement en streaming, les graphiques de vitesse moyenne et de nombre d'opérations d'E/S montrent la même image. Les performances d'OCZ Vertex 2 ne changent pas après l'application des modifications. L'Intel X25-M « optimisé » est presque deux fois plus lent à toutes les profondeurs de file d'attente sauf 2 et 32.

    Lire et écrire des blocs aléatoires de 4 Ko

    Dans le test de lecture aléatoire, l'Intel X25-M démontre à nouveau une légère augmentation des performances, tandis que l'OCZ Vertex 2 est légèrement plus lent après les ajustements.

    Dans le test d'enregistrement en continu par blocs de 4 Ko, le lecteur OCZ avant et après l'application des modifications affiche des résultats identiques à toutes les profondeurs de file d'attente. L'Intel X25-M G2 "optimisé" à une profondeur de 1 à 4 est plus lent qu'un disque "propre".

    Stockage PCMark Vantage


    Les performances globales du sous-système de disque dans PCMark Vantage, après avoir appliqué tous les ajustements, sont légèrement plus élevées pour le lecteur OCZ, mais sensiblement (presque deux fois) inférieures pour l'Intel X25-M. Dans le scénario de chargement d'application, l'impact négatif des « optimisations » sur les performances affecte les deux disques. Dans le cas d'OCZ Vertex 2, la vitesse de chargement des applications est réduite de 18 Mbit/s et Intel X25-M est deux fois moins lente.

    En performances de jeu, OCZ perd à nouveau 10 Mo/s. L'Intel X25-M, au contraire, affiche une augmentation des performances d'environ 10 Mo/s après avoir appliqué tous les réglages.

    Lors du montage vidéo avec Windows Movie Maker, nous constatons encore une fois que les « optimisations » ont un impact négatif sur les performances des deux disques. Pour OCZ, la différence est négligeable, mais le disque Intel est nettement plus lent : la vitesse passe de 130,54 Mo/s à 48,47 Mo/s.

    Le test de performances de Windows Defender démontre une fois de plus une diminution des performances de vitesse. Les deux disques sont plus lents après avoir appliqué des ajustements, bien que la situation avec l'Intel X25-M ne soit pas aussi mauvaise que lors du test précédent.

    La situation ne change pas dans Windows Media Center. Les performances de l'Intel X25-M sont réduites de près de moitié ; l'OCZ Vertex 2 affiche une réduction de vitesse de 30 Mo/s.

    Dans le scénario d'ajout de musique à la bibliothèque Windows Media Player, nous constatons une diminution des performances de l'Intel X25-M d'environ trois fois (!). Pour le disque OCZ, l'utilisation de réglages a entraîné une diminution de la vitesse de 6,72 Mo/s, ce qui est beaucoup moins critique.

    Dans le scénario d'importation d'images dans la bibliothèque de la Galerie de photos Windows, nous voyons une image plus intéressante. Le lecteur OCZ est encore un peu plus lent après les "optimisations", mais dans ce cas la différence est négligeable. Mais l'Intel X25-M, au contraire, démontre une augmentation notable des performances.

    Le script de démarrage de Windows Vista reflète les résultats que nous avons observés lors de plusieurs tests précédents. La diminution des performances pour OCZ Vertex 2 est insignifiante, mais le lecteur Intel, après toutes les « optimisations », fonctionne sensiblement plus lentement - la vitesse passe de 198,33 Mo/s à 107,52 Mo/s.

    Quel est le problème avec la désactivation du vidage du tampon du cache d'écriture ?

    Sur la base des résultats de nos tests, il est clair pourquoi Intel recommande de ne pas désactiver le vidage du tampon du cache d'écriture Windows pour ses SSD. Pour visualiser l'impact négatif de cet ajustement, nous avons réexécuté le test d'écriture de référence CrystalDiskMark 3.0 x64 avec trois configurations de paramètres :

    1. Installation "propre" de Windows sur disque après Secure Erase.
    2. Windows avec tous les réglages, y compris la suppression de la mémoire tampon du cache d'enregistrement désactivée.
    3. Windows avec tous les ajustements sauf la suppression du tampon de cache.

    Nous verrons ainsi si toutes les autres « optimisations » recommandées aux propriétaires de SSD ont un impact sur les performances.

    Lorsque tous les ajustements sont appliqués, y compris la suppression du tampon de cache, les performances de l'Intel X25-M G2 sont considérablement réduites. Nous voyons le tableau le plus triste dans les tests d'écriture de blocs de données de quatre kilo-octets : ici, la vitesse d'écriture tombe à 4 Mo/s. Si nous appliquons toutes les optimisations, à l'exception de l'effacement du tampon, alors les performances du lecteur Intel reviennent à peu près au même niveau que dans le cas de Windows « pur ». Bien entendu, vous devez suivre les recommandations d'Intel et ne pas désactiver le tampon de cache d'écriture si vous disposez d'un SSD Intel.

    Conclusions

    Il est clair que le schéma d'optimisation des SSD à l'aide de réglages du système n'est pas si simple et logique qu'il puisse être présenté sous la forme d'une brève « instruction pour les nuls ». Certains ajustements entraînent une dégradation des performances. Certains au contraire l’augmentent. Certains augmentent l'espace disque disponible. Certains d'entre eux sont automatiquement produits lorsque Windows 7 est installé sur un disque SSD.

    L’aspect le plus intéressant du test des performances du disque avant et après l’application des « optimisations » est que nous pouvons obtenir une évaluation quantitative de l’impact d’un ajustement particulier sur les performances. Par exemple, nous savons maintenant avec certitude que désactiver le vidage du tampon du cache d’écriture de Windows sur les disques Intel est clairement une mauvaise idée. OCZ Vertex 2, au contraire, a répondu tout à fait normalement à chacun des neuf ajustements. La question que nous avons réservée pour la dernière partie de notre article est de savoir quels avantages l'optimisation des SSD avec des ajustements du système apporte aux passionnés d'informatique qui cherchent toujours à tirer le meilleur parti de l'argent dépensé pour un tel disque.

    La raison la plus importante pour optimiser les performances d’un SSD est peut-être d’augmenter l’espace disque disponible. La possibilité de libérer de l’espace disque est la bienvenue. Sur un disque de 40 ou 60 Go déjà rempli à pleine capacité avec le système d'exploitation et les applications, même quelques gigaoctets « supplémentaires » seront plus qu'un bonus notable. Lors de notre test, nous avons pu libérer 10 Go sur un SSD de 80 Go grâce à plusieurs ajustements du système. Bien que ces paramètres soient les plus controversés en termes d'impact sur les performances, leur utilisation sera sans aucun doute entre les mains d'un utilisateur expérimenté qui sait ce qu'il fait.

    Nous supposons que notre matériel sera le plus rejeté par les utilisateurs qui ne peuvent tout simplement pas aller au-delà de la désactivation du fichier d'échange. Il existe de sérieux arguments pour et contre cette « optimisation ». Pour l'instant, nous nous abstiendrons de recommander de désactiver le fichier d'échange ou, à l'inverse, de le déconseiller. Notons seulement que la désactivation du fichier d'échange n'a de sens que sur les machines disposant d'une quantité de RAM suffisante. Si vous souhaitez vous protéger des pannes du système en travaillant sans fichier d'échange, alors en charge maximale, vous devriez avoir entre 25 et 50 % de votre RAM totale restante. En d'autres termes, si le système dispose de 6 Go de RAM installés, alors dans une situation de charge de pointe, 3,5 à 4 gigaoctets devraient rester libres. Si ce n'est pas le cas, avant de désactiver le fichier d'échange, il est logique de penser à augmenter la quantité de RAM, sinon il existe un risque de fonctionnement instable de l'ordinateur et de perte de données.

    En plus d'augmenter l'espace disque libre, une autre motivation pour optimiser les SSD est de minimiser les écritures sur disque. La mémoire MLC utilisée dans les disques SSD a un nombre limité de cycles de réécriture garantis et il existe une possibilité très réelle qu'après un certain nombre d'opérations de réécriture, la cellule refuse tout simplement d'accepter de nouvelles données. Bien que nous ne disposions actuellement d'aucun outil pour déterminer l'état des cellules d'un disque, le battage médiatique autour du manque de fiabilité potentiel de ces types de disques est bien plus important que le manque de fiabilité réel. Pour le vérifier, il suffit par exemple d'étudier les spécifications Intel. Malgré la transition de la série SSD 320 vers une mémoire MLC potentiellement moins durable fabriquée à l'aide de la technologie de traitement 25 nm, Intel a augmenté la période de garantie de trois à cinq ans. Compte tenu de ce fait, optimiser le disque afin de réduire le nombre de cycles de réécriture ne nous semble pas nécessaire.

    En fin de compte, c'est à vous de décider lesquels des ajustements répertoriés valent la peine d'être appliqués à votre système. Microsoft a rendu cette tâche un peu plus facile pour les utilisateurs de Windows 7, car certaines optimisations sont automatiquement appliquées lors de l'installation du système sur un SSD, il n'est donc pas nécessaire de les configurer à nouveau manuellement. Si vous êtes prêt à prendre des risques, il est toujours possible de libérer de l'espace SSD, mais vous ne devez pas compter sur des gains de performances grâce à de telles optimisations.



    Des questions ?

    Signaler une faute de frappe

    Texte qui sera envoyé à nos rédacteurs :