Utilisation de la mise en cache SSD dans les serveurs. Contrôleurs Adaptec (Microsemi) et LSI (BROADCOM). Tests et configuration. Utilisation de disques SSD comme mémoire cache pour le sous-système de disque du serveur

  • Optimisation du serveur,
  • Administration système,
  • Stockage de données,
  • Entrepôts de données
  • Dans les articles sur les systèmes de stockage des « Notes de l'administrateur », les technologies d'organisation logicielle d'une baie de disques n'ont pratiquement pas été prises en compte. De plus, toute une série de scénarios relativement bon marché pour accélérer le stockage à l'aide de disques SSD sont restés dans les coulisses.


    Par conséquent, dans cet article, j'examinerai trois bonnes options pour utiliser les disques SSD afin d'accélérer le sous-système de stockage.

    Pourquoi ne pas simplement assembler une matrice de SSD - un peu de théorie et de raisonnement sur le sujet

    Le plus souvent, les SSD sont considérés simplement comme une alternative aux disques durs, avec une bande passante et des IOPS plus élevées. Cependant, un tel remplacement direct est souvent trop coûteux (les disques de marque HP, par exemple, coûtent à partir de 2 000 $) et les disques SAS habituels sont renvoyés au projet. Alternativement, les disques rapides sont simplement utilisés de manière ponctuelle.


    En particulier, il semble pratique d'utiliser un SSD pour une partition système ou pour une partition avec des bases de données - vous pouvez vous renseigner sur les gains de performances spécifiques dans. De ces mêmes comparaisons, il est clair que lors de l'utilisation de disques durs conventionnels, le goulot d'étranglement réside dans les performances du disque, mais dans le cas d'un SSD, l'interface sera le goulot d'étranglement. Par conséquent, le remplacement d’un seul disque n’apportera pas toujours le même résultat qu’une mise à niveau complète.


    Les serveurs utilisent des SSD avec une interface SATA, ou des SAS et PCI-E plus puissants. La plupart des SSD pour serveurs SAS disponibles sur le marché sont vendus sous les marques HP, Dell et IBM. À propos, même sur les serveurs de marque, vous pouvez utiliser des disques des fabricants OEM Toshiba, HGST (Hitachi) et autres, ce qui vous permet de rendre la mise à niveau aussi bon marché que possible avec des caractéristiques similaires.


    Avec l'utilisation généralisée des SSD, un protocole d'accès distinct pour les disques connectés au bus PCI-E a été développé - NVM Express (NVMe). Le protocole a été développé à partir de zéro et dépasse largement les capacités SCSI et AHCI habituelles. Les SSD dotés d'interfaces PCI-E, U.2 (SFF-8639) et certaines interfaces M.2, plus rapides que les SSD conventionnels, fonctionnent généralement avec NVMe plus que doublé. La technologie est relativement nouvelle, mais avec le temps, elle prendra certainement sa place dans les systèmes de disques les plus rapides.


    Un peu sur le DWPD et l'influence de cette caractéristique sur le choix d'un modèle spécifique.

    Lorsque vous choisissez des disques SSD avec une interface SATA, vous devez faire attention au paramètre DWPD, qui détermine la durabilité du disque. DWPD (Drive Writes Per Day) est le nombre autorisé de cycles de réécriture d'un disque entier par jour pendant la période de garantie. Parfois, il existe une caractéristique alternative TBW/PBW (TeraBytes Written, PetaBytes Written) : il s'agit du volume d'enregistrement déclaré sur le disque pendant la période de garantie. Dans les SSD à usage domestique, l'indicateur DWPD peut être inférieur à un, dans les SSD dits « serveur », il peut être de 10 ou plus.


    Cette différence est due aux différents types de mémoire :

      NAND SLC. Le type le plus simple est que chaque cellule mémoire stocke un bit d’information. Par conséquent, ces disques sont fiables et offrent de bonnes performances. Mais vous devez utiliser plus de cellules mémoire, ce qui affecte négativement le coût ;

      MLC-NAND. Chaque cellule stocke déjà deux bits d’information – le type de mémoire le plus répandu.

      NAND eMLC. Identique au MLC, mais la résistance à l'écrasement est augmentée grâce à des puces plus chères et de haute qualité.

    • CCM NAND. Chaque cellule stocke trois bits d'informations. Le disque est le moins cher à produire, mais il présente les performances et la durabilité les plus faibles. Pour compenser les pertes de vitesse, la mémoire SLC est souvent utilisée pour le cache interne.

    Ainsi, lors du remplacement de disques conventionnels par des disques SSD, il est logique d'utiliser des modèles MLC en RAID 1, qui offriront une excellente vitesse avec le même niveau de fiabilité.


    On pense que l’utilisation du RAID avec un SSD n’est pas une bonne idée. La théorie est basée sur le fait que les SSD en RAID s'usent de manière synchrone et qu'à un moment donné, tous les disques peuvent tomber en panne en même temps, en particulier lors de la reconstruction de la matrice. Cependant, avec le disque dur, la situation est exactement la même. Est-il possible que des blocs de surface magnétique endommagés ne vous permettent même pas de lire les informations, contrairement à un SSD.

    Le coût encore élevé des disques SSD nous amène à réfléchir à des utilisations alternatives, au-delà du remplacement ponctuel ou de l'utilisation de systèmes de stockage basés uniquement sur les SSD.

    Extension du cache du contrôleur RAID

    La vitesse de la matrice dans son ensemble dépend de la taille et de la vitesse du cache du contrôleur RAID. Ce cache peut être étendu à l'aide d'un SSD. La technologie ressemble à une solution d'Intel.


    Lors de l'utilisation d'un tel cache, les données utilisées le plus souvent sont stockées sur des disques SSD de mise en cache, à partir desquels elles sont lues ou écrites ultérieurement sur un disque dur ordinaire. Il existe généralement deux modes de fonctionnement, similaires au RAID habituel : écriture différée et écriture directe.


    Dans le cas de l'écriture directe, seule la lecture est accélérée, et avec la réécriture, la lecture et l'écriture sont accélérées.


    Vous pouvez en savoir plus sur ces paramètres sous le spoiler.

      Lors de la configuration d'un cache en écriture directe, l'écriture est effectuée à la fois dans le cache et dans la baie principale. Cela n'affecte pas les écritures, mais accélère les lectures. De plus, les pannes de courant ou l'ensemble du système ne sont plus si terribles pour l'intégrité des données ;

    • Le paramètre de réécriture vous permet d'écrire des données directement dans le cache, ce qui accélère les opérations de lecture et d'écriture. Dans les contrôleurs RAID, cette option ne peut être activée que lors de l'utilisation d'une batterie spéciale protégeant la mémoire non volatile ou lors de l'utilisation de la mémoire flash. Si vous utilisez un SSD séparé comme cache, le problème d'alimentation n'est plus un problème.

    Une licence spéciale ou une clé matérielle est généralement requise pour fonctionner. Voici les noms spécifiques des technologies des fabricants populaires sur le marché :

      LSI (Broadcom) MegaRAID CacheCade. Vous permet d'utiliser jusqu'à 32 SSD pour le cache, avec une taille totale ne dépassant pas 512 Go, le RAID des disques de mise en cache est pris en charge. Il existe plusieurs types de clés matérielles et logicielles, le coût est d'environ 20 000 roubles ;

      Microsemi Adaptec MaxCache. Permet jusqu'à 8 caches SSD dans n'importe quelle configuration RAID. Il n'est pas nécessaire d'acheter une licence distincte ; le cache est pris en charge dans les adaptateurs de la série Q ;

    • HPE SmartCache dans les serveurs ProLiant de 8e et 9e génération. Les prix actuels sont disponibles sur demande.

    Le fonctionnement du cache SSD est extrêmement simple : les données fréquemment utilisées sont déplacées ou copiées sur le SSD pour un accès rapide, et les informations moins populaires restent sur le disque dur. En conséquence, la vitesse de travail avec des données répétitives augmente considérablement.


    Les graphiques suivants illustrent le fonctionnement d'un cache RAID basé sur SSD :



    StorageReview - comparaison des performances de différentes baies lorsque vous travaillez avec une base de données : des disques standards et leur alternative basée sur LSI CacheCade ont été utilisés.


    Mais s’il existe une implémentation matérielle, il existe probablement un équivalent logiciel pour moins d’argent.

    Cache rapide sans contrôleur

    En plus du RAID logiciel, il existe également un cache SSD logiciel. Windows Server 2012 a introduit une technologie intéressante appelée Storage Spaces, qui vous permet de créer des matrices RAID à partir de n'importe quel disque disponible. Les disques sont regroupés dans des pools qui hébergent déjà des volumes de données – une conception qui rappelle la plupart des systèmes de stockage matériels. Les fonctionnalités utiles des espaces de stockage incluent les niveaux de stockage et le cache de réécriture.



    Les niveaux de stockage vous permettent de créer un pool de disques durs et de SSD, où les données les plus courantes sont stockées sur le SSD. Le rapport SSD/HDD recommandé est de 1:4 à 1:6. Lors de la conception, il convient d'envisager la possibilité de mise en miroir ou de parité (analogues de RAID-1 et RAID-5), car chaque partie du miroir doit avoir le même nombre de disques et SSD ordinaires.


    Le cache d'écriture dans les espaces de stockage n'est pas différent de la réécriture normale dans les matrices RAID. Seulement ici, le volume requis est « coupé » du SSD et est par défaut d'un gigaoctet.

    Un système de stockage traditionnel consiste à stocker des données sur des disques durs et SSD. Ces dernières années, les capacités des disques durs ont augmenté à un rythme rapide. Cependant, leur vitesse en accès aléatoire est encore faible. Certaines applications, telles que les bases de données, les technologies cloud ou la virtualisation, nécessitent à la fois une vitesse d'accès élevée et un volume important. Il s'avère que l'utilisation uniquement du disque dur n'est pas acceptable et que l'utilisation du SSD est déraisonnablement coûteuse. Utiliser un SSD comme cache uniquement constitue le meilleur rapport qualité/prix pour l’ensemble du système. Dans ce cas, les données elles-mêmes seront situées sur des disques durs de grande capacité, et des SSD coûteux offriront une augmentation des performances avec un accès aléatoire à ces données.

    Le plus souvent, un cache SSD sera utile dans les cas suivants :

    1. Lorsque la vitesse du disque dur en IOPS lors de la lecture est le goulot d'étranglement.
    2. Lorsqu'il y a beaucoup plus d'opérations d'E/S pour la lecture que pour l'écriture.
    3. Lorsque la quantité de données fréquemment utilisées est inférieure à la taille du SSD.

    Solution

    La mise en cache SSD est un cache supplémentaire pour des performances accrues. Un ou plusieurs SSD doivent être attribués à un disque virtuel (luna) pour être utilisé comme cache. Veuillez noter que ces SSD ne seront pas disponibles pour le stockage de données. Actuellement, la taille du cache SSD est limitée à 2,4 To.

    Lorsqu'une opération de lecture/écriture est effectuée, une copie des données est placée sur le SSD. La prochaine fois, toute opération avec ce bloc sera effectuée directement depuis le SSD. Cela réduira à terme le temps de réaction et, par conséquent, augmentera la productivité globale. Si, malheureusement, le SSD tombe en panne, les données ne seront pas perdues, car Le cache contient une copie des données du disque dur.

    Le cache SSD est divisé en groupes - blocs, chaque bloc est divisé en sous-blocs. La nature des opérations d'E/S pour le disque virtuel détermine le choix des tailles de bloc et de sous-bloc.

    Remplir le cache

    La lecture des données du disque dur et leur écriture sur le SSD sont appelées remplissage du cache. Cette opération se produit en arrière-plan immédiatement après que l'hôte ait effectué des opérations de lecture ou d'écriture. Le cache est limité par deux paramètres :

    • Seuil de remplissage après lecture
    • Seuil de remplissage lors de l'écriture

    Ces valeurs sont supérieures à zéro. S'ils sont nuls, alors le cache de lecture ou d'écriture ne fonctionne pas. Selon ces valeurs, chaque bloc est associé à son compteur de lecture ou d'écriture. Lorsque l'hôte effectue une opération de lecture et que les données se trouvent dans le cache, le compteur de lecture est incrémenté. S'il n'y a aucune donnée dans le cache et que le compteur de lecture est supérieur ou égal à la valeur du seuil de remplissage après lecture, les données sont copiées dans le cache. Si la valeur du compteur est inférieure au seuil de remplissage à la lecture, les données sont lues en contournant le cache. Pour les opérations d’écriture, la situation est similaire.

    Scénarios de fonctionnement du cache SSD

    Type d'E/S

    Le type d'E/S détermine la configuration du cache SSD. Cette configuration est sélectionnée par l'administrateur et définit les paramètres de bloc, de sous-bloc, de seuil de remplissage lors de la lecture et de seuil de remplissage lors de l'écriture. Il existe trois configurations prédéfinies selon les types d'E/S : bases de données, système de fichiers et services Web. L'administrateur doit sélectionner la configuration du cache SSD pour le disque virtuel. Pendant le fonctionnement, vous pouvez modifier le type de configuration, mais dans ce cas, le contenu du cache sera réinitialisé. Si les configurations prédéfinies ne conviennent pas au profil de charge utilisé, il est alors possible de définir vos propres valeurs de paramètres.



    La taille du bloc affecte le temps de « préchauffage » du cache, c'est-à-dire quand les données les plus nécessaires seront transférées vers le SSD. Si les données sont proches les unes des autres sur le disque dur, il est préférable d'utiliser une taille de bloc importante. Si les données sont localisées de manière chaotique, il est alors plus logique d'utiliser une petite taille de bloc.

    La taille du sous-bloc affecte également le temps de préchauffage du cache. Sa plus grande taille réduit le temps nécessaire pour remplir le cache, mais augmente le temps de réponse à une requête de l'hôte. De plus, la taille du sous-bloc affecte également la charge du processeur, la mémoire et la bande passante du canal.


    Pour calculer le temps approximatif de préchauffage du cache, vous pouvez utiliser la méthode suivante.

    • T – temps de préchauffage du cache en secondes
    • I – Valeur IOPS pour le disque dur à accès aléatoire
    • S – Taille du bloc d’E/S
    • D – nombre de disques durs
    • C – pleine capacité SSD
    • P - seuil de remplissage lors de la lecture ou seuil de remplissage lors de l'écriture

    Alors T = (C*P) / (I*S*D)
    Par exemple : 16 disques avec 250 IOPS, un SSD de 480 Go comme cache, la nature de la charge est des services Web (64 Ko) et le seuil de remplissage en lecture = 2.
    Ensuite, le temps de préchauffage sera T = (480 Go*2) / (250*64 Ko*16) ≈ 3932 sec ≈ 65,5 min

    Essai

    Tout d'abord, regardons le processus de création d'un cache SSD

    1. Après avoir créé le disque virtuel, cliquez sur ↓, puis sur Définir la mise en cache SSD
    2. Sélectionnez Activer
    3. Sélectionnez une configuration dans la liste déroulante
    4. Cliquez sur Sélectionner les disques et sélectionnez les SSD qui seront utilisés comme cache
    5. Cliquez sur OK

    Restrictions

    • Seuls les SSD peuvent être utilisés comme cache
    • Un SSD ne peut être attribué qu'à un seul disque virtuel à la fois
    • Prend en charge jusqu'à 8 SSD par disque virtuel
    • Prend en charge une capacité totale allant jusqu'à 2,4 To de SSD par système
    • La mise en cache SSD nécessite une licence achetée séparément du système

    Résultats

    Configuration des tests :

    • Disque dur Seagate Constellation ES ST1000NM0011 1 To SATA 6 Gb/s (x8)
    • SSD Intel SSD DC3500, SSDSC2BB480G4, 480 Go, SATA 6 Gb/s (x5)
    • RAID5
    • Service de base de données de type d'E/S (8 Ko)
    • Modèle d'E/S 8 Ko, lecture aléatoire 90 % + écriture 10 %
    • Disque virtuel 2 To

    Selon la formule, temps de préchauffage du cache T = (2 To*2) / (244*8 Ko*8) ≈ 275 036 s ≈ 76,4 heures




    Considérons plusieurs options différentes pour construire un sous-système de disque serveur afin de les comparer en termes de prix et de performances. Choisissons 10 To comme capacité utile de stockage sur disque. Toutes les options supposent l'utilisation d'un contrôleur RAID matériel avec un cache de 2 Go.

    Option budgétaire- deux disques durs 3,5" de 10 To avec une interface SATA et une vitesse de broche de 7 200 tr/min, combinés dans une matrice RAID1. Les performances d'une telle matrice ne dépasseront pas 500 opérations par seconde (IOPS) en lecture et 250 IOPS en écriture. Supplémentaire L'avantage de cette solution est la possibilité de multiplier la capacité de stockage en ajoutant de nouveaux disques dans les baies libres du panier de disques du serveur.

    Option productive- 12 HDD 2.5" 10'000RPM d'une capacité de 1.8To en RAID10 (RAID5 ou RAID50 est deux fois plus lent en écriture). On obtient ici environ 5'000 IOPS en lecture, et 2'500 IOPS en écriture - en 10 fois plus cher que la première option. Cependant, ces disques coûteront environ six fois plus cher.

    Performances maximales fournira une matrice RAID10 de disques SSD, par exemple 12 morceaux d'Intel DC S4600 1,9 To. Les performances d'une telle baie seront de 800 000 IOPS en lecture et de 400 000 IOPS en écriture, soit 160 fois plus rapide que la deuxième option, mais 4 fois plus chère qu'elle et 24 fois plus chère que la première option. Le choix de disques SSD plus grands donnera à peu près les mêmes chiffres en termes de coût et de performances légèrement inférieures.

    Option
    tableau
    En lisant
    (IOPS)
    Enregistrer
    (IOPS)
    À quelle heure
    fois plus rapide
    À quelle heure
    fois plus cher
    Disque dur 10 To x 2500 250
    Disque dur 1,8 To x 125’000 2’500 X10X6
    SSD 1,9 To x 12800’000 400’000 X1600X24

    En général, plus c'est cher, plus c'est rapide. Et même la vitesse dépasse le prix.

    Le gain de performances de 3 ordres de grandeur offert par les SSD est extrêmement attractif, mais a un coût prohibitif pour un stockage de cette taille.

    Heureusement, il existe une technologie moins coûteuse qui peut offrir des performances du même ordre de grandeur qu’une baie SDD conventionnelle. Il est basé sur l'utilisation de disques SSD comme mémoire cache du sous-système de disque.

    L'idée de la mise en cache SSD repose sur le concept de données « chaudes ».

    En règle générale, les applications serveur fonctionnent activement avec seulement une petite partie des données stockées sur le sous-système de disque du serveur. Par exemple, sur le serveur 1C, les transactions sont effectuées principalement avec les données de la période d'exploitation en cours et la plupart des demandes adressées au serveur d'hébergement Web font généralement référence aux pages les plus populaires du site.

    Ainsi, dans le sous-système de disque du serveur, il existe des blocs de données auxquels le contrôleur accède beaucoup plus souvent que les autres blocs. Le contrôleur, qui prend en charge la technologie de mise en cache SSD, stocke ces blocs « chauds » dans la mémoire cache des disques SSD. L'écriture et la lecture de ces blocs à partir de disques SSD sont beaucoup plus rapides que la lecture et l'écriture à partir de disques durs.

    Il est clair que la division des données en « chauds » et « froids » est tout à fait arbitraire. Cependant, comme le montre la pratique, l'utilisation même d'une paire de petits disques SSD combinés dans une matrice RAID1 pour la mise en cache des données « chaudes » permet une très forte augmentation des performances du sous-système de disque.

    La technologie de mise en cache SSD est utilisée pour les opérations de lecture et d'écriture.

    L'algorithme de mise en cache SSD est implémenté par le contrôleur ; il est assez simple et ne nécessite aucun effort de configuration et de maintenance de la part de l'administrateur. L'essence de l'algorithme est la suivante.

    Lorsque le serveur envoie une requête au contrôleur pour lire un bloc de données

    Si oui, le contrôleur lit le bloc dans le cache SSD.

    Sinon, le contrôleur lit le bloc sur les disques durs et écrit une copie de ce bloc dans le cache SSD. La prochaine fois qu'il y aura une demande de lecture pour ce bloc, il sera lu à partir du cache SSD.

    Lorsque le serveur envoie une requête au contrôleur pour écrire un bloc de données, le contrôleur vérifie si le bloc donné se trouve dans le cache SSD.

    Si oui, le contrôleur écrit ce bloc dans le cache SSD.

    Sinon, le contrôleur écrit ce bloc sur les disques durs et dans le cache SSD. La prochaine fois qu'une demande d'écriture de ce bloc sera faite, il sera uniquement écrit dans le cache SSD.

    Que se passe-t-il si lors de la prochaine demande d'écriture d'un bloc qui n'est pas dans le cache SSD, il n'y a pas d'espace libre pour cela ? Dans ce cas, le bloc « le plus ancien » en termes de temps d'accès au cache SSD sera écrit sur le disque dur, et un « nouveau » bloc prendra sa place.

    Ainsi, quelque temps après que le serveur commence à fonctionner à l'aide de la technologie de mise en cache SSD, la mémoire cache du SSD contiendra principalement des blocs de données auxquels les applications serveur accèdent plus souvent.

    Si vous envisagez d'utiliser la mise en cache SSD pour une utilisation en lecture seule, vous pouvez utiliser un seul disque SSD ou une matrice RAID0 de disques SSD comme cache sur le SSD, car le cache SSD ne stockera que des copies des blocs de données stockés sur le disque dur. conduit.

    Si la mise en cache SSD doit être utilisée pour la lecture et l'écriture, les données « chaudes » ne seront stockées que dans la mémoire cache du SSD. Dans ce cas, il est nécessaire d'assurer la sauvegarde de ces données, pour lesquelles il est nécessaire d'utiliser deux ou plusieurs disques SSD combinés dans une matrice RAID avec redondance, par exemple RAID1 ou RAID10, comme mémoire cache.

    Voyons comment fonctionne la technologie de mise en cache SSD dans la pratique et comparons en même temps l'efficacité de sa mise en œuvre sur des contrôleurs de deux fabricants différents - Adaptec et LSI.

    Essai

    Baie de disques principale : RAID10 de six disques durs SATA 3,5" 1 To. Le volume utilisable de la baie est de 2,7 To.

    Cache SSD : RAID1 de deux SSD Intel DC S4600 240 Go. Le volume utile de la baie est de 223 Go.

    Nous avons utilisé les 20 premiers millions de secteurs, soit 9,5 Go, de la matrice RAID10 principale comme données « chaudes ». La petite quantité de données « chaudes » sélectionnée ne change fondamentalement rien, mais elle peut réduire considérablement le temps de test.

    Contrôleurs testés : Adaptec SmartRAID 3152-8i et BROADCOM MegaRAID 9361-8i (LSI).

    La charge sur le sous-système de disque a été créée à l'aide de l'utilitaire iometer. Paramètres de charge de travail : taille de bloc 4K, accès aléatoire, profondeur de file d'attente 256. Nous avons choisi une profondeur de file d'attente plus élevée pour comparer les performances maximales sans prêter attention à la latence.

    Les performances du sous-système de disque ont été enregistrées à l'aide de Windows System Monitor.

    Adaptec (Microsemi) SmartRAID 3152-8i avec technologie maxCache 4.0

    Ce contrôleur prend en charge par défaut la technologie de mise en cache SSD maxCache 4.0 et dispose de 2 Go de sa propre mémoire cache avec protection contre les coupures de courant incluse.

    Lors de la création de la matrice RAID10 principale, nous avons utilisé les paramètres par défaut du contrôleur.

    La matrice de cache RAID1 sur le SSD a été définie en mode Write-Back pour activer la mise en cache de lecture et d'écriture du SSD. Lors du réglage du mode Write-Through, toutes les données seront écrites sur le disque dur, nous n'obtiendrons donc qu'une accélération des opérations de lecture.

    Photo d'essai :

    Graphique 1. Test d'Adaptec maxCache 4.0

    La ligne rouge représente les performances du sous-système de disque lors des opérations d'écriture.

    Au premier instant, il y a une forte augmentation des performances jusqu'à 100 000 IOPS - les données sont écrites dans le cache du contrôleur, qui fonctionne à la vitesse de la RAM.

    Une fois le cache plein, les performances reviennent à la vitesse normale de la matrice de disques durs (environ 2 000 IOPS). À ce stade, les blocs de données sont écrits sur les disques durs, car ces blocs ne sont pas encore dans la mémoire cache du SSD et le contrôleur ne les considère pas comme « chauds ». Une copie des données est écrite dans le cache SSD.

    Peu à peu, de plus en plus de blocs sont réécrits ; ces blocs se trouvent déjà dans le cache SSD, le contrôleur les considère donc comme « chauds » et n'écrit que sur le SSD. Les performances des opérations d'écriture atteignent 40 000 IOPS et se stabilisent à ce niveau. Les données du cache SSD étant protégées (RAID1), il n'est pas nécessaire de les réécrire sur la baie principale.

    Notons au passage que la vitesse d'écriture déclarée par le constructeur pour les disques SSD Intel DC S4600 240 Go que nous utilisons ici est exactement de 38 000 IOPS. Puisque nous écrivons le même ensemble de données sur chaque disque dans une paire RAID1 en miroir, nous pouvons dire que les disques SSD fonctionnent à leur vitesse la plus rapide possible.

    Ligne bleue- performances du sous-système disque sur les opérations de lecture. La section de gauche lit les données d'une série de disques durs à une vitesse d'environ 2 000 IOPS ; il n'y a pas encore de données « chaudes » dans la mémoire cache du SSD. Simultanément à la lecture des blocs du disque dur, ils sont copiés dans la mémoire cache du SSD. Progressivement, la vitesse de lecture augmente légèrement à mesure que les blocs précédemment lus dans le cache SSD commencent à être « capturés ».

    Une fois que toutes les données « chaudes » ont été écrites dans le cache SSD, elles y sont lues à une vitesse de plus de 90 000 IOPS (deuxième section bleue).

    Ligne violette - charge combinée (50% lecture, 50% écriture). Toutes les opérations sont effectuées uniquement avec des données « chaudes » sur le SSD. Les performances sont d'environ 60 000 IOPS.

    CV

    Le contrôleur Adaptec SmartRAID 3152-8i fera un excellent travail d'organisation de la mise en cache SSD. Étant donné que le contrôleur inclut déjà la prise en charge de maxCache 4.0 et la protection du cache, seuls les disques SSD doivent être achetés. Le contrôleur est pratique et facile à configurer ; les paramètres par défaut offrent un niveau maximal de protection des données.

    Enregistrement vidéo des tests d'Adaptec maxCache 4.0 :

    LSI (BROADCOM) MegaRAID 9361-8i

    Ce contrôleur prend en charge la technologie de mise en cache SSD CacheCade 2.0. Pour l'utiliser, vous devez acheter une licence coûtant environ 20 000 roubles.

    La protection du cache n'est pas incluse dans le package, mais sur la base de tests, nous avons constaté que pour obtenir des performances maximales, il est préférable d'utiliser le cache du contrôleur en mode Write-Through, qui ne nécessite pas de protection du cache.

    Paramètres du contrôleur pour la baie principale : cache du contrôleur en mode Write-Through ; Modes de lecture Direct IO, No Read Ahead.

    Mémoire cache sur les disques SSD (matrice RAID1) en mode Write-Back pour la mise en cache des opérations de lecture et d'écriture.

    Image de test (ici la plage d'échelle verticale est le double de celle d'Adaptec) :

    Graphique 2. Test de LSI CacheCade 2.0

    La séquence de test est la même, l'image est similaire, mais les performances de CacheCade 2.0 sont légèrement supérieures à celles de maxCache.

    Lors des opérations d'écriture de données « chaudes », nous avons obtenu des performances de près de 60 000 IOPS contre 40 000 d'Adaptec, en lecture - près de 120 000 IOPS contre 90 000 IOPS, en charge combinée - 70 000 IOPS contre 60' 000 IOPS.

    Il n'y a pas de « pic » de performances au moment initial du test des opérations d'écriture, puisque le cache du contrôleur fonctionne en mode Write-Through et n'est pas utilisé lors de l'écriture de données sur des disques.

    CV

    Le contrôleur LSI dispose de paramétrages plus complexes, nécessitant une compréhension des principes de son fonctionnement. La protection du cache du contrôleur n'est pas requise pour utiliser la mise en cache SSD. Contrairement à Adaptec, il est possible d'utiliser le cache SSD pour gérer plusieurs matrices RAID à la fois. Meilleures performances que les contrôleurs Adaptec. Nécessite l'achat d'une licence CacheCade supplémentaire.

    Enregistrement vidéo des tests LSI CacheCade 2.0 :

    Conclusion

    Ajoutons à notre tableau. Lorsque vous comparez les prix, tenez compte du fait que pour une baie de 10 To, une mémoire cache plus grande est souhaitable. Nous prendrons les chiffres de performances de nos tests.

    Option
    tableau
    En lisant
    (IOPS)
    Enregistrer
    (IOPS)
    À quelle heure
    fois plus rapide
    À quelle heure
    fois plus cher
    Disque dur 10 To x 2 500 250
    Disque dur 1,8 To x 12 5’000 2’500 X10X6
    SSD 1,9 To x 12 800’000 400’000 X1600X24
    Disque dur 10 To x 2 + SSD 960 Go x 2, maxCache 90’000 40’000 X160X2,5
    Disque dur 10 To x 2 + SSD 960 Go x 2, CacheCade 120’000 60’000 X240X3

    Lors de l'écriture de la mise en cache d'écriture, utilisez toujours des baies redondantes (RAID1 ou RAID10) comme cache SSD.

    Pour le cache SSD, utilisez uniquement des disques SSD de serveur. Ils disposent d’une surface « invisible » supplémentaire d’environ 20 % du volume déclaré. Cette zone de réserve est utilisée pour les opérations de défragmentation interne et de garbage collection, de sorte que les performances de ces disques lors des opérations d'écriture ne diminuent pas même lorsqu'ils sont pleins à 100 %. De plus, la présence d'une zone de réserve permet d'économiser les ressources motrices.

    La ressource des disques SSD pour la mémoire cache doit correspondre à la charge sur le sous-système de stockage du serveur en termes de volume de données écrites. La ressource du lecteur est généralement déterminée par le paramètre DWPD (Drive Writes Per Day) - combien de fois par jour le lecteur peut être complètement écrasé pendant 5 ans. Les disques avec 3 DWPD ou plus seront généralement un choix approprié. Vous pouvez mesurer la charge réelle sur le sous-système de disque à l'aide du moniteur système.

    S'il est nécessaire de transférer toutes les données de la mémoire cache des disques SSD vers la baie principale, vous devez basculer le mode de fonctionnement du cache SSD de Write-Back à Write-Through et attendre que les données soient complètement écrites sur le disque dur. conduit. A la fin de cette procédure, mais pas avant, le contrôleur « autorisera » la suppression du volume de cache SSD.

    Si vous avez des questions ou des commentaires sur ce matériel, veuillez les adresser à.

    Dans les articles sur les systèmes de stockage des « Notes de l'administrateur », les technologies d'organisation logicielle d'une baie de disques n'ont pratiquement pas été prises en compte. De plus, toute une série de scénarios relativement bon marché pour accélérer le stockage à l'aide de disques SSD sont restés dans les coulisses.


    Par conséquent, dans cet article, j'examinerai trois bonnes options pour utiliser les disques SSD afin d'accélérer le sous-système de stockage.

    Pourquoi ne pas simplement assembler une matrice de SSD - un peu de théorie et de raisonnement sur le sujet

    Le plus souvent, les SSD sont considérés simplement comme une alternative aux disques durs, avec une bande passante et des IOPS plus élevées. Cependant, un tel remplacement direct est souvent trop coûteux (les disques de marque HP, par exemple, coûtent à partir de 2 000 $) et les disques SAS habituels sont renvoyés au projet. Alternativement, les disques rapides sont simplement utilisés de manière ponctuelle.


    En particulier, il semble pratique d'utiliser un SSD pour une partition système ou pour une partition avec des bases de données - vous pouvez vous renseigner sur les gains de performances spécifiques dans les documents correspondants. De ces mêmes comparaisons, il est clair que lors de l'utilisation de disques durs conventionnels, le goulot d'étranglement réside dans les performances du disque, mais dans le cas d'un SSD, l'interface sera le goulot d'étranglement. Par conséquent, le remplacement d’un seul disque n’apportera pas toujours le même résultat qu’une mise à niveau complète.


    Les serveurs utilisent des SSD avec une interface SATA, ou des SAS et PCI-E plus puissants. La plupart des SSD pour serveurs SAS disponibles sur le marché sont vendus sous les marques HP, Dell et IBM. À propos, même sur les serveurs de marque, vous pouvez utiliser des disques des fabricants OEM Toshiba, HGST (Hitachi) et autres, ce qui vous permet de rendre la mise à niveau aussi bon marché que possible avec des caractéristiques similaires.


    Avec l'utilisation généralisée des SSD, un protocole d'accès distinct pour les disques connectés au bus PCI-E a été développé - NVM Express (NVMe). Le protocole a été développé à partir de zéro et dépasse largement les capacités SCSI et AHCI habituelles. Les SSD dotés d'interfaces PCI-E, U.2 (SFF-8639) et certaines interfaces M.2, plus rapides que les SSD conventionnels, fonctionnent généralement avec NVMe plus que doublé. La technologie est relativement nouvelle, mais avec le temps, elle prendra certainement sa place dans les systèmes de disques les plus rapides.


    Un peu sur le DWPD et l'influence de cette caractéristique sur le choix d'un modèle spécifique.

    Lorsque vous choisissez des disques SSD avec une interface SATA, vous devez faire attention au paramètre DWPD, qui détermine la durabilité du disque. DWPD (Drive Writes Per Day) est le nombre autorisé de cycles de réécriture d'un disque entier par jour pendant la période de garantie. Parfois, il existe une caractéristique alternative TBW/PBW (TeraBytes Written, PetaBytes Written) : il s'agit du volume d'enregistrement déclaré sur le disque pendant la période de garantie. Dans les SSD à usage domestique, l'indicateur DWPD peut être inférieur à un, dans les SSD dits « serveur », il peut être de 10 ou plus.


    Cette différence est due aux différents types de mémoire :

      NAND SLC. Le type le plus simple est que chaque cellule mémoire stocke un bit d’information. Par conséquent, ces disques sont fiables et offrent de bonnes performances. Mais vous devez utiliser plus de cellules mémoire, ce qui affecte négativement le coût ;

      MLC-NAND. Chaque cellule stocke déjà deux bits d’information – le type de mémoire le plus répandu.

      NAND eMLC. Identique au MLC, mais la résistance à l'écrasement est augmentée grâce à des puces plus chères et de haute qualité.

    • CCM NAND. Chaque cellule stocke trois bits d'informations. Le disque est le moins cher à produire, mais il présente les performances et la durabilité les plus faibles. Pour compenser les pertes de vitesse, la mémoire SLC est souvent utilisée pour le cache interne.

    Ainsi, lors du remplacement de disques conventionnels par des disques SSD, il est logique d'utiliser des modèles MLC en RAID 1, qui offriront une excellente vitesse avec le même niveau de fiabilité.


    On pense que l’utilisation du RAID avec un SSD n’est pas une bonne idée. La théorie est basée sur le fait que les SSD en RAID s'usent de manière synchrone et qu'à un moment donné, tous les disques peuvent tomber en panne en même temps, en particulier lors de la reconstruction de la matrice. Cependant, avec le disque dur, la situation est exactement la même. Est-il possible que des blocs de surface magnétique endommagés ne vous permettent même pas de lire les informations, contrairement à un SSD.

    Le coût encore élevé des disques SSD nous amène à réfléchir à des utilisations alternatives, au-delà du remplacement ponctuel ou de l'utilisation de systèmes de stockage basés uniquement sur les SSD.

    Extension du cache du contrôleur RAID

    La vitesse de la matrice dans son ensemble dépend de la taille et de la vitesse du cache du contrôleur RAID. Ce cache peut être étendu à l'aide d'un SSD. La technologie n’est pas sans rappeler la solution Smart Response d’Intel.


    Lors de l'utilisation d'un tel cache, les données utilisées le plus souvent sont stockées sur des disques SSD de mise en cache, à partir desquels elles sont lues ou écrites ultérieurement sur un disque dur ordinaire. Il existe généralement deux modes de fonctionnement, similaires au RAID habituel : écriture différée et écriture directe.


    Dans le cas de l'écriture directe, seule la lecture est accélérée, et avec la réécriture, la lecture et l'écriture sont accélérées.


    Vous pouvez en savoir plus sur ces paramètres sous le spoiler.

      Lors de la configuration d'un cache en écriture directe, l'écriture est effectuée à la fois dans le cache et dans la baie principale. Cela n'affecte pas les écritures, mais accélère les lectures. De plus, les pannes de courant ou l'ensemble du système ne sont plus si terribles pour l'intégrité des données ;

    • Le paramètre de réécriture vous permet d'écrire des données directement dans le cache, ce qui accélère les opérations de lecture et d'écriture. Dans les contrôleurs RAID, cette option ne peut être activée que lors de l'utilisation d'une batterie spéciale protégeant la mémoire non volatile ou lors de l'utilisation de la mémoire flash. Si vous utilisez un SSD séparé comme cache, le problème d'alimentation n'est plus un problème.

    Une licence spéciale ou une clé matérielle est généralement requise pour fonctionner. Voici les noms spécifiques des technologies des fabricants populaires sur le marché :

      LSI (Broadcom) MegaRAID CacheCade. Vous permet d'utiliser jusqu'à 32 SSD pour le cache, avec une taille totale ne dépassant pas 512 Go, le RAID des disques de mise en cache est pris en charge. Il existe plusieurs types de clés matérielles et logicielles, le coût est d'environ 20 000 roubles ;

      Microsemi Adaptec MaxCache. Permet jusqu'à 8 caches SSD dans n'importe quelle configuration RAID. Il n'est pas nécessaire d'acheter une licence distincte ; le cache est pris en charge dans les adaptateurs de la série Q ;

    • HPE SmartCache dans les serveurs ProLiant de 8e et 9e génération. Les prix actuels sont disponibles sur demande.

    Le fonctionnement du cache SSD est extrêmement simple : les données fréquemment utilisées sont déplacées ou copiées sur le SSD pour un accès rapide, et les informations moins populaires restent sur le disque dur. En conséquence, la vitesse de travail avec des données répétitives augmente considérablement.


    Les graphiques suivants illustrent le fonctionnement d'un cache RAID basé sur SSD :



    StorageReview - comparaison des performances de différentes baies lorsque vous travaillez avec une base de données : des disques standards et leur alternative basée sur LSI CacheCade ont été utilisés.


    Mais s’il existe une implémentation matérielle, il existe probablement un équivalent logiciel pour moins d’argent.

    Cache rapide sans contrôleur

    En plus du RAID logiciel, il existe également un cache SSD logiciel. Windows Server 2012 a introduit une technologie intéressante appelée Storage Spaces, qui vous permet de créer des matrices RAID à partir de n'importe quel disque disponible. Les disques sont regroupés dans des pools qui hébergent déjà des volumes de données – une conception qui rappelle la plupart des systèmes de stockage matériels. Les fonctionnalités utiles des espaces de stockage incluent les niveaux de stockage et le cache de réécriture.



    Les niveaux de stockage vous permettent de créer un pool de disques durs et de SSD, où les données les plus courantes sont stockées sur le SSD. Le rapport SSD/HDD recommandé est de 1:4 à 1:6. Lors de la conception, il convient d'envisager la possibilité de mise en miroir ou de parité (analogues de RAID-1 et RAID-5), car chaque partie du miroir doit avoir le même nombre de disques et SSD ordinaires.


    Le cache d'écriture dans les espaces de stockage n'est pas différent de la réécriture normale dans les matrices RAID. Seulement ici, le volume requis est « coupé » du SSD et est par défaut d'un gigaoctet.

    Les moyens traditionnels d'accélérer un PC incluent la mise à niveau ou l'overclocking du processeur et de la carte vidéo, ainsi que l'augmentation de la quantité de RAM. Dans le même temps, une partie tout aussi importante de l’ordinateur, le sous-système disque, est souvent laissée sans surveillance. Sa vitesse n'affecte pas moins les performances d'un PC qu'un processeur puissant ou quelques gigaoctets supplémentaires de RAM - après tout, si le disque dur « ralentit », tous les composants ultra-rapides seront obligés d'attendre patiemment, et avec eux l'utilisateur.

    Jusqu'à récemment, il existait en fait trois façons d'accélérer le sous-système de disque : remplacer le disque dur par un modèle plus rapide, créer une matrice RAID ou passer à un SSD, et chacune de ces approches a ses inconvénients. Avec la sortie du chipset Intel Z68, le géant des processeurs a proposé aux utilisateurs de PC une autre méthode : la mise en cache intermédiaire des données avec lesquelles le système travaille activement sur un petit SSD. La technologie s’appelle Smart Response. D'ailleurs, ce n'est pas pour rien que nous avons précisé qu'Intel proposait cette technologie spécifiquement pour les PC : en effet, la mise en cache SSD a été proposée dès 2009 par Adaptec pour les baies RAID de serveurs de haut niveau à forte charge (Adaptec MaxIQ), puis des solutions similaires ont été présentées par d'autres acteurs du marché du stockage d'entreprise. Ce qui est typique, c'est que tout comme les concurrents ont suivi le pionnier dans le segment des entreprises, la même chose s'est produite dans le segment des consommateurs, et aujourd'hui nous examinerons l'un des analogues d'Intel Smart Response utilisant le disque SSD OCZ Synapse Cache comme disque dur. exemple. L'avantage de ces systèmes hybrides par rapport aux disques durs est évident : les données fréquemment utilisées sont transférées vers un SSD radicalement plus rapide. Et par rapport aux disques SSD indépendants, ce modèle d'utilisation est plus rentable car vous n'avez pas à sacrifier la capacité - après tout, le coût d'un gigaoctet pour les SSD et les disques durs diffère toujours d'un ordre de grandeur.

    Participants aux tests

    Le Western Digital VelociRaptor WD1500HLHX servira de « référence » pour évaluer les performances d’un disque dur traditionnel.

    WD VelociRaptor


    Il s'agit du plus jeune modèle de 150 Go de la dernière génération de « raptors », caractérisé par la prise en charge du SATA 6 Gb/s et un tampon de 32 Mo. Comme toute la famille de « prédateurs » WD, la caractéristique clé de ce disque est la vitesse de broche de 10 000 tr/min et le facteur de forme de 2,5 pouces (bien que le disque dur soit physiquement installé sur un grand radiateur de 3,5 pouces). En raison de la rotation plus élevée vitesse et des tailles de plateau plus petites, une augmentation de la vitesse linéaire est obtenue et, en particulier, une réduction du temps d'accès par rapport aux modèles traditionnels à 7 200 tr/min, sans parler de la série « verte » plus lente. En conséquence, nous obtenons le SATA- le plus rapide. disponibles sur le marché pour PC et postes de travail.

    Le deuxième participant aux tests sera une matrice RAID-0 de deux VelociRaptors - voyons quels dividendes sont apportés en achetant simplement un deuxième disque à un disque existant et en assemblant la matrice sur un contrôleur de chipset.

    Le troisième appareil du test est un SSD OCZ Vertex 3 Max IOPS d'une capacité de 120 Go.


    Aujourd'hui, il s'agit en fait du disque SSD le plus rapide parmi les appareils au format 2,5" (nous ne prendrons pas en compte les appareils marginaux dotés d'interfaces PCI Express x4 et HSDL). Le SSD est basé sur la modification la plus avancée du Contrôleur SandForce de deuxième génération - SF-2281, utilise une mémoire NAND de 25 nm de Micron. Les performances revendiquées sont de 550 Mo/s pour la lecture linéaire, de 500 Mo/s pour l'écriture, le temps d'accès est de 0,1 ms. Les performances maximales lors de l'écriture de blocs de 4 Ko de manière aléatoire. adressage - jusqu'à 85 000 IOPS.

    Les quatrième et cinquième participants au test seront des configurations hybrides d'Intel Smart Response à partir d'un seul WD VelociRaptor en tandem avec OCZ Vertex 3 Max IOPS. Ils ne différeront que par les modes de fonctionnement de la mise en cache. Qu’est-ce qu’Intel Smart Response ? Comme nous l'avons mentionné ci-dessus, son essence se résume à la mise en cache des données activement utilisées des disques durs sur des SSD (qui, aussi rapides et parfaits soient-ils, sont plusieurs fois inférieurs aux disques SSD dans un certain nombre de paramètres). Le système analyse en arrière-plan les fichiers du système d'exploitation et des logiciels utilisateur les plus fréquemment consultés et les déplace vers le disque SSD. Malheureusement, les spécialistes du marketing Intel n'offrent pas la possibilité d'utiliser cette option à tous les utilisateurs de la plate-forme de l'entreprise - Smart Response n'est disponible que sur le chipset Z68. Pour fonctionner dans le cadre de telles baies hybrides, la société propose son propre SSD Intel 311 (Larson Creek), optimisé spécifiquement à ces fins (il est basé sur des puces SLC, qui coûtent un ordre de grandeur plus cher que le MLC, mais aussi « en direct » beaucoup plus longtemps). Heureusement, au moins, il n'y a aucune restriction ici, nous utilisons donc l'OCZ Vertex 3 standard.

    Configuration d'Intel Smart Response

    La procédure de configuration d'Intel Smart Response est assez simple, même si elle n'est pas sans embûches. La première difficulté que peut rencontrer un utilisateur d'un système déjà assemblé et fonctionnel qui souhaite accélérer son disque dur est la nécessité de passer le contrôleur en mode RAID. Naturellement, sans quelques astuces, cela ne fonctionnera pas sans douleur - le système d'exploitation cessera de se charger. Le problème est résolu soit en remplaçant les pilotes par des pilotes standard de Microsoft et en modifiant le registre, soit en « injectant » des pilotes RAID via le programme d'installation de Windows 7 ou Acronis True Image Plus Pack.

    La deuxième difficulté est qu'après les procédures décrites ci-dessus, l'utilitaire de gestion Intel Rapid Storage n'affiche toujours pas la possibilité d'organiser Smart Response. Le problème peut être résolu en réinstallant les pilotes (et sera probablement résolu dans une nouvelle version du package à l'avenir).

    Création d'une matrice hybride Intel Smart Response


    Statut du tableau créé


    Ainsi, après avoir installé un SSD dans le système, l'onglet Accélération apparaît dans le centre de contrôle Intel Rapid Storage, dans lequel vous pouvez sélectionner la quantité de SSD que nous souhaitons allouer à la mise en cache (13,6 Go ou le maximum possible de 64 Go), et dans quelle mode, il fonctionnera Smart Response - Enhanced ou Maximum. Ils diffèrent par la nature de la mise en cache : la version améliorée implique la mise en mémoire tampon uniquement des données pour lesquelles des demandes de lecture actives sont effectuées (fichiers exécutables, bibliothèques, etc.), et la version maximale met également en cache les opérations d'écriture. En conséquence, travailler avec toutes sortes de fichiers et de conteneurs temporaires (par exemple, un fichier scratch Adobe Photoshop ou un catalogue Lightroom) sera beaucoup plus rapide, mais en cas de panne de courant ou de panne de SSD, les données seront inévitablement perdues, car physiquement, jusqu'à ce que leur accès actif cesse, ils ne seront pas transférés sur le disque dur.

    Si vous envisagez de configurer Smart Response à partir de zéro, puis de l'installer sur une baie de système d'exploitation hybride, la procédure peut être effectuée dans le menu de configuration du contrôleur de disque, qui s'affiche immédiatement après le POST.

    La partie restante du SSD est à la disposition de l'utilisateur


    A noter que la partie du SSD non utilisée par la technologie Smart Response reste à la disposition de l'utilisateur - un logiciel peut par exemple y être installé.

    Enfin, le sixième participant est OCZ Synapse Cache d'une capacité de 120 Go.


    Il ne diffère en fait de son frère de la marque Vertex (ainsi que de la série Agility) que par le firmware.

    Cache Synapse OCZ


    La base de ce disque reste le SandForce SF-2281, cependant, le firmware de ce modèle est principalement axé sur un fonctionnement durable. Pour cela, le degré de surprovisionnement (réservation de cellules pour le stock de remplacement en cas de défaillance progressive) peut atteindre 50 %.

    Carte d'entraînement


    En fait, le modèle de 120 Go ne dispose que de 60 Go disponibles pour le travail, et la version plus jeune d'une capacité de 60 Go n'en a que 30. Évidemment, cela n'a aucun sens d'utiliser Synapse Cache comme SSD classique.

    Couverture arrière


    Les modifications apportées au firmware ont été apportées pour une raison. Synapse Cache est conçu pour fonctionner avec l'utilitaire Dataplex sous licence OCZ de la société américaine NVELO. Comme le pilote Intel Rapid Storage, cet utilitaire analyse à la volée toutes les opérations de disque se produisant sur l'ordinateur et transfère les données « chaudes » vers le SSD en arrière-plan. Cependant, il existe également des différences : premièrement, après l'avoir installé, le SSD disparaît complètement du système et devient inaccessible à l'utilisateur. Deuxièmement, Dataplex ne nécessite pas de fonctionnement en mode RAID et est donc compatible avec les cartes mères dont les contrôleurs HDD ne prennent pas en charge cette technologie. Le principal « avantage » de cette solution est une compatibilité totale avec tous les chipsets, et pas seulement avec Intel Z68.

    Malheureusement, il existe certaines limitations : Dataplex ne fonctionne que sous Windows 7 et ne prend actuellement pas en charge les disques durs d'une capacité supérieure à 2 To (ce qui devrait être corrigé d'ici la fin de l'année). De plus, il met uniquement en cache l'accès au disque dur du système, donc si vous souhaitez installer des logiciels ou des jeux sur un autre disque dur, ils ne seront pas « accélérés ».

    La particularité de la technologie est qu'elle met toujours en cache les données de lecture et d'écriture. Il ne dispose pas de mode intermédiaire sécurisé comme Enhanced in Smart Response. Naturellement, cela nous fait craindre pour la sécurité des données des utilisateurs, mais c'est pourquoi OCZ Synapse Cache dispose de 50 % de la zone de réserve, et non de 6,25 %, comme Vertex 3.

    La beauté de Dataplex réside dans l'incroyable simplicité de sa configuration : il suffit de connecter le SSD, de télécharger l'utilitaire sur le site d'OCZ (en vous inscrivant au préalable), de l'installer en saisissant le code situé sur la notice du disque et de son boîtier, et redémarrez le PC. Tous.

    C'est tout l'utilitaire de configuration


    Étonnamment, aucune autre manipulation ne doit être effectuée, le système ne dispose d'aucun paramètre et ils ne sont pas nécessaires. Le menu Démarrer ne contient que l'utilitaire de vérification de l'état Dataplex, qui signale joyeusement que la mise en cache est active.

    Eh bien, voyons ce qui s'avère être mieux.
    Méthodologie de test

    Les tests ont été réalisés sur un banc de test avec la configuration suivante :

    • carte mère : Sapphire Pure Platinum Z68 (Intel Z68 Express) ;
    • processeur : Intel Core i3-2100 ;
    • RAM : Kingston KVR1333D3N9 (2x2 Go, DDR3-1333) ;
    • carte vidéo : Palit GeForce GTX 480 ;
    • lecteurs : WD VelociRaptor WD1500HLHX x2, OCZ Vertex 3 Max IOPS 120 Go, OCZ Synapse Cache 120 Go ;
    • moniteur : LG W3000H ;
    • alimentation : Huntkey X7-900 (900 W) ;
    • système d'exploitation : Microsoft Windows 7 Ultimate x64, pilote Intel RST 10.8.0.1003.
    L’ensemble d’applications de test suivant a été utilisé :
    • CrystalDiskMark 3.0.1 x64 - évaluation synthétique de la vitesse linéaire du lecteur, des vitesses en mode multithread avec une profondeur de file d'attente de 64 requêtes, avec accès aléatoire par blocs de 4 Ko, ainsi que du temps d'accès ;
    • AS SSD Benchmark 1.6.4237.30508 - évaluation synthétique de la vitesse linéaire du disque, des vitesses en mode multithread avec une profondeur de file d'attente de 64 requêtes, avec accès aléatoire par blocs de 4 Ko, ainsi que du temps d'accès ;
    • HD Tune 5.0 : suppression d'un diagramme de lecture linéaire des lecteurs ;
    • Futuremark PCMark Vantage HDD Suite - un ensemble de traces de test qui émulent le travail de l'utilisateur dans les types d'applications les plus populaires ;
    • Futuremark PCMark 7 System Storage - similaire à PCMark Vantage, est un ensemble de pistes de test visant à évaluer le stockage système d'un PC ;
    • Retouch Artists Photoshop Benchmark - un ensemble automatisé de filtres pour Adobe Photoshop, conçu pour évaluer les performances du PC ;
    • DriverHeaven Photoshop Benchmark - un ensemble de filtres pour Adobe Photoshop similaire au précédent ;
    • PPBM5 est une référence pour Adobe Premiere CS5, qui est un projet de trois rendus vidéo différents, dont l'un est essentiel aux performances du disque dur.
    Également évalué :
    • Temps de démarrage du système d'exploitation à l'aide de l'utilitaire BootRacer (enregistre le temps entre le démarrage du noyau du système d'exploitation et le chargement complet de tous les services et programmes au démarrage) ;
    • Temps de démarrage du système d'exploitation avec Microsoft Word, Excel et PowerPoint 2010 placés au démarrage, ouvrant respectivement un document texte de 4,2 Mo (4 208 pages), un tableau de 50,6 Mo (65 187 lignes) et une présentation de 72 Mo (69 diapositives) ;
    • heure de lancement de la scène de test de Crysis 2 en mode DirectX 11 avec le pack de textures haute résolution (depuis l'appui sur Démarrer dans l'outil de référence Adrenaline Crysis 2 jusqu'au début de la scène) ;
    • Heure de lancement des scènes de test S.T.A.L.K.E.R Call of Pripyat Benchmark (somme des temps depuis l'apparition de l'écran de démarrage du jeu jusqu'au début de la scène de test).
    Tous les tests ont été exécutés 5 fois pour permettre à tous les algorithmes de mise en cache d'atteindre des performances maximales.

    Marque CrystalDisk

    WD VelociRaptor WD1500HLHX


    2x WD VelociRaptor RAID-0









    Le premier test synthétique, comme prévu, donne immédiatement la préférence aux disques SSD, et ce n'est pas surprenant : les appareils basés sur les contrôleurs SandForce de deuxième génération les plus puissants peuvent se vanter non seulement d'un temps d'accès minimal (qui est le principal atout des SSD entraînements), mais aussi des vitesses linéaires énormes. En conséquence, OCZ Vertex 3 est loin devant WD VelociRaptor et RAID-0 qui en découlent. Cependant, il y a aussi des résultats intéressants : premièrement, il est à noter qu'Intel Smart Response a une surcharge assez importante. En particulier, en mode amélioré, nous constatons d'excellents gains de performances en mode lecture, mais les performances en écriture sont encore inférieures à celles d'un seul disque dur à accès linéaire. Le passage au mode Maximisé a un effet encore plus important : le système perd encore 40 Mo/s en lecture, mais la vitesse d'écriture augmente naturellement de manière incomparable, notamment sur les petits blocs. Certes, en accès linéaire, Smart Response ne peut pas se comparer même au RAID-0 des Raptors, sans parler d'un seul OCZ Vertex 3. Cependant, vous devez comprendre que dans ce cas, l'enregistrement n'a pas lieu sur le SSD lui-même, mais « à travers » sur le disque dur, et l'augmentation observée est la valeur moyenne obtenue en raison de brusques accélérations de vitesse lors de l'écriture sur le SSD.

    Deuxième observation intéressante : le système avec OCZ Synapse Cache dans le test synthétique est nettement inférieur aux deux modes Intel SRT. En termes de vitesses linéaires, il est comparable au RAID-0 et, lorsque vous travaillez avec de petits blocs, il est jusqu'à 50 % inférieur à Intel SRT. Il est difficile de dire ce qui explique ces résultats : d'une part, dans les tests synthétiques, de tels algorithmes de mise en cache doivent interférer le moins possible pour ne pas épuiser les cellules NAND, d'autre part, il est peu probable que NVELO ait réussi à développer un algorithme plus « intelligent » qu’Intel. Il est probable que les frais généraux liés au traitement du barrage de requêtes générés par CrystalDiskMark et des utilitaires similaires sont simplement dus au fait que les frais généraux de Dataplex sont plus élevés que ceux d'Intel Smart Response.

    Référence AS SSD


    WD VelociRaptor WD1500HLHX



    2x WD VelociRaptor RAID-0






    WD VelociRaptor + OCZ Vertex 3 Max IOPS (Intel SRT amélioré)



    WD VelociRaptor + OCZ Vertex 3 Max IOPS (Intel SRT maximisé)



    WD VelociRaptor + Cache Synapse OCZ


    Malgré la similitude des utilitaires CrystalDiskMark et AS SSD Benchmark, ils sont basés sur des algorithmes de test différents, en particulier, ces derniers évaluent les performances des SSD de manière beaucoup plus scrupuleuse, et la quantité totale de données qui y sont écrites atteint 3 Go en un seul passage. En conséquence, nous obtenons une image plutôt intéressante.

    Faites attention aux gains de performances intéressants lors du passage d'un disque dur au RAID-0. En mode lecture et écriture linéaire, il se situe, comme prévu, autour de 80 à 90 %. Cependant, lorsque la baie est chargée de petites requêtes en mode multithread, elle commence à fonctionner plus de deux fois plus vite qu'un seul disque ! L'explication est simple : la logique du pilote Intel Rapid Storage fait un excellent travail de mise en cache et le micrologiciel VelociRaptor bien débogué réorganise avec succès la file d'attente des requêtes. Ces disques durs sont conçus spécifiquement pour fonctionner dans de telles conditions, et il n'est pas surprenant que leur potentiel se révèle mieux en RAID qu'en mode simple.

    Notez que l'AS SSD, contrairement à CrystalDiskMark, ne détecte pas de baisse significative de la vitesse de lecture en mode Intel SRT Maximized par rapport au mode Enhanced, bien que les deux fonctionnent environ 20 % plus lentement qu'un SSD autonome. Il est également intéressant qu'en mode Enhanced, le flux des requêtes de lecture AS SSD ne soit pas entièrement transféré vers le disque SSD de mise en cache : dans le modèle 4K 64Thrd (accès par blocs de 4 Ko avec adressage aléatoire dans 64 threads simultanés), dans Dans ce mode, la baie affiche 18 200 IOPS contre 45 500 IOPS en mode maximisé.

    Quant à OCZ Synapse Cache, ses performances restent les mêmes - il est presque deux fois plus lent en lecture qu'Intel SRT, mais il s'en sort bien mieux en écriture (en particulier multithread). Très probablement, les particularités du fonctionnement de Dataplex sont à nouveau en jeu ici : d'une part, cet algorithme met en cache les requêtes de lecture moins activement, d'autre part, il gère mieux les écritures.

    Réglage HD

    WD VelociRaptor WD1500HLHX


    2x WD VelociRaptor RAID-0



    WD VelociRaptor + OCZ Vertex 3 Max IOPS (Intel SRT amélioré)


    WD VelociRaptor + OCZ Vertex 3 Max IOPS (Intel SRT maximisé)


    WD VelociRaptor + Cache Synapse OCZ


    Enfin, l'examen des graphiques de lecture des six options de sous-système de stockage que nous examinons donne une idée générale de la raison pour laquelle les deux tests précédents se sont comportés de manière si inhabituelle. Comme le montrent les graphiques des deux modes Intel SRT, lors de l'accès au disque dur pour une lecture en mode linéaire, le pilote commence à faire quelque chose, très probablement, mettre activement en cache les données stockées aux adresses sélectionnées par l'application de test. En conséquence, nous observons une « baisse » notable de la vitesse. Dès que l'espace occupé se termine (et dans notre cas, un saut brusque du graphique vers le niveau normal se situe approximativement à la limite de la zone occupée par le système d'exploitation et le package de test) - tout revient à la normale. De plus, le graphique lu du système avec un seul OCZ Vertex 3 montre également que ce SSD effectue très activement des opérations de service sur la zone occupée en arrière-plan.

    Le graphique de lecture d'un système avec OCZ Synapse Cache ne peut apparemment pas être expliqué du tout, la nature des appels HD Tune est tout simplement incompréhensible pour Dataplex ; En fait, avec le format d'accès au disque dur de HD Tune (linéaire par blocs de 1 Mo), Dataplex réduit même les performances par rapport à la vitesse brute fournie par le disque dur.
    Suite de disques durs Futuremark PCMark Vantage










    PCMark Vantage est principalement critique pour le temps d'accès en lecture du disque, c'est pourquoi OCZ Vertex 3 occupe ici une position dominante. Cela a un effet similaire sur les résultats d'une matrice RAID de deux Velociraptors WD : malgré le doublement linéaire de la vitesse de lecture et d'écriture et la vitesse d'écriture aléatoire plus que doublée, les résultats pour cette configuration ne sont que 400 points plus élevés que pour un seul « raptor ». .» Pour la même raison, le tableau Smart Response Maximized n'est que légèrement supérieur à la configuration améliorée - la plupart des opérations effectuées par le package de test sont orientées lecture. Notez qu'au classement général, OCZ Synapse Cache n'est en retard que de 10 % sur Intel SRT, soit nettement moins que dans les tests synthétiques.

    Il est intéressant de noter que le Dataplex a obtenu de meilleurs résultats sur Windows Media Center, Windows Media Player et les sous-tests de chargement d'applications qu'Intel SRT en mode amélioré, une indication directe de l'avantage tiré de la mise en cache en écriture. Dans le même temps, dans la Galerie de photos Windows et Windows Defender, la technologie alternative est désespérément inférieure, ce qui la place derrière la solution Intel.

    On note également que dans PCMark Vantage nous avons rencontré un comportement étrange de OCZ Synapse Cache, ou plutôt de la technologie Dataplex. Après la première passe de tests, les suivantes ont inévitablement montré des résultats très faibles et il s'est avéré impossible de retracer le système : en une seule passe, le réseau pouvait obtenir 15 000 points, au deuxième - 7 000 et au troisième - 3 000. Il n'a été possible de ramener les indicateurs aux 30 000 attendus qu'en répétant l'un des tests de tests synthétiques (le redémarrage n'a pas aidé). Évidemment, dans ce cas, nous avons un défaut logiciel local, que NVELO corrigera très probablement dans la prochaine version. Cependant, ce comportement n’a été détecté dans aucun autre test, nous pouvons donc considérer qu’il s’agit d’un cas isolé qui n’affecte pas le résultat global.

    Suite de stockage système Futuremark PCMark 7









    La suite de stockage système PCMark Vantage 7 repensée s'appuie encore plus sur le temps d'accès, mais accorde également un peu plus d'attention à la vitesse de ligne lors du calcul du résultat final. En conséquence, la matrice RAID est déjà en avance sur un seul disque dur non pas de 5 %, mais jusqu'à 20 %. Dans le même temps, la vitesse de lecture linéaire nettement inférieure affichée par OCZ Synapse Cache par rapport à Intel Smart Response ne rend pas service à cette technologie : elle obtient des résultats 45 % inférieurs à ceux de SRT en mode Maximisé. Si vous regardez les résultats de chacun des tests, vous pouvez voir qu'absolument partout, Dataplex est nettement inférieur non seulement à OCZ Vertex 3 Max IOPS, mais également aux deux modes Intel Smart Response, tandis que dans PCMark Vantage, cette technologie les surpassait parfois.

    Heure de démarrage du système d'exploitation

    Exécuter 1 Exécuter 2 Exécuter 3 Exécuter 4 Exécuter 5
    WD1500HLHX 28 25 20 20 20
    2x WD1500HLHX RAID-0 31 20 17 17 17
    OCZ Vertex 3 IOPS maximales 120 Go 12 12 9 9 9
    31 14 13 10 10
    24 9 10 9 9
    27 11 11 11 11

    Passons des tests spécialisés à l'évaluation de ce que donne l'application de chacune des options testées aujourd'hui dans la vie réelle. La première sera de télécharger Windows 7 SP1 64 bits. Les mesures ont été prises lors de cinq redémarrages consécutifs.

    Comme nous pouvons le constater, Microsoft a essayé de minimiser l'impact d'un sous-système de disque lent dans des conditions où l'utilisateur exécute le même ensemble de logiciels : dès le deuxième démarrage, les technologies Windows Prefetcher et SuperFetch déplacent les fichiers exécutables et les bibliothèques les plus activement utilisés vers le début du disque (sa partie la plus rapide) et leur chargement automatique dans la RAM au démarrage, réduit le temps de démarrage de 12 % pour un seul WD VelociRaptor et de 55 % (!) pour RAID-0. Au troisième redémarrage, ils ont déjà atteint leur efficacité maximale, et le temps est encore réduit - de 40 % et 82 %, respectivement !

    La transition du disque dur au SSD, comme prévu, réduit considérablement le temps de démarrage - avec OCZ Vertex 3 Max IOPS, Windows 7 démarre en seulement 12 secondes, et après que SuperFetch « jette » tout ce qui est inutile du préchargement - en seulement 9. Et voici C'est Il est temps d'être surpris des performances des baies hybrides : comme on le voit, le premier démarrage du système s'avère à peu près le même qu'avec un disque dur, mais la deuxième fois le temps de démarrage est radicalement réduit. Fait intéressant, les systèmes Intel SRT Maximized et Dataplex atteignent la valeur minimale dès le deuxième redémarrage, et Enhanced nécessite trois démarrages pour cela.

    Heure de démarrage du système d'exploitation et de MS Office

    Exécuter 1 Exécuter 2 Exécuter 3 Exécuter 4 Exécuter 5
    WD1500HLHX 60 62 29 23 26
    2x WD1500HLHX RAID-0 29 26 28 28 31
    OCZ Vertex 3 IOPS maximales 120 Go 14 15 12 15 13
    WD1500HLHX + OCZ Vertex 3 SR amélioré 21 16 12 19 12
    WD1500HLHX + OCZ Vertex 3 SR maximisé 20 21 15 15 15
    WD1500HLHX + cache synapse OCZ 128 Go 31 14 16 17 13

    L'ajout de « fichiers lourds » de Microsoft Word, Excel et PowerPoint au démarrage augmente considérablement le temps de démarrage du système d'exploitation, et plus l'effet de la mise en cache devient évident. Comme vous pouvez le constater, au troisième redémarrage, un seul disque dur reçoit une performance plus de deux fois supérieure de SuperFetch et Prefetcher, alors que ces technologies n'affectent pas du tout RAID-0, contrairement au démarrage d'un système propre. Évidemment, dans le cas de deux VelociRaptors, le système d'exploitation avec tous les logiciels s'adapte déjà aux pistes externes les plus rapides des plateaux, et les technologies Microsoft ne peuvent tout simplement pas accélérer le chargement.

    Une situation similaire est observée avec OCZ Vertex 3 : les cinq passes de ce test affichent à peu près le même temps de chargement, bien qu'il y ait des fluctuations dans les trois secondes. En général, Vertex 3 Max IOPS est deux fois plus rapide que RAID-0 et quatre fois plus rapide qu'un seul WD VelociRaptor.

    Par rapport aux trois participants précédents, les baies hybrides semblent particulièrement impressionnantes. Intel SRT Enhanced affiche déjà au premier lancement moins de temps qu'un seul disque dur (évidemment, certains composants du système d'exploitation et des logiciels sont dupliqués, et leur transfert sur un SSD donne déjà une augmentation de vitesse), et au troisième lancement, il atteint des performances maximales identiques à OCZ Vertex 3. Cependant, comme pour un seul SSD, cette configuration présente des fluctuations d'une passe à l'autre pouvant aller jusqu'à 7 secondes. Une situation similaire est observée avec Dataplex : une baie avec OCZ Synapse Cache charge le système d'exploitation et la suite bureautique quelques secondes plus lentement qu'Intel SRT, et ses performances ne sont pas non plus stables. La seule configuration qui m'a plu par la répétabilité des résultats était Intel Smart Response Maximized - elle a effectué le troisième redémarrage en 15 secondes et n'a ensuite pas ralenti une seule fois.

    Test de disque PPBM5 (Adobe Premiere Pro CS5)

    Exécuter 1 Exécuter 2 Exécuter 3 Exécuter 4 Exécuter 5
    WD1500HLHX 142 142 144 143 142
    2x WD1500HLHX RAID-0 135 135 134 134 134
    OCZ Vertex 3 IOPS maximales 120 Go 136 135 133 133 133
    WD1500HLHX + OCZ Vertex 3 SR amélioré 139 135 136 136 136
    WD1500HLHX + OCZ Vertex 3 SR maximisé 138 145 141 137 136
    145 135 136 137 143

    Le test de disque du benchmark PPBM5 est un rendu d'un film AVI de 13 Go à partir d'un grand nombre de fichiers sources, ce qui devrait imposer une charge importante sur le sous-système de disque. En pratique, nous constatons que cela est principalement critique pour le débit du disque : toutes les configurations qui atteignent environ 250 Mo/s en mode linéaire gèrent le rendu à peu près dans le même temps. Seul un seul WD VelociRaptor (ce qui est naturel) et une baie hybride avec OCZ Synapse Cache sont derrière les leaders, qui, comme nous l'avons déjà vu à partir de tests synthétiques, s'avèrent nettement plus lents qu'Intel SRT et OCZ Vertex 3 en termes de vitesse de lecture linéaire.

    Retouch Artists Photoshop Benchmark (Adobe Photoshop CS5 Extended)

    Exécuter 1 Exécuter 2 Exécuter 3
    WD1500HLHX 21,5 21,8 21,2
    2x WD1500HLHX RAID-0 19,5 19,7 19,6
    OCZ Vertex 3 IOPS maximales 120 Go 22,4 20 20,8
    WD1500HLHX + OCZ Vertex 3 SR amélioré 20,7 20,8 20,8
    WD1500HLHX + OCZ Vertex 3 SR maximisé 21,2 20,4 20,2
    WD1500HLHX + cache synapse OCZ 120 Go 20,6 20,2 20,9

    Ce test est un ensemble de filtres et d'opérations qui sont automatiquement appliqués à une image de test. Comme vous pouvez le voir sur le tableau, les six configurations y font face à peu près aussi rapidement, avec un intervalle d'environ 1,5 seconde. A noter que dans ce cas, le nombre de passes de test n'affecte en rien la vitesse (pour le tester, il a été spécifiquement réalisé sur Intel Smart Response maximisé 10 fois - en vain).

    HardwareHeaven Photoshop Benchmark (Adobe Photoshop CS5 étendu)

    Exécuter 1 Exécuter 2 Exécuter 3
    WD1500HLHX 200,6 201,2 200,5
    2x WD1500HLHX RAID-0 187,9 187,7 188,1
    OCZ Vertex 3 IOPS maximales 120 Go 198 197,5 198,4
    WD1500HLHX + OCZ Vertex 3 SR amélioré 198,2 197,9 198,2
    WD1500HLHX + OCZ Vertex 3 SR maximisé 199,2 198,5 198,3
    WD1500HLHX + cache synapse OCZ 128 Go 198,8 198,1 198,3

    Comme le test précédent, cet ensemble de filtres et d'opérations (bien que nettement plus complexe et gourmand en ressources) ne bénéficie pas d'une amélioration des performances de la mise en cache SSD. Parmi tous les participants, seuls deux méritent d'être soulignés : un seul WD VelociRaptor s'avère sensiblement plus lent que toutes les autres configurations (bien que « sensiblement » ne dure que 3 secondes), mais RAID-0 est étonnamment en avance sur les deux configurations hybrides et même SSD. Considérant qu'il devrait leur être inférieur dans tous les paramètres de vitesse, la seule explication logique de ce fait est le volume plus important utilisé par Photoshop pour le fichier de travail (dans toutes les configurations, tout l'espace libre lui a été attribué).

    Crise 2

    Exécuter 1 Exécuter 2 Exécuter 3 Exécuter 4 Exécuter 5
    WD1500HLHX 64 62 63 40 39
    2x WD1500HLHX RAID-0 52 40 41 40 39
    OCZ Vertex 3 IOPS maximales 120 Go 45 39 39 42 38
    WD1500HLHX + OCZ Vertex 3 SR amélioré 55 49 48 41 40
    WD1500HLHX + OCZ Vertex 3 SR maximisé 57 39 40 40 39
    WD1500HLHX + cache synapse OCZ 120 Go 67 44 39 40 41

    Enfin, passons aux jeux. Crysis 2 avec un ensemble de textures haute résolution occupe 12,5 Go d'espace disque et prend beaucoup de temps à charger. À en juger par les résultats minimaux affichés par les six configurations du test, notre stand est capable d'exécuter le benchmark en 40 secondes environ, mais il y a ici des mises en garde.

    Premièrement, dans des conditions réelles, la vitesse du disque affecte le temps de chargement des niveaux et des lieux, ce que le joueur fait plus d'une fois par minute (à moins, bien sûr, qu'il soit constamment tué au même endroit). Par conséquent, les avantages de SuperFetch, que nous avons observés sur l'exemple de VelociRaptor et RAID-0, ne seront le plus souvent pas aussi perceptibles - pendant le jeu de niveau en niveau, suffisamment de données seront lues sur le disque pour que le préchargeur « contamine » " ce cache, et il ne montrera pas une efficacité maximale . Cette situation ne devrait pas se produire avec des combinaisons hybrides, car La taille du tampon du SSD sera suffisante pour tout ce qui se passe. Une augmentation particulièrement significative sera observée dans le cas de duplication d'éléments entre emplacements : alors le premier chargement prendra par exemple 30 secondes, et le second pourra très bien intervenir en 10.

    En revenant à nos résultats, nous constatons qu'au deuxième démarrage, RAID-0, Intel SRT en mode Maximisé et, bien sûr, OCZ Vertex 3 atteignent une efficacité maximale. OCZ Synapse Cache affiche les 40 secondes tant convoitées au troisième redémarrage, et Intel SRT Enhanced. et un seul WD VelociRaptor - au quatrième.

    HARCELEUR. L'appel de Pripyat

    Exécuter 1 Exécuter 2 Exécuter 3 Exécuter 4 Exécuter 5
    WD1500HLHX 123 126 121 121 124
    2x WD1500HLHX RAID-0 113 97 97 98 97
    OCZ Vertex 3 IOPS maximales 120 Go 104 98 99 98 99
    WD1500HLHX + OCZ Vertex 3 SR amélioré 118 99 102 101 100
    WD1500HLHX + OCZ Vertex 3 SR maximisé 117 99 100 99 101
    WD1500HLHX + cache synapse OCZ 120 Go 150 99 99 98 100

    Comme dans Crysis 2, S.T.A.L.K.E.R. Call of Pripyat ne s'adapte pas très bien à l'accélération du sous-système de disque : le temps de chargement total minimum pour les quatre tests de ce benchmark est d'environ 97 à 98 secondes. Cependant, l'effet de la mise en cache est ici également perceptible, et il est pleinement atteint dès le deuxième démarrage de tous les systèmes, à l'exception d'un seul WD VelociRaptor. Contrairement aux autres participants au test, ce disque dur ne bénéficie pas d'une augmentation de vitesse des systèmes de mise en cache Windows et est en retard d'environ 25 secondes sur les systèmes plus rapides. Nous tenons à souligner que l'hybride avec OCZ Synapse Cache n'a pas moins bien résisté à ce test qu'Intel Smart Response.

    Conclusions

    Un sous-système de disque rapide n'est pas moins important qu'un processeur overclocké ou une carte vidéo puissante. De plus, il ne peut pas être overclocké - il ne peut être remplacé ou complété. Avec l'avènement des technologies hybrides comme Intel Smart Response et NVELO Dataplex, les utilisateurs ont une nouvelle opportunité d'améliorer les performances de leur PC et, comme le montrent les tests, dans la plupart des cas, il ne s'agit pas d'un compromis du tout. Sans aucun doute, un seul SSD offre des performances supérieures à celles des « hybrides », mais son coût et sa capacité limitée ne permettent pas à la plupart des utilisateurs d'installer ce qu'ils veulent, quelle que soit la quantité de données. Étant donné que les jeux modernes ou les logiciels professionnels peuvent facilement occuper une douzaine ou deux gigaoctets, la capacité SSD la plus populaire de 120 Go est suffisante pour seulement 8 à 10 installations de ce type. Dans le même temps, une matrice hybride composée d'un disque dur haute vitesse et d'un SSD de 60 Go coûtera à peu près le même montant, mais sera incomparablement plus confortable à utiliser, bien qu'un peu plus lent.

    En revenant aux tests d'aujourd'hui, nous pouvons conclure qu'Intel Smart Response est actuellement supérieur aux développements d'autres sociétés en termes d'efficacité. NVELO Dataplex, utilisé par OCZ pour son SSD Synapse Cache, s'acquitte également bien de ses tâches, mais est nettement inférieur au développement d'Intel. Cependant, à en juger par le fait que dans certains cas, cela avance encore, nous ne parlons pas d'un défaut fondamental, mais d'une banale imperfection du logiciel, qui, comme nous le savons, peut être corrigée et améliorée. Considérant que NVELO positionne principalement Dataplex comme une solution pour les systèmes serveurs, le développement actif de la partie logicielle ne fait aucun doute.

    Et enfin, en comparant Intel Smart Response et OCZ Synapse Cache, on ne peut dire qu'une chose : il n'est tout simplement pas nécessaire de les comparer. Smart Response ne fonctionne que sur Intel Z68, et organiser cette baie particulière sur ce chipset sera la meilleure solution. Sur toutes les autres plates-formes, cette fonctionnalité n'existe tout simplement pas, et Synapse Cache sera là un excellent moyen d'obtenir la réactivité d'un système SSD sans sacrifier la capacité du disque dur.

    Le matériel de test a été fourni par les sociétés suivantes :



    Des questions ?

    Signaler une faute de frappe

    Texte qui sera envoyé à nos rédacteurs :