Catégorie:Overclocking

De WIKI CCL
Aller à : navigation, rechercher


L'overclocking, ou parfois sur-cadencement, est une manipulation ayant pour but d'augmenter la fréquence du signal d'horloge d'un processeur au-delà de la fréquence nominale afin d'augmenter les performances de l'ordinateur.

Le processeur overclocké peut exécuter plus d'instructions par seconde, ce qui permet de diminuer le temps d'exécution de certains programmes. En contrepartie, il chauffe plus, et peut mal réaliser certaines opérations du fait d'une trop haute température interne, ou d'une tension d'alimentation trop faible par rapport à sa fréquence, il sera donc qualifié d' "instable".

Étymologie

Le terme d'overclocking est à l'origine un nom anglais composé d'over (plus, au-dessus) et clocking dérivé de clock (horloge) que l'on peut traduire par cadençage. Traduit littéralement, l'overclocking est une technique consistant à « aller au-dessus du cadençage » du processeur. Comme de bien nombreux termes dans le monde informatique, des tentatives de françisations ont été faites. On a proposé les mots « surfréquençage », « sur-cadencement ». Cependant le terme original anglophone est majoritairement utilisé.

Principe

Modèle:Section à sourcer Sur-cadencer un processeur (quel que soit son type : graphique GPU, DSP, processeur principal, etc.) consiste à faire fonctionner ce composant à une vitesse supérieure à la vitesse de fonctionnement normale, vitesse pour laquelle son fabricant garantit un bon fonctionnement. On comprend donc assez rapidement l'intérêt de sur-cadencer le processeur central (CPU) ou celui de la carte graphique (GPU), surtout quand on sait que le gain peut atteindre jusqu'à 10~20 % pour la plupart des processeurs, mais que 5 % a 10 % sont plus raisonnables[1].

Les Core 2 Duo (et dans une moindre mesure les Core 2 Quad, du fait de leur dissipation thermique élevée), tout comme la majorité des processeurs Intel basés sur l'architecture Core, se distinguent du reste des processeurs par leurs capacités de sur-cadençage considérables :Modèle:Refnec, jusqu'à +50 % en prenant le temps de régler correctement tous les paramètres (FSB, coefficient, Vcore ...), et plus encore en utilisant des systèmes de refroidissement plus évolués (radiateurs haut de gamme plus ventilation, refroidissement par circulation de liquide - "watercooling" -, ou même azote liquide pour aller jusqu'à doubler[2] la fréquence initiale du processeur, grâce aux propriétés de supraconductivité des matériaux).

Augmenter la fréquence du processeur augmente en réalité la vitesse du bus de données principal de la machine (FSB), et donc accélère tous les composants connectés à la carte mère. La fonction PCI-Lock, présente sur toutes les cartes mères récentes, permet d'éviter ce problème et limite l'augmentation de fréquence au processeur et à la mémoire; toute tentative malheureuse, peut même conduire a une réduction des performances!

But recherché

Le but est d'obtenir des performances supérieures à moindre coût, en poussant un composant à des limites supérieures à ses spécifications techniques.

La pratique concerne en général le microprocesseur central (CPU) et/ou le processeur graphique (GPU), mais concerne également d'autres composants, tel que la mémoire (sur certains ordinateurs, la fréquence de la mémoire est directement liée à la fréquence du microprocesseur).

Impacts généraux de la pratique

Refroidissement du processeur

Le problème le plus important de l'Modèle:Lang est le refroidissement du processeur.

  • Le système le plus couramment utilisé est le ventilateur monté sur un radiateur (le radiateur est une plaque de métal comportant des ailettes qui permet d'améliorer les échanges de température entre le processeur sur lequel il est monté et l'air ambiant). Le ventilateur peut aussi être monté directement sur le processeur, mais le refroidissement sera moins bon; parfois une petite plaque de métal intercalée entre le ventilateur et le processeur aide à dissiper la chaleur du processeur. Le ventilateur doit être le plus volumineux possible pour permettre un brassage d'air important qui contribuera aussi à la ventilation du boîtier.
  • L'aération est, elle aussi, très importante car c'est le brassage de l'air du boîtier qui va permettre d'évacuer la chaleur, que les éléments ont fournie à l'air, à l'extérieur. C'est pour cela qu'un boîtier « ordonné » permet de minimiser les obstacles à la ventilation. En effet les nappes des disques dur, avec par exemple les nappes PATA (IDE), qui sont très larges, si elles sont situées devant un élément qui chauffe (devant le processeur par exemple) vont nuire à la circulation d'air et risquent de provoquer une surchauffe (même pour un processeur non overclocké) ; ce problème est rendu négligeable par l'utilisation de nappes Serial-ATA très fines (de 0,5 à Modèle:Unité). Récemment, des nappes Pata « rondes » ont fait leur apparition, améliorant la ventilation dans les boîtiers encore équipés en IDE.
  • On peut trouver de plus en plus de systèmes de refroidissement de processeur par liquide (watercooling). Ces systèmes plus coûteux que les précédents ont l'avantage de mieux refroidir. Ils sont surtout utilisés lors d'Modèle:Lang et sont aussi plus silencieux. Attention à la place nécessaire dans l'unité centrale, certains kits de fabricants proposent même de pouvoir refroidir divers éléments de l'ordinateur (carte graphique, mémoire vive, etc.).

Risques

Destruction du processeur

Le principal risque est de détruire le processeur par application d'une tension d'alimentation trop importante, d'une température trop élevée au niveau du cœur, ou encore de courant de fuite inter-transistor trop important. Dans le passé, les processeurs risquaient également de brûler si la température devenait trop élevée, mais actuellement absolument tous les processeurs sont équipés d'un système de sonde qui coupe automatiquement le système si la température dépasse les limites fixées par le constructeur (coupure automatique sur les C2D et C2Q à 120/Modèle:Unité). Le bon fonctionnement de ce coupe circuit est garanti dans le cadre d'une utilisation normale du processeur. Le fait d'utiliser le processeur à une fréquence supérieure a également une influence sur sa durée de vie (20 ans en moyenne), même si on considère en général que la réduction est négligeable comparé au temps de vie d'un processeur (rarement plus de 5 ans).

Anomalies de fonctionnement

L'overclocking ajoute un risque accru de faute de calcul et/ou d'apparition d'artefacts durant un traitement, ce qui peut avoir diverses conséquences suivant l'utilisation du processeur au moment de l'apparition de l'artefact, on peut citer :

  • Apparition de taches sur des images,
  • Déclenchement intempestif d'une alarme,
  • Instabilité/Blocage/Destruction de l'OS suite à des écritures corrompues,
  • Erreurs de calculs ou d'instructions, le niveau électrique n'ayant pas le temps de se propager entre deux portes logiques (bits de valeur 0 lu à 1 ou inversement)

Risque de surchauffe

Un overclocking mal réalisé peut altérer le fonctionnement du matériel de manière plus ou moins grave, allant d'une simple surchauffe du composant overclocké (il perd alors en stabilité) à la destruction d'un ou plusieurs éléments de la configuration. Les constructeurs configurent toujours leurs ordinateurs à des fréquences moindres que les fréquences limites (afin de se laisser une marge de sécurité évitant un trop grand nombre de retours sous garantie), ce qui permet une marge d'{overclocking.

Pour pallier l'augmentation de température provenant des composants overclockés, l'utilisation de système de refroidissement à air avec ou sans caloducs et/ou de système de refroidissement à eau (watercooling) est préconisée. Dans la pratique extrême de cette discipline, les spécialistes utilisent des refroidissements à l'azote liquide (Modèle:Unité) et/ou des refroidissement à changement de phase (Montage simple étage : Direct on die ou Montage multi-étages : cascade).

L'overclocking ne nuit pas à la stabilité du processeur si l'on reste dans des fréquences supportables par les composants. Il est souvent nécessaire de modifier légèrement les tensions de fonctionnement pour aider le processeur à « tenir » la nouvelle cadence sans instabilité.

Le bruit des ventilateurs devenant peu acceptable pour les applications gourmandes, on recourt parfois à l'ajustement inverse (le sous-cadencement ou underclocking) afin de diminuer les besoins en dissipation thermique, et donc permettre le sous-voltage du ventilateur de refroidissement, ou le passage en refroidissement passif, pour diminuer le bruit.

Un overclocking « normal » risque de diminuer la durée de vie du processeur (ou des processeurs), car ce dernier chauffe et risque de fonctionner au-dessus de la température pour laquelle il est conçu. Une ventilation homogène est un des éléments cruciaux de l'overclocking et le contrôle de cette température est fortement souhaitée. Certains constructeurs (par exemple ASUS[3]) fournissent un logiciel permettant le contrôle des températures du CPU et de l'alimentation.

Des idées reçues poussent à éviter les systèmes de refroidissement plus poussés (azote liquide), certains utilisateurs tentent de convaincre (ainsi qu'eux-mêmes) que ces méthodes diminuent de manière importante la durée de vie du processeur, ceci étant faux, un processeur, même très overclocké, fonctionnant sous Modèle:Unité sera toujours moins abîmé qu'un processeur overclocké en permanence à Modèle:Unité. Cela tout simplement car la non résistance des matériaux supraconducteurs maintenus à des températures très basses permet de conserver un composant très sain.

Théorie de l'overclocking

Cette technique répond à la demande des micro-ordinateurs modernes qui doivent faire face à des programmes de plus en plus gourmands. Elle cherche à obtenir la puissance maximale à partir d'une configuration existante. On peut l'insérer dans une recherche plus générale de la performance des systèmes informatiques.

Le nombre de cycles par instruction

La plupart des ordinateurs fonctionnent de manière synchronisée en utilisant un signal d'horloge CPU à fréquence constante (la fréquence d'horloge, exprimée en hertz, égale l'inverse de la période - durée d'un cycle d'horloge - exprimée en secondes).

Une instruction d'ordinateur est un ensemble d'opérations élémentaires ou micro-instructions dont le nombre et la complexité dépendent de l'instruction, de l'organisation et de l'implémentation exacte dans le CPU. Une micro-opération est une opération matérielle élémentaire qui peut être exécutée en un cycle d'horloge. Cela correspond à une micro-instruction dans un CPU micro-programmé. Par exemple, les opérations sur les registres, les décalages, les chargements, les incréments, les opérations de l'unité arithmétique et logique : addition, soustraction, etc.

Cependant une instruction machine peut prendre un ou plusieurs cycles pour être entièrement traitée ; c'est le nombre de cycles par instruction ou, en anglais, cycles per instruction (CPI).

Une instruction-machine = 1 ou N micro instructions = 1 ou N CPI.

Voici un extrait de la documentation fournie aux développeurs de compilateurs ou de programmes. On peut y voir une liste d'instructions du micro-processeur AMD A64 avec leur nombre de cycles. AMD définit les latences de ces instructions comme suit : La colonne des latences fournit les attentes pour une exécution statique de l'instruction. L'exécution statique est le nombre de cycles que prend le traitement séquentiel, jusqu'à son terme, des micro-opérations composant l'instruction. Ces valeurs sont à titre indicatif. On suppose que

  • L'instruction est immédiatement disponible dans le cache L1 et que l'opération peut être exécutée avec les autres opérations du planificateur de tâches.
  • Les opérandes sont disponibles dans le cache L1
  • Il n'y a pas de contention avec les autres ressources.

Les deux instructions suivantes :

  • Call pntr16 16/32, qui correspond à un appel à une routine et qui dure 150 cycles,
  • CLC, qui correspond à un effacement de registre et qui dure 1 cycle,

montrent l'étendue que peut avoir le CPI pour des instructions différentes. Cette documentation est disponible chez AMD sous le titre software optimization guide for AMD Athlon 64 and AMD Opteron processors.

Autour de l'overclocking

Logiciels

Certains fabricants de carte mère comme Asus intègrent des logiciels simplifiant l'overclocking sous Windows, le logiciel AI-suiteII permettant même de contrôler les températures ainsi que le fonctionnement et la vitesse des ventilateurs, en temps réel[3].

Mesure de température et visualisation de toutes les informations relatives à l'overclocking avec CPU-Z, si la carte mère le permet.

Overclock en général : OCCT, LinX (test de la stabilité, vérification des températures, tensions, etc.)

Compétitions

Le Modèle:1er concours français d'overclocking ouvert au grand public a été le Modèle:Lang, Modèle:1ère édition en décembre 2007. Il a réuni Modèle:Nombre s'affrontant sur une plate-forme identique afin d'en déterminer le meilleur overclockeur du concours.

Depuis l'équipe de l'association loi 1901 Syndrome OC réitérait plusieurs fois l'expérience pour arriver à une Modèle:4ème édition qui s'est déroulée à Brest du 29 octobre au Modèle:Date.

Dernièrement, Asus, en partenariat avec Intel Cooler Master et Syndrome OC réalisa le Noob Overclocking Challenge destiné aux débutants pour les initier aux rudiments de base de l'overclocking. Au cours de cette compétition, des sites comme OC team, et overclocking PC participèrent à l'animation au sein du magasin Surcouf à Daumesnil.

De leur côté les marques comme MSI et Gigabyte organisent aussi leur propre concours d'overclocking appelé respectivement Master Overclocking Arena (MOA) et Gigabyte Open Overclocking Championship (GOOC).

Notes et références

Voir aussi

Article connexe


Erreur de référence : Des balises <ref> existent, mais aucune balise <references/> n’a été trouvée.

Sous-catégories

Cette catégorie comprend la sous-catégorie ci-dessous.

Pages dans la catégorie « Overclocking »

Cette catégorie contient la page suivante.