Intel rejette un problème de ses Core i9 sur les fabricants de cartes mères

Pierre Dandumont |

Depuis quelques mois maintenant, des utilisateurs de processeurs Intel se plaignent d'une certaine instabilité avec des modèles assez précis : les Core i9 13900K et 14900K. Et Intel a décidé de rejeter la faute sur les fabricants de cartes mères, avec — il faut bien l'avouer — un soupçon de mauvaise foi.

Un Core i9 14900KS, un modèle (très) haut de gamme.

Le problème est simple, et le communiqué d'Intel partagé par nos confrères d'Igor's Lab l'explique bien : les fabricants de cartes mères tendent à débrider de façon extrêmement agressive certains types de processeurs. Nous ne parlons pas ici d'un Core i3 ou d'un Core i5, mais plus des Core i7 et Core i9, et spécifiquement les modèles avec un suffixe K, qui indique la présence d'un modèle pensé pour l'overclocking. Ils partent du principe qu'une personne qui achète un onéreux Core i9 14900K compte l'overclocker ou — au minimum — ne pas le brider.

Les louvoiements d'Intel

Si vous prenez une carte mère pensée pour l'overclocking, certaines protections et limites des processeurs sont désactivées par défaut. En vrac, les cartes désactivent les fonctions d'économie d'énergie (les processeurs ont donc tendance à consommer plus), augmentent les valeurs qui définissent l'intensité maximale fournie au CPU et (surtout) neutralisent les limites des modes Turbo. Nous avons déjà parlé de ces limites dans un dossier sur le TDP, mais voici un petit rappel en résumé : chaque processeur dispose d'une valeur dite PL1, qui est le TDP standard (par exemple 65, 125, 150 W, etc.) et d'une valeur PL2, qui est celle liée au Turbo et est plus élevée (par exemple 253 W). Dans un fonctionnement normal, le processeur va se brider automatiquement à la valeur PL1 et va permettre d'atteindre la seconde valeur (PL2) pendant un temps défini. Les valeurs n'ont pas toujours été communiquées et dépendent des CPU, mais un Core i9 14900K a une valeur PL1 de 125 W, une valeur PL2 de 253 W et une valeur tau (le temps de dépassement permis) qui est a priori de 56 secondes.

Mais quel est vraiment le TDP des puces Apple ? (la réponse va vous étonner)

Mais quel est vraiment le TDP des puces Apple ? (la réponse va vous étonner)

Sur les cartes mères haut de gamme, dans les faits, les valeurs PL1 et PL2 sont parfois identiques avec des valeurs irréalistes (comme 4 096 W) ou la valeur tau est placée sur une valeur infinie. Dans ce cas précis, c'est donc PL2 qui devient de facto la valeur par défaut. Tout le problème vient de cette limite : sans limites, la consommation peut être très élevée (elle peut atteindre plus de 400 W sur un Core i9 14900KS) et littéralement planter le PC si le système de refroidissement n'est pas assez performant. Un joueur qui possède une carte graphique moderne haut de gamme dans un boîtier mal refroidi peut aisément être touché par le problème s'il profite de son PC en été dans une pièce surchauffée, par exemple.

une limite par défaut à 4 096 W.

Maintenant, pourquoi parler des louvoiements d'Intel ? Parce que les valeurs par défaut d'Intel sont notoirement trop faibles depuis plusieurs générations. La correction la plus simple du problème de surchauffe est évidente : proposer une option qui active les réglages recommandés par Intel1. Mais si vous instaurez les limites officielles, les performances peuvent être largement réduites (entre 10 et 15 % selon les retours), ce qui montre une chose : les valeurs sont trop faibles. Le problème existe depuis de nombreuses années, mais il est exacerbé sur les derniers Core i9, qui intègrent plus de cœurs (8+16) que les précédents… et donc consomment un peu plus.

C'est ici que nous pensons qu'il y a un soupçon de mauvaise foi : Intel ne triche pas dans ses résultats2, mais a laissé les fabricants de cartes mères pousser les taquets au maximum pour éviter de brider les processeurs, contrairement aux réglages par défaut. Sur les versions précédentes, personne ne discutait réellement ce choix : les résultats étaient plus élevés lors des tests indépendants et les processeurs à peu près stables avec un système de refroidissement adapté. Mais avec les dernières générations, donc, Intel sous-estime bien volontairement la consommation déjà bien trop élevée de ses puces… et ça coince. Ce qui amène certains à ouvrir les yeux sur les soucis de consommation de certaines puces Intel…


  1. Dans le cadre de mes tests pour Canard PC Hardware il y a quelques années, tous les Core i9 de la famille K étaient testés avec les réglages par défaut et avec ceux recommandés par Intel, le problème n'est pas nouveau.  ↩︎

  2. Intel tend à effectuer ses tests avec les réglages par défaut, ce qui amène généralement des résultats meilleurs que ceux attendus chez les testeurs.  ↩︎

Tags
avatar Adodane | 

On paye les cartes mère bien assez cher, il faut exiger de la qualité en retour.
Plus qu'à attendre les mises à jour.

avatar daxr1der | 

@Adodane

il y a deja une mise a jour du bios a faire, mais c’est pas encore ca, mais y a du mieux

avatar LvLup | 

Si intel a de meilleurs résultats avec les réglages par défaut pourquoi aller chercher plus loin ? Un peu confus à lire ….

avatar Aproz | 

@LvLup

Je me permets l’analogie suivante :
Si t’arrives à vivre avec un smic, pourquoi vouloir plus ?

La même logique, on veut ce qu’il a de mieux et de plus puissant et on paie le prix fort pour cela.

Article plutôt bien rédigé qui résume la situation sans trop rentrer dans les détails (mais peut être déjà un peu trop pour un average Mac user).

avatar LvLup | 

@Aproz

L’analogie est fausse, il suffit de lire l’article ou regarder la citation du dessus.

avatar raoolito | 

@LvLup

non Intel n'a pas de meilleurs résultats avec les réglages par défaut c'est plutôt l'inverse les réglages par défaut soit en fait les seuls qui arrivent à maintenir à la fois une bonne consommation et une bonne température
Mais les fabricants de cartesmère ont le droit d'aller beaucoup plus loin que ça le problème c'est que dès qu'on veut aller plus loin que ça il faut délier les capacités de refroidissement et ça c'est pas forcément toujours prévu par l'utilisateur final

avatar Pierre Dandumont | 
@LvLup : j'ai précisé, vu que ça semblait confus : les performances sont plus élevées dans les tests indépendants vu que beaucoup testent avec les réglages des cartes mères et pas ceux d'Intel (et c'est un choix justifiable de faire comme ça).
avatar LvLup | 

@Pierre Dandumont

Il semble que des erreurs se soient glissées dans votre « article »

avatar berrald | 

@Pierre Dandumont

“Intel tend à effectuer ses tests avec les réglages par défaut, ce qui amène généralement des résultats meilleurs que ceux attendus chez les testeurs.”
Vous ne dites pas exactement le contraire là ?

avatar gigatoaster | 

Y’a un truc que je comprends pas et qui n’est jamais mentionné dans ce type d’article. On parle de valeur brute mais en terme d’usage ou de bénéfice pour l’utilisateur, qu’est que cela représente ? Un jeu vidéo qui tourne à 124 fps ou lieu de 130? 3 secondes de gagné sur un encodage 4K d’un film de 3 heures ? Des pages web qui se chargent en 3 nanosecondes ?

Concrètement, quel est le gain pour l’utilisateur ?

Disclaimer : ce n’est pas une critique pour critiquer, c’est juste que très souvent on parle sur ce site de watts, de TDP ou de que sais-je mais je présume qu’en grande majorité n’en n’a que faire et serait plus intéressée par les cas d’usage. Ça permettrait de mieux expliquer le pourquoi du comment.

avatar Pierre Dandumont | 

Parce que ça dépend fortement des usages. Sans même overclocker, le simple réglage de la carte mère implique 10 à 15 % de différences.

C'est évident que pour charger une page, la différence n'est pas visible. Pour encoder une vidéo, ben on gagne un peu en temps. Dans les jeux vidéo, ça va vraiment dépendre des choix, mais sur un écran 4K avec une carte graphique hors de prix, ça commence à être visible de perdre 10 %.

avatar Adodane | 

@Pierre Dandumont

Si on passe de 120 FPS a 110 en 4K, pas sûre de voir une différence.
Par contre j'ai activé le boost sur tous les cœurs de mon 9700K dans le bios ( léger overclock aussi ), c'est vrai que ça fait un plus dans certains jeux pour atteindre les 60 fps avec ma vieillissante 3060 ti.

avatar Insomnia | 

J’ai beau eu relire pas sur d’avoir compris. Intel propose donc des solutions avec ses réglages, des fabricants décident de passer outre ses limitations et se serait Intel coupable de mauvaise foi. Les limites sont bien faite pour quelque chose et passer outre réduit la durée de vie des processeurs ?

avatar Pierre Dandumont | 
Si les réglages par défaut d'Intel ne permettent pas d'atteindre les fréquences annoncées par Intel, c'est de la faute d'Intel oui.
avatar Adodane | 

@Pierre Dandumont

N'importe quoi 😅

avatar Insomnia | 

@Pierre Dandumont

Sauf que la News n’exprime ses faits pour ma part. De mon avis à vouloir trop bien faire la News en devient moins compréhensible

avatar pelipa91 | 

@Insomnia

Oui moi aussi j’ai lu et je n’ai pas compris semble il..
je pense que des corrections sont à venir pour clarifier tout ça.

Je pense que la ou Intel triche, c’est dans leur puces récentes, ils ne sont pas capables d’augmenter l’efficacité de leur Proc sans faire exploser les Watts consommés

avatar LvLup | 

Je me permets d’insister :
« Intel tend à effectuer ses tests avec les réglages par défaut, ce qui amène généralement des résultats meilleurs que ceux attendus chez les testeurs »
Si les réglages par défaut amènent de meilleurs résultats pourquoi vouloir débrider et amener de l’instabilité

avatar iosDev | 

@LvLup

"« Intel tend à effectuer ses tests avec les réglages par défaut, ce qui amène généralement des résultats meilleurs que ceux attendus chez les testeurs »"

Je pense qu'il faudrait lire :
"Intel tend à effectuer ses tests avec les réglages par défaut, ce qui amène généralement, chez les testeurs, des résultats meilleurs que ceux attendus".

Mais il a fallu que je réfléchisse pour arriver à cette lecture.

avatar Pierre Dandumont | 

Réglage par défaut des cartes mères, ça m'a semblé clair dans les explications.

-> Si on prend les spécifications Intel, c'est moins rapide qu'avec les réglages par défaut des cartes mères, qui laissent plus de marge sur la consommation (au détriment de la stabilité dans certains cas)

avatar LvLup | 

Oui c’est ce que disais : c’est confus !

avatar Moebius13 | 

J’ai acheté un 14900k il y a un mois avec une CM Asus haut de gamme.

Je savais que c’était un CPU qui consommait un max et avec un TDP élevé, raison pour laquelle j’ai un boîtier au format grande tour avec 7 ventilateurs de 140mm (3 en dessous, 3 devant, 1 derrière), et j’ai collé un AIO de 420mm sur le CPU.

Je n’ai pas eu besoin de le brider, les températures peuvent monter à 90°, mais j’ai dimensionné mon refroidissement pour ce CPU (et la RTX 4090 qui va avec).

Le truc c’est que si un mec acheté un 14900K dans un petit boîtier avec un airflow mal optimisé et lui colle au cul un ventirad ou un AIO en 240mm forcément s’il ne bride pas le CPU il va avoir des emmerdes 🤷‍♂️

Une configuration sur PC ça ne se fait pas au hasard, chaque composant doit être réfléchi, la DDR5 par exemple faut pas s’attendre à taper les 7600Mhz sur une carte mère à 4 slots de Ram (ou alors il faut avoir du cul à la loterie du silicium et bidouiller les tensions), il faut impérativement partir sur une carte mère en deux slots uniquement (type Asus Apex).

Donc est-ce qu’Intel est de mauvaise foi ? Pas vraiment, sur les CPU de type « K », les fabricants de CM ont toujours lâché les chevaux, c’est le but en fait quand on prend un « K », on paie plus cher pour le pousser au max.

Ça ne posait pas de problème jusqu’à la génération 13 parce que les CPU consommaient moins et le TDP était moins élevé, mais avec la 13 et la 14ème génération ces valeurs ont augmenté et si l’utilisateur n’a pas un refroidissement et une alimentation à la hauteur du CPU il sera bridé.

Sur tous les tests que j’ai pu lire avant mon achat il était bien indiqué « Le 14900K chauffe énormément, prévoir un refroidissement costaud », il suffit donc de lire….

Et pour de l’overclocking sur un 14900K c’est watercooling custom direct, et c’est logique.

Ce CPU s’adresse à un public particulier et une personne qui ne fait pas d’overclocking et qui n’a pas besoin de perfs extrêmes en applicatif ou en jeux (en 4k et pour épauler un gros GPU), s’orientera plutôt sur un 13700K par exemple qui fera bien le café pour moins cher et demandera beaucoup moins d’efforts pour son refroidissement.

On ne met pas un moteur de Ferrari sous le capot d’une Twingo, ben là c’est pareil, on ne colle pas un 14900k dans un PC qui n’est pas prêt à l’accueillir 🤷‍♂️

Je plains également ceux qui se sont rués sur des 4080 ou des 4090 sans réfléchir à l’alimentation qu’il leur faudrait derrière pour encaisser le choc vu l’explosion de la consommation sur les GPU.

Enfin, avec la 15ème génération qui arrive, ça devrait peut être s’arranger vu qu’Intel va passer sur une gravure plus fine (enfin) et renouveler son architecture, mais sur leur CPU le plus haut de gamme ne vous voilez pas la face, il faudra toujours adosser du costaud pour refroidir le tout.

avatar daxr1der | 

@Moebius13

Pour ceux qui jouent il vaut mieux un AMD Ryzen 7800X3D

avatar Moebius13 | 

@daxr1der

Oui c’est aussi une bonne option, même si un 7950X3D sera encore plus performant et à l’épreuve du temps.

Après la différence de température entre les deux haut de gamme n’est pas si grande qu’on veut le faire croire.

Par contre même si un 7800X3D c’est bien, de nombreux jeux sont mieux optimisés Intel qu’AMD, je prends le cas de Cyberpunk par exemple.

Si sur le framerate moyen la différence est légère, sur le 1% low et le 0,1% low qui sont extrêmement importants pour mesurer la stabilité du framerate et la fluidité du jeu (et par voie de conséquence le frametime), Intel est indiscutablement au dessus.

Sur les tests in game (donc hors benchmarks) que j’ai pu voir, il y avait en moyenne 10 fps d’écarts en 4K sur le 1% low, ce qui est énorme à cette résolution.

Et c’est le cas sur de nombreux jeux, et je ne dis pas ça parce que je suis sur un 14900K, j’étais passé sur de l’AMD et j’étais très content de leur boulot et à l’heure actuelle ils sont clairement plus innovants.

Mais quand j’ai dû choisir mon nouveau CPU j’ai bien pris le temps de lire tous les tests possibles et imaginables et en jeux Intel garde la main, peut être parce que les développeurs bossent sur de l’Intel je n’en sais rien, et ça ne tient peut être qu’à ça mais c’est indéniable.

Autre problématique, la gestion de la DDR5 par AMD, si sur Intel vous pourrez monter votre fréquence de RAM jusqu’à 8000mhz (sur une CM deux slots bien sûr), avec un CPU AMD c’est impossible à l’heure actuelle.

Et je vous laisse regarder les benchmark avec les écarts de framerate avec une RAM à 6000Mhz, 7000Mhz et 8000Mhz, le gain en fps est là et pas qu’un peu et on a toujours cette supériorité sur le 1% low notamment (peut être que ça explique en partie notamment sur les benchmarks l’avance d’Intel).

À l’heure actuelle j’ai un 14900K sous WC, légèrement OC à la hauteur d’un 14900KS et une RAM qui tourne à 7800Mhz rockstable, et je suis persuadé que dans 90% des jeux je passe sans problème devant un 7800X3D et un 7950X3D et pas qu’un peu.

Après pour un utilisateur moyen qui de fait pas dans le WC et l’OC et qui ne veut pas se prendre la tête, je suis d’accord avec vous le 7800X3D est un excellent choix, moins onéreux et qui ne nécessite pas un refroidissement aussi balèze pour donner tout ce qu’il a.

Autre bonus pour AMD, la plateforme AM5 sera toujours valable pour la génération à venir quand chez Intel on va passer en LGA 1852 sur la 15ème génération, donc le 14900K est le dernier sous LGA 1700 et après il faudra repasser à la caisse pour changer de CM, donc moins pérenne, même si in fine avec AMD on gagne juste une génération de plus en partant sur AM5.

Je dirais que pour l’avenir le plus intéressant c’est actuellement d’attendre la 15ème génération Intel et de prendre un Socket LGA 1852, qui devrait aller jusqu’à la 17ème génération, c’est le choix le plus pérenne si on peut attendre la fin d’année.

Il faut bien entendu adapter une configuration à ses besoins et à ce qu’on veut obtenir en jeux et en applicatif.

avatar PowerGlove | 

40 ans d’informatique derrière moi. Je fais de la 3D, des effets, du montage video et des jeux. J’ai monter des dizaines d’ordi moi même par passion et pour des questions de coût et je n’ai jamais compris l’intérêt de l’overclock. Pourquoi pousser à fond pour un prix et une consommation électrique délirants une machine qui sera dépassé 2 ans plus tard par une config moyen de gamme ? Pourquoi ne pas réfléchir en décalage de deux ans et ne pas penser optimisation d’usage, amortissement sur le long terme plutôt que benchmark ? On perd en stabilité dans les calculs et on chauffe son domicile pour avoir la plus grosse à un moment t, c’est vraiment absurde, anti-écologique et irrationnel pour moi. Je gagne ma vie avec des ordis depuis 25 ans et jamais la question de la vitesse d’un rendu ou d’un calcul n’a été un obstacle. La stabilité en revanche oui, et un gros ! Je préfère un calcul qui prend 10 minutes et qui fonctionne, qu’un calcul qui dure 5 et qui plante et ou je dois me demander d’ou cela vient et recommencer. L’overclock est vraiment un truc de mec en manque de virilité… Pas étonnant que l’on voit fleurir des comparaisons avec les bagnoles…

avatar debione | 

J'ai du mal à voir la mauvaise foi d'Intel.
Ils vendent un moteur surpuissant...
Et les constructeurs qui utilisent ce modèle ne font l'effort nécessaire pour refroidir ce moteur.

Le problème ici n'est pas le moteur, mais le réglage du moteur par des tiers.

avatar Adodane | 

@debione

Oui Intel a des spécifications par default pour ses processeurs et les fabricants de cartes mères définissent les valeurs par default comme étant déjà des valeurs overclock irréalistes.

Je vois pas où est la mauvaise foi non plus de la part d'Intel 🤷

Article à charge une nouvelle fois, ça devient lassant ...

avatar Moebius13 | 

@Adodane

Effectivement il n’y a aucune mauvaise foi de la part d’Intel, ils définissent des specs avec des limites (253W sur un 14900K) et ce sont les fabricants de CM qui vont péter les limites et permettent des consommations délirant qui explosent les 350W !!!

Tout ça pour un gain de 9% qui ne se verra qu’en applicatif (et encore ) ou en benchmark et certainement pas en jeux.

D’ailleurs en jeux des tests ont été faits, et en bridant le TDP d’un 14900K à 125W (ce qui fait gagner entre 15 et 20° en passant), la différence de framerate va se situer aux alentours des 5% !!! Tu parles d’un écart de folie.

J’ai moi même fait le test sur le benchmark de Cyberpunk 2077, avec mon 14900K en bridant à 125W et en laissant les valeurs par défaut de la CM et j’ai une différence de 5fps sur mon framerate moyen en 4k.

Tout ça est une tempête dans un verre d’eau en réalité et tout le monde en fait une affaire alors qu’il n’y a rien du tout.

avatar daxr1der | 

Non les utilisateurs n’ont pas le problème depuis quelques mois mais depuis plus d’un an, j’ai eu mon i9 13900&k à sa sortie et depuis novembre 2022 au moment ou j’ai eu mes composants je galère grave… Enfin ils en parlent… C’est pas trop tôt. Dans les jeux j’avais du Stuttering, mon processeur montait a 80~90 degré malgré mon warercooling Corsair très performant …

avatar Moebius13 | 

@daxr1der

80-90° ça n’est rien pour un 13900K qui a une limite de température à 115° et qui ne subira pas de throttling avant 100°.

Ensuite vous n’avez pas un watercooling mais un AIO et c’est assez différent, avec Corsair le mieux que vous puissiez avoir est un AIO en 420mm, et la différence avec un 360mm n’est déjà pas énorme.

L’AIO est limité par sa boucle très courte et la quantité de liquide qui circule pour refroidir le tout.

Donc si vous ne dépassez pas les 90° en température max avec votre AIO sur un 13900K, tout va bien il n’y a rien d’alarmant et même avec un vrai WC vous ne seriez pas à 60°.

avatar Moebius13 | 

@daxr1der

Ah et au passage pour ton stuttering c’est très certainement dû à une mauvaise gestion des P-Core et de E-Core dans certains jeux.

Ça me le faisait dans Cyberpunk et j’ai réglé le problème très facilement en passant mon profil d’alimentation de « performances élevés » à « performances normales » dans Windows, ça a supprimé tous mes problèmes sans bouger mon framerate d’un poil.

Tu peux doubler le truc en cochant l’option « n’utiliser que les P-Core » si disponible dans le titre en question mais essaie la solution que je t’ai proposé, moi ça a tout changé.

CONNEXION UTILISATEUR