Je regarde pour remplacer une station de travail (pour graphisme) et j’aimerais aller vers du matériel qui pourrait supporter un écran 4K de qualité et lus de 16GB de RAM.
Est-ce qu’il y en a parmi vous qui ont de l’expérience avec ce genre de matériel ? C’est possible sur des chipset (GPU) Intel ? Quel genre de machine ? Je crois comprendre que des systèmes avec certains chipset AMD pourraient être supportés avec des pilotes libres.
Je préfère de loin acheter usagé pour payer moins cher mais aussi pour réutiliser, alors je regarde ce qu’il y a chez Encan Dépôt par exemple (voir Dell T5600 avec une Sapphire AMD RX 570) mais j’aimerais entendre des suggestions si vous en avez.
Si tu veux du fanless/low power, on parle d’une motherboard de chipset Intel si tu te contentes de 24 Hz pour ton 4K via HDMI (il semble qu’à ce jour, ils ne supportent toujours pas HDMI 2.0, que le 1.4, qui est limité à 24 ou 30 Hertz). Sinon, n’importe quelle carte mère avec une carte graphique AMD des 5-6 dernières années (haut de gamme dans le temps, pas mal standard aujourd’hui). Ma Radeon HD 7770 ne fait pas le 4K (elle est à vendre pas cher d’ailleurs, si y’a des intéressés) mais la Radeon HD 7850 et la série R9 (ex: R9 270) oui, et toutes les cartes AMD Radeon récentes dont celles que je mentionne là fonctionnent bien avec des pilotes libres. Tant qu’elles sont bien refroidies bien sûr… voir mon épique histoire à ce sujet, qui au final va certainement répondre exactement à ta question parce qu’on a essentiellement le même besoin: d’la RAM en masse et des drivers libres.
Bref pour de l’intégré, Intel récent (et encore, à en croire Reddit que je viens de regarder à l’instant, on dirait que c’est toujours pas top avec les chipsets d’aujourd’hui, à moins que ça passe mieux en DVI/DisplayPort). Pour du dédié en PCI Express, mettre une carte graphique AMD, end of story. Voir à ce sujet: https://www.x.org/wiki/RadeonFeature/
Merci, j’ai bien lu ton article, j’ai savouré chaque ligne On partage souvent ses bons coups mais j’ai beaucoup aimé entrer dans les coulisses d’une bonne séance (étalée sur plusieurs semaines !) de recherches, tests et autres.
Plus je lis là-dessus plus il semble que Radeon serait supporté. Pour un système neuf je me dis que p. être un HP microserver pourrait servir à la fois de NAS et de desktop, ils semblent supporter 2 écrans 4K, quoique la mise à niveau pour la mémoire rendrait le prix moins abordable que sur un système usagé comme celui que tu as.
Je n’ai pas d’écran(s) 4K, juste un seul écran normal (parce que je me suis dit que j’attendrais que les prix tombent dans quelques années, mon écran est “parfaitement bien comme ça”), mais je peux répondre que si j’étais dans le marché pour du 4K la consommation énergétique serait la dernière de mes préoccupations. Mon frigo consomme certainement plus d’énergie, surtout considérant qu’il est branché et actif en permanence, qu’un écran qui ne sert que quelques heures par jour et s’éteint après quelques minutes d’inactivité.
Mais puisque t’insistes, comparons deux écrans d’une même marque au hasard:
Estimé pessimiste à 80-32 * 7 jours * 10 heures * 50 semaines = 168 kilowatts, et à 6¢/kwh d’hydroélectricité ça coûte 10$ de différentiel d’électricité par année. Et ça, c’est probablement avec le réglage d’écran par défaut stupide où le rétroéclairage est à 100% de luminosité pour faire “wow” en magasin, mais n’importe qui tenant à ses yeux devrait régler ça à 10-40% max.
Pour ce qui est de mon ordinateur de bureau décrit dans le billet de blog (avec son Xeon et tout), quand il est allumé mais ne fait pas de grosse tâche 3D (bref 99% du temps quand on travaille), que ce soit avec une Radeon 7770, 7850 ou R9 270, la consommation est entre 73 watts et 82 watts. C’est franchement rien quand on considère qu’y’a certainement du monde qui s’éclaire à l’incandescent encore.
J’avais pas répondu à l’autre sujet de discussion sur l’Internet éco-responsable parce que je trouve l’initiative admirable/louable, mais qu’en pratique je trouve que c’est du gossage. Dans mon cas, surtout à la maison (et compte tenu que de plus en plus de datacenters sont basés sur l’énergie renouvelable, incluant ceux d’OVH et Hostgator que je sache), sauver quelques watts d’énergie renouvelable, je m’en tape pas mal. Je consomme déjà 99% moins que 99% des ménages avec mes habitudes de vie. Si un meilleur écran etc. améliore la productivité, on s’en contrefiche que ça consomme quelques watts de plus, notre temps vaut plus cher que quelques gouttes d’eau dans une chute à turbine de Manic 5.
Comparer un ordi avec un frigo est un peu comme comparer un scooter électrique avec un SUV… Un frigo est un des appareils les plus énergivores d’une maison!!
Mais sinon merci pour les détails du 4K, je me pose aussi la question vu que je commence à travailler plus sérieusement la photo, et je pense aussi que je vais attendre.