PDA

Voir la version complète : Optimisation hardware drivers



vtarroux
14/04/2006, 10h12
Bonjour à tous.

J'ai acquis récemment un portable dell 9400

Core duo 2 Ghz go RAM @533 et CG Nvidia Go 7800

Ma question est: Comment optimiser les temps de rendus sur cinema 4d et est ce que la carte graphique joue un rôle important en ce domaîne? Ou comment l'utiliser...

Merci.

Ps les temps de rendus sont très bons mais je souhaite profiter pleinement des capacités matérielles.

azoe
14/04/2006, 10h59
super portable :poucehaut:

pour les rendu seul ton core duo va bossé (même si il est deux :o ......)

la carte graphique na rien avoir avec le rendu

et pour optimiser tes rendus il faut bossé :wink: ou t' acheter une palette d' ordis

vtarroux
14/04/2006, 14h36
Ok, merci, c'est bien ce qui me semblait, j'ai une autre question, quel est l'intérêt des cartes open GL si elles n'optimisent pas la durée du rendu, l'affichage temps réel??? Et ce que d'autres logiciels calculent les rendus avec l'aide de la carte graphique?

Merci.

Vincent.

p4ul
14/04/2006, 15h32
les CG n'interviennent que pour l'affichage, donc en fait les viewport (fenetres de travail) les openGL permettent de mieux gerer ces viewports

ensuite la frequence du core (le proco quoi) de la carte graphique est tres largement inferieur à celle d'un processeur. par exemple les dernieres 7900GTX tournent à 650MHz contre 2000 pour ton proco par exemple. certe ces frequences ne sont pas comlparables mais le fait est que ta cg lutterai beaucoup plus que ton proco (surtout un duo core) pour rendre une image complexe.

donc meme si je ne sis pas, je pense pas que des softs utilisent la cg pour calculer les rendus...

p4ul
14/04/2006, 16h13
j'ai fait un petit test pour toi: avec cinebench et mon PC j'ai un peu joué sur les frequences de la CG, dans un premier temps j'ai tourné tous les tests de cinebench avec la CG à ses frequences d'origines, puis j'ai un peu poussé la cg (quand meme au maximum qu'elle supporte sans que l'ordi ne redemarre betement) et j'ai refait tourner les tests. voila les resultats:

http://img101.imageshack.us/img101/6742/nonoc5hp.th.jpg (http://img101.imageshack.us/img101/6742/nonoc5hp.jpg) http://img89.imageshack.us/img89/7610/oc5qj.th.jpg (http://img89.imageshack.us/img89/7610/oc5qj.jpg)


voila donc en clair: temps de rendu identiques, perfs legerement ameliorées pour ce qui est de l'openGL mais pour le rendu: que dale. si ça vous interesse je peux aussi faire la meme chose avec le proco overclocké ou pas.. mais bon le resultat est previsible ;)

(pour info machine de test: opteron 144 à 2.7GHz, x800gt, DFI nf4 u-d, RAM corsair 1Go)

Pornocio
14/04/2006, 20h20
T'as pas l'intention de me preté ton ordis ,juste pour l'essayé 8)

tarlack
15/04/2006, 15h08
comparer la frequence d'un CPU et du proc d'une carte graphique revient à comparer le debit total d'un tuyau et le debit de tuyaux plus petits mais plus nombreux. Un proc de carte graphique est massivement parallèle, puisque 'il y a plusieurs "pipeline" qui bossent en meme temps (de 8 à 16 en ce moment si je ne me trompe pas), donc y a entre 8 et 16 traitements qui se font plus lentement mais en meme temps. Les cartes graphiques rameraient pour faire des calculs normaux (non paralelisables, où le resultat de telle operation depend du resultat du calcul precedent)), mais elles sont tres bonnes pour le calcul graphique, où les algos sont facilement parallelisables (calculer la position finale d'un vertex sur l'ecran ne depend pas de la position du vertex d'a coté, par exemple). c'est pour ca que pour certains calculs, un cseul des 2 cores d'un proc bi-core est utilisé, car l'algorithme n'a pas été parallélisé (paralleliser un algo est tout sauf facile).
cela dit, il existe des moteurs de rendu (tous experimentaux et non viables en prod (merci kolas pour me faire prendre en compte cette dimension;) ) qui utilisent la cg pour faire les calculs (vertex et pixel shaders powa).

DeadSoul
15/04/2006, 19h49
Juste une petite précision ...
Sous 3DS les temps de rendus sont 30 % plus petits avec par exemple une quadro de derniere génération.. pas possible avec C4D de faire la meme chose ???
Juste une petite astuce aussi au passage... j'ai reussi a passer une 6800 GT d'asus en quadro... avec du flash, du coolbits, et d'autres petites bidoulles pilotes... il y a pas mals de sites qui parlent de ca avec des tutos et tout et tout....

Voilou

vtarroux
18/04/2006, 10h41
@Deadsoul,

Peux tu m'indiquer les liens pour la transformation dont tu parles? Je vais chercher de mon côté, mais j'ai des doutes... La 7800 est vraiment très peu courante dans sa version portable (production arrêtée), ca va être dur de trouver des infos sur cette carte.

PS je ne prête pas!!!

p4ul
18/04/2006, 11h07
pour ce qui est de la comparaison entre un cg et un proco c'etait de la shematisation grossiere d'accord (j'essaye pas de me raccrocher au branches je t'avoue que tu m'as bluffé tarlack avec ton explication ^^)

pour la transformation en quadro c'est valable jusqu'aux 6800ultra.. donc la serie 7 oublie vtarroux désolé. en tout cas ça a pas été trouvé à ma connaissance

Neko
18/04/2006, 11h09
Juste une info qui n'a pas directement de rapport avec le sujet ... nVidia a sorti le Quad-SLI et juste pour l'histoire des pipeline ... en tout avec 4 X G-Force 7800 GTX 512 Mo sa en fait 92 pipelines ... dommage que cela n'intervienne pas des les temps de rendu ... :bave:

nazbrok
18/04/2006, 11h47
Il y a bien un moteur de rendu qui utilise la puissance de la carte graphique, c'esr "GELATO" qui a été dévellopé par nvidia (version 2 actuellement) : http://film.nvidia.com/page/gelato.html
sur le papier ca l'aire pas mal :bave: mais je ne sait pas ce que ca vaut en réalité (d'après la galerie on peut faire des truc pas mal :nono:)

vtarroux
18/04/2006, 14h08
Merci pour toutes ces informations,
Gelato a l'air intéressant malheureusement il est réservé aux possesseurs de Nvidia Quadro.

Vincent.