PDA

Voir la version complète : Le Vectoriel pour remplacer le pixel?



OrlaV
05/01/2013, 00h38
J'ouvre ici un sujet pour parler de ce fabuleux article paru ce matin:

http://www.mac4ever.com/actu/76486_la-video-vectorielle-promet-de-tuer-les-pixels-d-ici-5-ans

Qu'en pensez vous?

Pour ma part c'est une révolution, imaginez des images qui ne sont que des formules mathématiques.
Pour du petit format ce n'est pas intéressant mais pour des images de haute qualité cela prendrait beaucoup moins de place qu'une image bitmap!
De plus étant vectoriel cela se scalerait à souhait (du moins je suppose).

druide
05/01/2013, 10h56
Mouai bof, déjà il ne sagit que de transformer une bitmap en image vectorisé(bon c'est un algorithme qui gère, cool, 10h de calcul pour un taf qui prend quoi, 1h à un graphiste), ensuite bas à part pouvoir faire de gros zoom(c'est quotidien, comme truc) où est l'intérêt, c'est même pas plus léger ?

De toutes façon une fois la taille voulue définie, quand tu passes en impression ça redevient du point et sur un écran, pas de différence(bas oui quoi, un écran vectoriel ?!?).

C'est un peu de l'insémination artificielle de mouche.

Tiens?!
C'est mode relou aujourd'hui.
Bon, désolé...

grover
05/01/2013, 11h48
Le gros intérêt de ce type de recherches, c'est de réduire le volume des données. Autrement dit, la taille du support physique, ou la bande passante en cas de diffusion TV ou web.
A l'heure de la HD (et bientôt de la THD de type 4K), c'est loin d'être négligeable. ;)

druide
05/01/2013, 12h25
Ils ne parlent pas de vidéo et pour l'instant le fichier vecto est plus lourd que l'original.

Quel est le but ?

Si c'est juste convertir une image existante en vecto, bein, c'est faible.

Après la question c'est, un ccd (photo ou vidéo)qui fonctionne lui en pixel(pour simplifier) va d'un seul coup se mettre à fabriquer un vectoriel, j'en doute, ce sera juste une approximation ou extrapolation à partir de données bitmap...
Et de toutes façon l'oeil est lui même composé de "pixels"(là aussi pour simplifier).

C'est sûrement très intéressant comme recherche, mais je ne suis pas sûre qu'il y est une réelle finalité autre que celle de faire bosser des mathématiciens...

Pis après comme plus bas, ton vecto, tu le regardes sur quoi ?
Même en thd 4k ou 8k, il sera converti à un format prédéfini en pixel(donc bitmap)...
Je te vois mal faire pause pendant un film pour zoomer sur un minuscule détail et regarder les atomes qui compose le faux sang de la dernière superprod ricaine.

Bon, j'ai peut-être rien compris aussi, si c'est une question d'allégement du flux, bein pour l'instant c'est mort, si c'est pour développer de nouveau systèmes de capture de l'image, bas autant revenir à la bobine...

Tout ce qui est visible de ce projet pour l'instant, c'est qu'ils arrivent à convertir une image bitmap en image vectorielle, rien de transcendant... ...ou pour un mathématicien, peut-être.

J'attends de voir, dans 5ans, ce qu'ils en auront fait.

OrlaV
05/01/2013, 13h09
Tes arguments se tiennent mais je pense qu'ils ne se limiteront pas à la technologie actuelle. Ils se donnent 5 ans pour développer l'image vectorielle c'est qu'il y a une raison.
Maintenant je crois que le principal but recherché c'est d'avoir des images de qualité avec un minimum de poids parce qu'honnêtement si ce n'était pas le cas, cela ne servirait à rien du tout.

Comme tu le dis c'est peut-être pour faire bosser des mathématiciens, comme c'est une étude universitaire, probablement dirigé par un doctorant on est pas sur de sa finalité.

Je suis peut-être naïf à mon tour de croire que cela peu être génial, je ne m'y connais pas assez pour juger objectivement.

grover
05/01/2013, 13h11
Evidemment que la capture et la visualisation des images est et restera pour longtemps du domaine du pixel.
Le codec sur lequel travaille le labo de Bath n'a rien à voir avec ça, mais bien avec le transport et le stockage des données.

Un écran 4K en 16/10e affiche 4 069 pixel de large * 2 560 pixels de haut, soit 4096*2560 = environ 10,5 Millions de pixels
Une image de 10,5 Millions de pixel en "vraies couleurs" (24 bits / pixel, voire 32 !) pèse 10,5*24 = environ 252 Méga bits (et non Mo) par image
Donc, une vidéo 4K à 25 images / seconde demandera un débit de 252*25 = environ 6,3 Giga bits par seconde, ce qui est proprement gigantesque et totalement incompatible avec la multiplication des canaux de diffusion (que ce soit par fibre optique, blue-ray, réseau hertzien ou via satellite).

Tout l'intérêt de l'algorithme qu'ils développent est de ramener ce débit à des valeurs notablement inférieures, avec pour but ultime de l'intégrer dans des processeurs capables de réaliser la compression / décompression à la volée. Le jeu, (comme pour tous les codecs développés jusqu'ici) consiste à obtenir un ratio compression/qualité bien meilleur que ce qui existe aujourd'hui.

edit : partially over-burnt par Orlav.
Edit 2 : des Mb et non des Mo…:whistling:

druide
05/01/2013, 13h26
Il me semble, qu'ils ont communiqué un peu tôt, c'est leur premier algorithme qui fonctionne et il est apparemment très lourd d'après le pdf.

Mais remarque c'est peut-être une sorte de wip mathématiques ?

Vivement la suite.


Edit : merci grover, j'avais, effectivement, à peu près mal compris la finalité de ces recherches, si c'est pour le développement d'un moyen de transfert, ça devient du coup, un peu plus logique, mais je reste dubitatif.