Vray Linear Workflow

El objetivo de mis tutores es simplemente mostraros mi visión personal sobre una serie de cosas.

En este caso sobre linear Workflow (Vray LWF), decidir cuando os interesa y cuando no interesa utilizar este método de trabajo ya depende por completo de vosotros.

Para mí lo más importante cuando intento comprender algo nuevo es hacerme las preguntas más básicas.

Lo primero, en el caso, de por ejemplo, linear workflow (Vray LWF) que deberíamos de preguntarnos es:


¿Que significa linear workflow (Vray LWF)?

Sabemos que es flujo de trabajo, luego nos queda la incógnita de qué significa lineal.

A qué nos referimos cuando hablamos de lineal dentro de este contexto específico, la luz se comporta de forma lineal.

Si nosotros tenemos una fuente de luz emitiendo una cantidad X de luz, y tenemos un elemento que es capaz de medir esa luz, cuando aumentamos la cantidad de luz al doble, obtenemos una medición que es exactamente el doble.

Cuando aumentamos la cantidad de luz, obtenemos una medición, que es justo el triple.

Luego nos referimos a que la luz es lineal, porque atiende a este comportamiento, se comporta de forma lineal.

Es importante, que no tengáis conceptos mezclados en vuestra cabeza, por ejemplo habréis oído hablar de la ley del cuadrado inverso de la distancia, por ejemplo.

Esto, no tiene nada que ver con la intensidad, esto está relacionado con la distancia.

La luz se extingue de una forma que no es lineal, pero a una misma distancia, nosotros colgamos una fuente de luz y un sensor de luz y nos movemos y siempre están a la misma distancia cuando duplicamos la cantidad de luz el sensor va a obtener el doble de luz

Cuando lo triplique vemos el triple y así de forma lineal, luego este es el comportamiento de la luz.

Así es como se comporta la luz en el mundo real.


Vray se comporta de forma Linear workFlow (Vray LWF)

Los motores de render tienen como objetivo imitar este comportamiento, luego están construidos de tal manera que sus algoritmos matemáticos trabajen con este método.

Imaginaros que tenemos una cámara digital, de momento vamos a dejar de lado las cámaras de película fotográfica.

Tenemos una cámara digital, cuyo sensor sabemos que se comporta de forma lineal, cuando el sensor recibe el doble de luz, lo transforma en el doble de intensidad eléctrica y eso se traduce en una fotografía el doble de luminosa o en un píxel el doble de luminoso.

Si nuestro soporte también fuera lineal, no habría ningún problema, tendríamos una manera de ver nuestras imágenes de forma correcta.


Los soportes no se comportan de forma Linear workFlow

Pero los soportes más habituales, nos vamos a centrar por ejemplo en el monitor, no son lineales.

Cuando creamos una infografía 3D o renders 3D, nuestro monitor no es capaz de visualizar la infografía 3D de modo Vray LWF.

El monitor tiene una pérdida de luminosidad, pensar que por ejemplo una imagen almacenada de forma digital son una serie de datos, cada pixel tiene una serie de datos.

El ordenador cuando quiere mostrar esta imagen o una infografía 3D a través del monitor, transforma esos datos en un impulso eléctrico, que a su vez se traduce en una cantidad de luz en el panel de nuestro monitor pixel por pixel.

Sí todo fuera perfecto, cuando yo tengo un píxel que es el doble de luminoso, el ordenador mandaría el doble de intensidad eléctrica al monitor y el monitor me mostraría en su panel el doble de luz.

Pero desde un principio, los monitores no se comportan de esta manera.

No pueden transformar las infografías 3D o renders 3D que se comportan linealmente .

Los monitores tienen una pérdida de luminosidad, no se comportan de forma lineal, cuando mandamos el doble de luminosidad, no tenemos en el monitor el doble de intensidad.


Creación Gamma 2,2 para solucionar la perdida luminosidad en los soportes

Originalmente se creó la necesidad de establecer un estándar, porque imaginaros que si de repente un fabricante conseguía un panel de mejor calidad y la perdida no era de este estilo y era mucho menor.

Yo cuando viera mis imágenes en el monitor la vería completamente diferente, luego se creó la necesidad de establecer un estándar algo que unificará todos los dispositivos, monitores, cámaras de fotos, cámaras de grabación.

Todos los sistemas de captura y reproducción de imagen acogieron un estándar universal que es el de gamma 2,2.

Vamos a ver un ejemplo, qué pasa si nosotros capturamos una fotografía y no hacemos absolutamente nada y la mostramos en un monitor que como hemos visto hace un momento tiene una pérdida de luminosidad.

Nuestra imagen de forma lineal tiene la información correcta de la luz aquí hay una reproducción fiel de cómo se comporta la luz, pero al mostrar la imagen a través de un monitor se produce una pérdida de luminosidad y nosotros vemos esa información oscurecida en nuestro monitor.

Como esto es un estándar, es una curva que es igual para todos los dispositivos, una manera de solucionarlo es que a la captura que haga mi cámara, yo le voy a aplicar un aumento artificial de la luminosidad, para que cuando el monitor muestra esta imagen teniendo en cuenta la cantidad de luminosidad que va a perder el monitor, yo al final vea la imagen de forma correcta.

Pensar que esto solamente es necesario porque el soporte no es lineal, si el soporte fuera lineal, no necesitaríamos hacer nada de esto, esto ya se hace de forma automática.

Cuando vosotros hacéis por ejemplo una fotografía con vuestra cámara digital, la propia cámara ya aplica esta compensación de la gama a sus imágenes, porque sabe que van a ser vistas en un monitor.

De manera que ya teniendo eso en cuenta compensa nuestras imágenes.


Resumen final

Ya hemos visto qué significa lineal dentro de este contexto, hemos visto también como la luz se comporta de forma lineal pero los soportes en los que vemos nuestras imágenes no se comporta de forma lineal.

Para más información, consulte los tutoriales gratuitos en 3DCOLLECTIVE https://3dcollective.es

Para consultar los precios de un infografía 3D https://infografia3dmadrid.es