Libro de notas

Edición LdN
Metaversos por Ángel Arroyo y Óscar Calvo

Ángel Arroyo y Oscar Calvo son integrantes del grupo de investigación AICU del departamento de Sistemas Inteligentes Aplicados en la UPM. Su investigación se centra en el estudio de modelos coevolutivos en los que el comportamiento inteligente global emerge a partir de interacciones entre las unidades autónomas constitutivas del entorno. Metaversos es una columna de opinión que se publica todos los 18 de cada mes con el objetivo de analizar las posibilidades tecnológicas y las implicaciones sociales de este tipo de entornos virtuales (un ejemplo actual es Second Life).

Anaglifos y la libertad visual

¡Anaglíficas! ¡Eran anaglíficas! ¿Quién dice que la paciencia no tiene su recompensa? Nunca supe cómo se llamaban aquellas gafas. Las regalaban con la Teleindiscreta para poder ver la peli de vaqueros en 3D un día 1 de Enero de 1983. Vaya mal rato que pasé, cuando llegué al kiosco ya se habían vendido todas. Volví llorando a casa, desolado como sólo un niño puede estarlo ante un mundo cruel que te excluye de los grandes acontecimientos.

Y ni siquiera sabía cómo se llamaban aquellas “gafas” de cartón y plástico azul y rojo. Anaglíficas.

Hoy, casi treinta años después, seguimos como locos con el 3D; ¡osea!, pensará usted avezado lector, ¿que esto de 3D no es nuevo? pues no mucho, algunos facts:

  • La primera película en 3D rojo/azul fue “The power of love” en 1922
  • La primera demostración con gafas polarizadas tuvo lugar en Nueva York en 1936
  • La “edad de oro” del cine en 3D estuvo entre los años 1952 y 1955, con más de 40 películas de todos los géneros: western, ciencia ficción, terror, musicales, drama…
  • Desde 1955 hasta finales de la década de los 60 no se hizo nada decente en 3D. Las razones son algo confusas, pero en general se apunta a complicaciones técnicas y aburrimiento general.
  • Entre 1985 y 2003 hay un “resurgir” del 3D con IMAX, pero muy localizado a parques temáticos e instalaciones especiales, sin entrar en los circuitos comerciales de consumo mayoritario.
  • En 2003 comenzó a cocinarse la revolución en la que hoy en día vivimos. Películas tan taquilleras como Spy Kids, Polar Express, Coraline, Up y por supuesto la famosísima Avatar han surgido como las tablas de salvación de la industria del cine.

Total, que el invento de las gafitas lleva 80 años dando vueltas y es ahora cuando se está avanzando un poquito. Uno de los motivos de este resurgimiento son, como no, las mejoras en las tecnologías. Algo que puede parecer baladí a los “entendidos” pero que merece la pena recalcar es que cuando tenemos un entorno virtual (ya sea un Metaverso o una película de animación) disponemos de toda la información tridimensional de este entorno. Esto significa que podemos colocar una cámara (virtual) en cualquier lugar de la escena. Dado que la premisa para grabar una película en 3D es disponer de dos cámaras para que hagan las veces de “ojos”, es trivial generar una imagen final 3D. Sólo necesitamos colocar otra cámara virtual unos 5 cm al lado de la primera y ¡voilá!. Por eso van a reestrenar Toy Story 2 en 3D, porque pueden volver a “generar” la película (rendear, en jerga) con la cámara donde quieran. En cambio ninguna película normal, grabada con una sola cámara podrá (por mucho que nos lo vendan) ser realmente 3D.

En esto andaba pensando una luminosa mañana de Abril cuando pensé: si hacer 3D teniendo un Metaverso es tan fácil ¿porqué el visor de Second Life no lo hace? Tras un par de minutos de googleo averigüé que en efecto, el visor oficial no puede, pero que un señor de nombre Dale Glass ha programado un visor alternativo que si tiene esa característica. http://sl.daleglass.net/

La experiencia ha sido algo frustrante.

Pero antes ¿cómo funciona esto del 3D? Sin entrar en detalles demasiado técnicos, en la pantalla aparece una imagen para el ojo derecho y otra para el izquierdo. Los filtros de colores, o los polarizadores hacen que cada ojo vea la imagen adecuada. Luego el cerebro mezcla las dos imágenes y utilizando las diferencias entre ellas nos da sensación de volumen.

Hagamos un sencillo experimento: supongo que está usted en estos momentos mirando una pantalla de ordenador a unos 50cm aproximadamente. Levante el dedo índice de la mano derecha y sin dejar de mirar a las letras de este texto coloque su dedo en mitad de su campo de visión. ¿Qué ve? Dos dedos semitransparentes. Ahora intente mirar su dedo. Sus ojos se tuercen levemente hacia dentro y el dedo aparece mágicamente definido, pero ya no puede leer el texto (supongo). Puede ejercer su voluntad enfocando alternativamente a la pantalla y al dedo.

Este es el efecto que utilizan las películas en 3D. Por ejemplo, cuando estamos viendo un paisaje en la pantalla y quieren hacernos sentir que algo pasa rozándonos la nariz, la imagen de lo que está cerca es muy diferente para cada ojo, mientras que la imagen del paisaje es igual para ambos ojos. El cerebro nos dice “eso que acaba de pasar está casi en tu cara” ¡guau-como-mola!

Hay un pero. Y si en esa escena del paisaje con algo muy cerca yo (como ser con voluntad propia) quiero centrar mi atención en ese objeto cercano, no puedo. Es decir, en nuestro experimento de la pantalla podíamos cambiar el “punto de enfoque” de 30 a 60 cm simplemente bizqueando un poco; los ojos rotan y las imágenes cambian. Pero en la película las imágenes no cambian si yo bizqueo. ¡Dios mío! tengo que enfocar lo que el señor director quiere que enfoque. Adiós a mi libertad visual, me siento un pelele en manos de la voluntad de Hollywood. Bueno, tampoco es para tanto, al fin y al cabo en una película yo soy sólo un receptor pasivo.




Ya, pero no en los Metaversos. En un entorno virtual inmersivo yo soy el centro del universo, y si quiero enfocar al infinito, enfoco. Y si quiero enfocar a mi avatar, enfoco. Pues no, no enfoco.

No existe un método automático. Incluso con este visor alternativo, si quiero cambiar la distancia de enfoque (la distancia en la que convergen las dos líneas rectas imaginarias que salen de mis globos oculares), tengo que modificar un parámetro de la configuración. Como dije antes… frustrante.

Conclusión: las futuras gafas 3D deberán ser suficientemente inteligentes como para calcular lo “bizco” que me he puesto y de ahí inferir mi distancia de enfoque para posteriormente recalcular las imágenes que le llegan a cada ojo. Otra vez el mundo, cruel, pone a mi alcance la delicia del 3D por unos instantes para arrebatármelo después. Pero, ¡encontraremos la solución definitiva! el 3D perdurará y yo terminaré encontrando mi Teleindiscreta.

Oscar Calvo | 18 de mayo de 2010

Comentarios

  1. Paco
    2010-05-29 15:40

    Interesantísimo, Óscar. Hace un tiempo que vengo pensando en el problema que mencionas, y no sé como no se habla más de ello.

    Todo el mundo anda como loco con el cine 3D y nuestra tecnología 3D es una basura debido al problema del enfoque.

    Si bien es un problema solucionable en metaversos y en películas de animación, no veo cómo podría resolverse en películas grabadas de la realidad, porque ahí no es posible sustraerse al problema de las lentes físicas: la profundidad de campo.

    Curioso además que esa limitación que es la profundidad de campo haya producido una de las posibilidades estéticas más potentes de la fotografía y por ende del cine.

  2. Oscar
    2010-05-31 09:39

    En efecto, la profundidad de campo es lo primero que cualquier aficionado a la fotografía aprende a manejar, y eso a pesar de auto-focus.
    Me gusta tu idea de ver la profundidad de campo inherente al uso de lentes físicas como una limitación. En efecto, una “fotografía” realizada en el metaverso no tiene esta limitación… sin embargo a la hora de dar calidad a las imágenes sintéticas lo primero es añadir ese “defecto” (que no efecto) de desenfoque selectivo.
    Una vez más, cuando lo sintético supera a lo natural nos empeñamos en mutilarlo para que encaje en nuestro cerebro.


Librería LdN


LdN en Twiter

Publicidad

Publicidad

Libro de Notas no se responsabiliza de las opiniones vertidas por sus colaboradores.
Esta obra está bajo una licencia de Creative Commons
Desarrollado con TextPattern | Suscripción XML: RSS - Atom | ISSN: 1699-8766
Diseño: Óscar Villán || Programación: Juanjo Navarro
Otros proyectos de LdN: Pequeño LdN || Artes poéticas || Retórica || Librería
Aviso legal