This mind-blowing App update is more important than a new 3D camera: Spatialify really upgrades your iPhone with new revolutionary features

Spatialify already was the best app to capture Spatial Photos & Videos and export them to 3D. Now it has been improved so much that it is like purchasing a new 3D camera with features not available before.

The iPhone 15 Pro & Pro Max are officially a 3D camera/video camera from Apple

The just presented iPhone 15 Pro and 15 Pro Max are the first iPhones that will officially bring 3D capture to the masses. UPDATE: The horizontally aligned lenses in the iPhone 15 Pro & Pro Max are the wide and ultra-wide lenses, so 3D images taken with i3DMovieCam will be finally at 1x zoom. With … Read more

{:en}Apple Vision Pro. Is it a game changer for 3D?{:}{:es}Apple Vision Pro ¿Qué novedades aporta al 3D?{:}

{:en} Apple Vision Pro is the entirely new device Apple is bringing next year. This device is both something already seen on other devices, but also something entirely new. Basically, Apple Vision Pro is an AR (Augmented Reality) device, but made using highly advanced VR (Virtual Reality) technology. This way they can avoid all the … Read more

Why the iPhone is the best 3d device even without 3D display

UPDATE 2: Now with our SpatialGlass, the iPhone is now a unbeatable 3D device, complete 3D solution without the need for an external 3D display or Apple Vision Pro.

UPDATE: now more updates, this time to the AR capabilities with ARKit 6, improving the depth awareness of environment, and available to developers and their Apps. Example scanning an entire house in seconds.

It is not a secret, the iPhone has become a great device to take 3D photos and videos. The excellent quality of the cameras, the great night mode and the Live Photos feature, allows making stunning stereo pairs easier than with other devices; There are some other features that aren’t even possible for Android devices (not even by third party Apps). But with the iOS 16 new features, this affirmation becomes bolder than ever.

But let’s start with features and things you can do without the iOS 16 update.

Foremost, on the iPhone, Apps can use two lenses at a time to capture 3D photos and 3D videos like a 3D camera. With i3DMovieCam, you can take photos/record videos in real time in various 3D formats, (or stream to a PC as a 3D webcam). You will get 3D media that will fit perfectly all the 16:9 surface of every 3D display. You can adjust parallax easily without the need of stereoscopic display, so you can align images accordingly to the subject’s distance prior to start capturing. We recommend checking the help of the App to know how you can take control of the results before start recording. The developer tried to make the same App for Android, just to find out that is impossible, Android SDK doesn’t allow in any way to use two cameras at once, not even for previewing images.

If you own a ProMa King Tablet, there are some sample 3D photos included on the storage taken with i3DMovieCam for iPhone.

As many of you already know, photos made in portrait mode, store depth information. The official use for this is to add bokeh and change focus of image, but for us 3D enthusiasts this opens better uses. Stereo Photo Maker can make use of the depth map of these images to edit and generate a standard 3D image or watch it on the Looking Glass, not to speak about the official Looking Glass tool to watch iPhone’s portrait mode photos as holograms, or even making animated holograms. Lume Pad owners also can import these images into their tablet to watch them in Lightfield’s 4V format. Take into account that making photos directly in 3D should produce better results than photos in portrait mode, though the TrueDepth camera of iPhones are among the best available for creating photos with depth maps.

Now things become more interesting. Some Apps are using these depth maps in a way that seems magic. They allow to literally add virtual studio illumination to the image at any position in space, so you can illuminate your subject from different angles than the original photo. You can have a virtual professional illumination system by just positioning lights in the 3d space with the properties you want: direction, brightness, size, color and so on. And these lights will create realistic shadows, consequently to the position of objects in space. You can use these amazing features with Apps like Focos or Apollo.

You can do this with the free version of Focos, would be awesome in Stereoscopic 3D

The AR features of iPhone are also among the best in the industry, even models without LiDAR achieve a good accuracy calculating depth of real space, so AR Apps work almost flawlessly. And with the LiDAR sensor of the latest models allows to perfectly 3D scan anything, or to take measures instantly to automatically generate a CAD map of a room; among another amazing uses like record video with depth, in which you can delete background or add CGI and 3d models later in your favorite video editor, faster than Michael Bay adding explosions in post to its latest movie.

We’re pretty sure all these features are shaping the future of Mixed Reality glasses, like the rumored Apple Glasses.

And with the yesterday’s presentation, use of depth becomes more prominent. With iOS 16 you can use the main subject of photos to lightly cover the time on the lock screen, if they are Portrait mode photos it will do it automatically, but in case of photos without depth metering artificial intelligence is used, an AI at least as good as Leia and its 2d-4V converters.

But there’s a new killer feature: you can drag a subject in a photo and drop on another App, and that subject will instantly appear without any background; saving you several minutes of editing if you wanted to do it manually, and with more accuracy than using your mouse or finger to draw the borders of the subject you want to isolate.

You needed to spend a lot of minutes to do this manually, not anymore.

Remember the Apps adding virtual lights to your photos? With upcoming updates, you will be able to use the iPhone as a webcam for your Mac and dynamically change virtual lights while conferencing. But, of course, we prefer to use NDI HX Capture to stream i3DMovieCam full screen SBS image to any PC or Mac, 3D webcam is way better than 2d with virtual illumination 🙂

The TrueDepth camera does not only allow to scan objects, but also to interact with 3d models in real time

Apple Maps now feature a realistic 3d view, a new and beautiful schematic 3d view, and the look around view which seems a 360 2d image, but when you pan around you see how nearer objects block the farther ones; all three features rely on 3d scans of the real world. Another feature -already present for some years-, is the 3d Memoji feature, using the TrueDepth camera in real time; To finish, there was a small detail in the presentation: a lock screen background of the Earth that rotates in 3d to another angle when you unlock the screen.

This schematic 3d view is so beautiful, even limited by iPhone’s 2d screen.

Imagine if Apple introduces a glasses-free stereoscopic display packed on a new iPhone. That would be a killer device, and a dream for us.

All this 3d goodness is designed to use depth on everything, so when Apple finally releases their Mixed/Augmented Reality glasses, they will already have a working ecosystem that doesn’t need creating everything from zero.

But, what if, added to project 3D objects and information layers to the real world, they augment the iPhone’s screen with their Apple Glasses? They could make 3D images pop out of the iPhone’s screen, without blocking the real world. It would not be glasses-free, but it would be cool too.

With glasses or glasses-free, the iPhone’s ecosystem urgently needs stereoscopic visualization to culminate all the possibilities of its 3d technologies.

{:en}3D photographers: Looking Glass Portrait will include direct support of SBS 3D images{:}{:es}Fotógrafos 3D: Looking Glass Portrait tendrá soporte directo de imágenes en SBS{:}{:ca}Fotografs 3D: Looking Glass Portrait suportarà imatges en 3D SBS{:}

{:en} The successful crowdfunding campaign of Looking Glass Portrait announce new benefits for backers, including direct support for SBS 3D images and a Voxatron license (a platform of Holographic videogames). There’s also support for the depth maps of Portrait photos on iPhone and now also with Android so you will suddenly be able to watch … Read more

{:en}Looking Glass presents a new affordable Holographic device and raises $1 million in 24h{:}{:es}Looking Glass presenta un nuevo y asequible dispositivo holográfico y recauda 1 millón de dólares en 24h{:}{:ca}Looking Glass presenta un nou i asequible dispositiu Hologràfic i recapta 1 milió de dòlars en 24h{:}

{:en} The Looking Glass Factory did it again. The first Looking Glass was a success, even when their devices were intended for creators. Now, they’re introducing the first Holographic display intended for everyone: Looking Glass Portrait. And the results have been blunt: $1 million dollars in 24 hours. And the crowdfunding campaign still have 42 … Read more

[:es]¿Tienes un móvil con cámara dual? (o triple) Puede que ya hayas hecho decenas de imágenes 3D/holográficas[:en]Do you have a dual lens smartphone? Maybe you already have hundreds of 3D/holographic photos[:ca]Tens un mòbil amb doble càmera? Podries haver fet ja dotzenes de fotografies 3D/Hologràfiques[:]

{:en}

Depth maps are being widely used. It is part of the workflow of some Virtual/Mixed Reality and Augmented Reality Apps. Google Camera (Lens Blur mode) and the old Seene and Camarada Apps use it. Lenticular 3D/holographic images from postcards are generated mostly by depth maps instead of making several photos for all the views,if you find a 3D/holographic postcard with big “jumps” between a point of view and another is because they used a couple of photos instead of a depth map.

 

Depth maps are the key to extract that depth information to generate a 3D or even holographic image, a depth map can generate an unlimited number of views of the same image, so you can generate it 1 single viewing angle or 45 points of view if you want, for example to show it in a Looking Glass display, you can extract all the images for the same depth map. The problem -a big one-, is that likely every transfer of the file may destroy the metadata containing the depth map. Almost all software today do a rewrite of the original file ignoring metadata or even modifying EXIF attributes, including sometimes the operating system itself. If you want to preserve that metadata, you need to avoid any edit of the file.

 

On Android devices you need to open your bokeh image as a File or Document

 

StereoPhotoMaker and Depthy.me (abandoned, LeiaPix Converter is similar, and LeiaLink can transfer portrait mode photos from most flagship mobile phones without losing the depth map) can generate 3D images from bokeh photos. Facebook copied to Depthy.me/Seene, so you can use animated 3d images on that data trafficking social network. You have to upload them right from the original folder location of the file. Facebook can access directly to the system of your device (for bad reasons, very bad actually), so they override the operating system and can open them directly. On LeiaPix Converter you need to upload the image as a file and instead browse on gallery you have to browse on files (as Documents on Android or if via USB cable from the phone to the PC). On StereoPhotoMaker you have to open the file directly from the device connected to the PC by USB.   

 

On StereoPhoto Maker you need to open the file clicking on Edit -> Depth map -> Open Jpeg include depth map (load file directly from your device, don’t copy to the PC)

 

Once image is recognized and loaded on Depthy or StereoPhoto Maker you can save it as 3D photo and you can also adjust depth or make an animated GIF.

If following these steps you can’t load the depth map image it means your device uses depth map only internally and after generating your bokeh photo discards the depth map (most likely if your device does not allow to modify the bokeh foucs of your photo), or it save it outside the file or on a different format unrecognizable for other Apps. 

 

We hope you would be lucky and have a device that stores the depth map correctly. Maybe you’re lucky enough to already have tens or hundreds of images with depth stored in the metadata.
Is your device a lucky one? Please comment and share the device you used. Or use our chat.

{:}{:es}

Como has ido leyendo en nuestros otros artículos, los mapas de profundidad se usan cada vesmás en muchos dispositivos. Es parte del flujo de trabajo de algunas aplicaciones de RealidadVirtual/Mixta y Realidad Aumentada. Google Camera (modo Lens Blur) y Seene lo utilizan, y ahora también Camarada. Las imágenes lenticulares 3D/ holográficas de las postales tambiénsuelen ser generadas principalmente con mapas de profundidad en lugar de hacer varias fotos para todas las vistas (si encuentras una postal 3D/ holográfica con grandes “saltos” entre un punto de vista y otro es porque usaron varias fotos en lugar de un mapa de profundidad).

 

En realidad los mapas de profundidad pueden ser calculados con más precisión ahora que hace algún tiempo, por esa razón ahora pueden existir dispositivos holográficos como RH1 y Ultra-D, por esa razón tal vez los cines de campo luz (light field) sustituyan el 3D por imágenes holográficas, y por esa razón los smartphones ahora pueden hacer mejores fotos con bokeh que antes. Y el futuro es prometedor.

 

Y precisamente el uso de mapas de profundidad en smartphones con lentes duales para calcular bokeh es la clave para extraer esa información de profundidad para generar una imagen en 3D o incluso holográfica, un mapa de profundidad puede generar un número ilimitado de vistas de la misma imagen, con lo que si lo necesitas puedes generar 1 punto de vista para una imagen 3D normal (y se puede ajustar la separación para aumentar o disminuir la fuerza del 3D), y si se necesitan 45 puntos de vista para una pantalla de The Looking Glass se pueden extraer todaslas imágenes desde el mismo mapa de profundidad. El problema -un gran problema- es que cada operación que sea haga con ese archivo probablemente destruirá esa información. Incluso mover el archivo de una carpeta a otra podría destruir esos metadatos. Cuando miras un archivo.jpg ese archivo probablemente no será una copia exacta del original, todo el software hoy en día parece reescribir el archivo a cada oportunidad, ignorando los metadatos o incluso modificandolos atributos exif, esto lo suele hacer incluso el propio sistema operativo. Si deseas utilizar esosmetadatos necesitas evitar todos los movimientos/interacciones con el archivo, no se debe tratar la imagen como una imagen ya que todos los programas de imagen probablemente eliminarán esos metadatos. 

En dispositivos Android has de abrir la imagen como archivo (File o Document)

 

StereoPhoto Maker y Depthy.me pueden generar imágenes 3D (y RV) de esas fotos con Bokeh. Facebook también ha copiado a Depthy.me y Seene (aunque eso no te quita la opción de poder seguir editando las imágenes con bokeh dentro de Depthy para mejorarlas antes de subirlas a Facebook), así que también puedes subir esas imágenes tipo Seene en esa red social traficante de datos personales. Pero hay que subir las imágenes directamente desde donde están guardadas, sin mover el archivo. Facebook puede saltarse el sistema operativo y acceder directamente al sistema de archivos del dispositivo (por razones malignas, de hecho por razones muy, muy maliciosas. Por eso hay grupos para denunciar colectivamente dichas prácticas). En depthy has de subir la imagen como archivo y en vez de buscarla por la galería la has de buscarla en las carpetas de archivos (en Android puede llamarse Documentos). Si usas el PC para abrirlas con StereoPhoto Maker has de conectar el móvil por USB y acceder directamente a las carpetas sin copiar la imagen a tu ordenador.  

 

En StereoPhoto Maker has de hacer clic en Edit -> Depth map -> Open Jpeg include depth map (abre la imagendirectamente desde el móvil conectado por USB, sin copiarla a tu PC)

 

Una vez abierta con éxito ya sea en Depthy o en StereoPhoto Maker puedes guardarla como foto 3D y también puedes ajustar la profundidad o generar un GIF animado.

Si siguiendo estos pasos no puedes cargar la imagen con mapa de profundidad, significa que tu dispositivo utiliza el mapa de profundidad sólo internamente y después de generar tu foto bokeh se deshace del mapa de profundidad (en ese caso lo más probable es que tu dispositivo no permita modificar el bokeh de tus fotos una vez hechas), o también puede ser que lo guarde fuera del archivo o en un formato diferente irreconocible para otras aplicaciones.

 

Esperamos que seas de los afortunados que tenga un dispositivo de los que genera un mapa de profundidad correctamente.
¿Tu dispositivo es uno de los afortunados? Por favor comparte con nosotros en los comentarios cuál es tu dispositivo, o también en nuestro chat.

{:}{:ca}

Com has anat llegint, els mapes de profunditat cada vegada s’utilitzen més en molts dispositius. Forma part del flux de treball d’Apps de  Realitat Virtual/Mixta i Realitat Augmentada. Google Camera (mode Lens Blur) i Seene l’utilizen, i ara també Camarada. Les imatges lenticulars 3D/ hologràfiques de les postals tambén poden ser generades amb mapes de profunditat (si trobes una postal 3D/hologràfica amb grans “salts” entre un punt de vista i altre és per que van utilitzar varies fotos en lloc de mapes de profunditat).

 

En realitat els mapes de profunditat poden ser calculats amb més precisió ara que fa un temps, per aquesta raó ara poden existir dispositius hologràfics com l’RH1 y Ultra-D, podria ser que els cinemes del futur (light field) canvïin el 3D per imatges hologràfiques gràcies als mapes de profunditat, i gràcies també als mapes els mòbils ara fan millor fotos amb bokeh que abans. I el futur es prometedor.

 

I precisament el us de mapes de profunditat en smartphones amb lents duals per a calcular bokeh és la clau per a extrau-re aquesta informació de profunditat per a generar una imatge en 3D o inclus hologràfica, un mapa de profunditat pot generar un nombre ilimitat de vistes de la mateixa imatge, amb la qual cosa si el necessites pots generar 1 punt de vista per a una imatge 3D normal (i a més pots ajustar la separació per augmentar o disminuir la força del 3D), i si es necessiten 45 punts de vista per a una pantalla The Looking Glass es poden extrau-re totes les imatges desde el mateix mapa de profunditat. El problema -un gran problema- és que cada operació que es faci amb l’arxiu probablement destruirà aquesta informació. Inclus moure l’arxiu d’una carpeta a una altre podria destruir les metadades. Quan veus un arxiu .jpg probablement no serà una copia exacta del original, tot el programari avui dia sembla reescriure els arxius eliminant la informació que no entenen. Això ho fa fins i tot el propi sistema operatiu (cap sistema es salva). Si vols utilitzar aquestes dades dueries evitar tots els movimients/interaccions amb l’arxiu. 

En dispositius Android has d’obrir la imatge com arxiu (o File o Document)

 

StereoPhoto Maker i Depthy.me poden generar imatges 3D (i RV) d’aquestes fotos amb Bokeh. Facebook també ha copiat a Depthy.me i Seene (però encara pots utilitzar depthy per millorar els resultats abans de pujar-les a aquesta xarxa social traficant de dades personals. Però s’ha de pujar les imatges directament desde la ubicació original al mòbil. Facebook pot saltar-se el sistema operatiu i accedir directament al sistema d’arxius del dispositiu (per raons malicioses, de fet per raons molt, molt malicioses. Hi han grups de gent que s’uneix per a denunciar colectivament aquestes pràctiques tant dolentes). En depthy has de pujar la imatge com arxiu i no obrir-la desde la galería. Has de buscar-la en les carpetes d’arxius (en Android també es pot anomenar Documents). Si utilitzes el PC per obrir-les amb StereoPhoto Maker has de conectar el mòbil per USB i accedir directament a les carpetes sense copiar la imatge al teu ordinador.  

 

A StereoPhoto Maker has de fer clic en Edit -> Depth map -> Open Jpeg include depth map (obre la imatge directamente desde el mòbil conectat per USB, sense copiar la al teu PC)

 

Una vegada oberta amb èxit, ja siguie en Depthy o en StereoPhoto Maker pots desar-la com a foto 3D i tambié pots ajustar la profunditat o generar un GIF animat.

Si no has pogut carregar la imatge amb mapa de profunditat, significa que el teu dispositiu utilitza el mapa de profundidad només internament i després de generar la teva foto bokeh es desfà del mapa de profunditat, o també pot ser que lo desi fora del arxiu o en un format diferent irreconocible per a altres aplicacions.

Esperem que siguies dels afortunats que tingui un dispositiu dels que generen un mapa de profunditat correctament.
El teu dispositiu és un dels afortunats? Si us plau, comparteix amb nosaltres als comentaris quin és el teu dispositiu, o també al nostre chat.

{:}

[:es]Ultra-D: La primera revolución del 3D. Toda la información[:en]Ultra-D. The first 3D revolution. Everything you need to know[:ca]Ultra-D: La primera revolució del 3D. Tota la informació[:]

{:en}On our blog we are down to earth, so we don’t want to speak about technologies that could never arrive to stores. We have spoken about Ultra-D a few times, but still you can’t go to the mall and buy an Ultra-D TV, but this is gonna change this year.

8K

Today 4K is a mainstream thing, so Stream TV Network (Ultra-D creators) is going 8K. Mathu Rajan from Stream TV Networks said: “4K TV and PC monitors are obsolete now we have 8K panels”.

Ultra-D use advanced optics, powerful rendering algorithms to create a 140 degree field to bring all viewers on the room a crisp 3D experience, dynamic, adjustable, bright and glasses free without fixed spots.

The technology

The system is comprised of three basic parts—a module that converts any 2D or standard stereoscopic signal (say, from a 3D Blu-ray) into the Ultra-D format in real time, a digital signal processor (DSP) that accepts an Ultra-D signal and controls the LCD subpixels, and an optical sheet bonded to the LCD panel. (Ultra-D works on LCD, LED, OLED, plasma, etc. and on any size, PC, tablet, smartphone or large format TV, and on smaller 4K or FullHD TVs, 8K is not mandatory).

The optical sheet consists of several refractive and diffractive layers that, combined with how the LCD subpixels are manipulated by the DSP, project the light from those subpixels out into the space in front of the panel, creating what’s called a light field. This generates stereopsis, a sense of depth when viewed with two eyes.

According to Stream TV’s white paper, “Virtual and partial subpixels merge in the space and form complete and separate views for each eye of the viewer. Then the viewer’s brain takes over, processing them in the same natural way as it is used to in the real world, creating a natural 3D experience. It is very different from 3D display technologies with glasses, which only project two discrete views of a scene. With Ultra-D technology, the viewing areas (light fields) are repeated in a horizontal way, and the transitions between these areas are smooth. So, a viewing area is not divided into discrete viewing zones (cones) as is done in most other technologies, but the optical system creates an almost continuous light field in front of the screen.”

Because Ultra-D creates a light field rather than two fixed views, it can also reproduce motion parallax, which is the effect you see when objects in your field of view move with respect to each other. This does not depend on stereopsis and can be used by those with partial or complete stereo blindness to experience a sense of depth. Apparently, Ultra-D detects objects that are partially occluding (blocking the sight of) other objects and extrapolates what you can’t see behind the object in front. When the objects move relative to each other, you perceive motion parallax.

Even people with 3D blindness can perceive depth when moving

In effect, Ultra-D combines a 2D image and a depth map, using the pixels on the screen for one or the other. For example, a 4K/UHD screen has 8 million pixels, half of which are used for the 2D image while the other half are used for the depth map. The end user can control the amount of depth, from none to extreme, but at any depth setting, the image will have no more apparent resolution than the pixels assigned to the 2D image.

At CES 2018, the Stream TV glasses-free 3D demo was presented on a 65″ custom-built flat panel with 16 million pixels in a 4K x 4K array. The 2D image was generated by 8 million pixels, and the depth map used the other 8 million pixels. The prototype was built for demo purposes only; a commercial product will have full 8K/UHD resolution with 32 million pixels. The exact ratio of pixels used for the 2D image and depth map has yet to be finalized, but it will probably be 8 million (4K/UHD) for the 2D image and 24 million for the depth map.

Example of depth map video. As nearer objects are, brighter are in the depth map.

According to Mathu Rajan, CEO of Stream TV, “The human eye can’t tell the difference between 4K and 8K in flat 2D. Without using the third plane, you’re basically throwing away all those pixels. We use those extra pixels for pop and depth to create an immersive experience that brings real value to device makers and their customers.”

Without using the third plane, you’re basically throwing away all those pixels. We use those extra pixels for pop and depth to create an immersive experience that brings real value to device makers and their customers.

The effect was entirely natural with no visible crosstalk. As I moved around the room, I could see subtle wavy distortions, but not when I was sitting in any one location, even if I moved my head. It was very impressive!

Strategy

The Ultra-D’s master mover for this year is an strategic alliance with BOE. BOE is one of the largest flat-panel OEMs (original-equipment manufacturers) that supplies raw panels to many TV companies. In fact, BOE ships 100 million panels per year, and recently opened a new factory to make 8K panels. They create energy efficient devices with high color fidelity, high resolution images and narrow vision angles. They improve screens for mobile, laptops, TV, PC and other devices.

Even better, BOE plans to build Stream TV glasses-free 3D technology into all of its 8K panels, so all brands who use BOE for it’s TVs will be Ultra-D. Cheaper and smaller 4K and FullHD TVs will be available, also.

BOE plans to build Stream TV glasses-free 3D technology into all of its 8K panels

Mathu Rajan said costs for using an Ultra-D panel instead regular ones are below 5%, so he hopes costs will be the same for an Ultra-D TV than an similar 2D TV, even cheap chinese brands. And after also laptops, smartphones, etc. On stores everyone will see depth, and now there’s more 3D content than ever (much more than first owners of 3D TVs). Rajan said this same year a major big brand (unespecified) will have first Ultra-D TVs on stores. PC monitors will be also available (there’s already one for developers). For 2019 Ultra-D will be globally available and maybe to smartphones and tablets (after the Red Hydrogen One expected this summer).

2016 strategy for videogames was to integrate Ultra-D on XBOX One, PlayStation 4 and the Wii U, and to have videogames from 6 of the 8 biggest brands. There was a demo of Republique videogame with Ultra-D developed with Unity, is said there were easy to add Ultra-D depth. Actually there are SDK for After Effects, Nuke, Unreal Engine, DirectX and OpenGL. As these content already have the needed 3D information is said it can take only one day to use Ultra-D format.

With existing 3D content generate the depth data is very easy. For 2D content the system can calculate depth data, but for more depth quality and artistic control SeeCubic offers specialized solutions. Extract depth information from videogames is easy, as graphic processors have a map internally of the scene that can be extracted on real time for Ultra-D. Same with CGI and software like Autodesk 3ds Max. Also there’s already content with depth map (as the dual camera smartphones or WeShare3D which hosts 3D content for the newer 3D formats, not only depth map).

Content producers only need one conversion artist that only need to take some annotations on the 2D footage on some keyframes which be used after to generate Ultra-D information, a cheaper and simpler method than the excellent 3D conversions than today movies (even better than native 3D footage), which needed edit on every frame as StereoD does with every movie. Depth Map formats are increasing on use since a few years, even without using for depth or 3D screens. And barely adds size to the files. And can still be showed on 2D screens. So streaming services does not have to make big investments to adopt Ultra-D format. And for live broadcast there’s the software seeCube Pro to encode depth in real time (and add 3D CGI elements).

We don’t know the last but not less important thing. They shouldn’t advertise as a 3D glasses-free screen. Too much people don’t want to hear anything about 3D. Simply they don’t want to hear any arguments. Maybe will be branded as holographic, maybe 4D or maybe directly as Ultra-D. But we consider that is critical to forget the word 3D and advertise as something totally new if they want to have success and attract people attention (a lot people will not even want to make a look, and if it does it will complain that 3D is dead -for him, at least-). What we know is their master plan to Ultra-D revolutionize image market. Do you want to know more? Wait for the third part of the article in the coming months!

If this is the first revolution don’t miss the second one: Red Hydrogen One, it will revolutionize production of holographic content; added to The Looking Glass, it will bring more creators of holographic content.

Bibliography:

White paper: http://www.ultra-d.com/wp-content/uploads/sites/2/2014/06/Ultra-D-technology-white-paper_07062013.pdf
Stream TV Networks interview on CES 2018: https://www.ivoox.com/ultra-d-tv-from-stream-tv-networks-at-audios-mp3_rf_23118196_1.html
{:}{:es}En nuestro blog nos gusta tener los pies en la tierra y no hablar de tecnologías prometedoras que no se sabe siquiera si llegarán alguna vez al mercado. Una tecnología que aún no ha llegado y de la que te hemos hablado era Ultra-D.

Pero parece que por fin esto va a cambiar puesto que es probable que los primeros televisores Ultra-D lleguen al mercado este mismo año.

8K

Ahora que el 4K ya está por todas partes en Stream TV Network (la empresa que está detrás de la tecnología Ultra-D) no se ha dormido en los laureles y ha pasado al siguiente nivel apostando por paneles 8K. En palabras del consejero delegado de Stream TV Networks Mathu Rajan: “Los televisores 4K y los monitores para PC están obsoletos ahora que los paneles 8K han llegado”.

La solución Ultra-D de Stream TV, ampliamente considerada como la mejor tecnología 3D sin gafas del mundo, emplea ópticas avanzadas y potentes algoritmos de renderizado para crear un ángulo de visión de 140 grados que brinda a todos los presentes en la sala una experiencia 3D nítida, clara, dinámica y ajustable, sin pérdida de brillo, necesidad de gafas ni tener que posicionarse en determinados puntos de la estancia.

La tecnología

El sistema se compone de tres partes básicas: un módulo que convierte cualquier fuente 2D o 3D al formato de Ultra-D en tiempo real, un DSP (procesador digital de señal) integrado en la pantalla que acepta señales Ultra-D nativas y controla los subpíxeles del LCD, y una lámina óptica adherida al panel LCD (la tecnología Ultra-D puede funcionar en LCD, LED, OLED, plasma, etc. y en cualquier tamaño, ya sea un PC, tablet, móvil o televisor de gran tamaño, también habrá televisores 4K y FullHD, el 8K no es obligatorio).

La lámina óptica se compone de distintas capas refractivas y difractivas, que al ser manipuladas por el DSP, proyectan la luz de esos subpíxeles al espacio frente al panel, creando lo que se llama un campo de luz (light field en inglés). Esto genera Estereopsis, que es el proceso por el que vemos la tridimensionalidad del mundo.

Como dicen los documentos técnicos “Subpíxeles parciales y virtuales mergen en el espacio y forman vistas completas y separadas para cada ojo del espectador. Entonces el cerebro las procesa en la misma manera natural a la que lo hace en el mundo real, creando una experiencia 3D natural. Es muy diferente a las pantallas de tecnología 3D con gafas, en las que solo se proyectan dos vistas de una escena. Con Ultra-D las áreas de visión (los campos de luz o light fields) se repiten de forma horizontal (conos de visión) casi contínuo en el que puedes ver distintos ángulos de la imagen a medida que te mueves”

Como en vez de crearse dos vistas fijas se crea un campo de luz, se puede reproducir el paralelaje de movimiento, el cual es el efecto por el que ves distintas partes de la imagen a medida que te mueves para ver otros ángulos. Esto no depende de la estereopsis y se puede usar por aquella gente que no puede apreciar el 3D ni en el cine ni en la realidad (y que depende del movimiento para que su cerebro descifre la espacialidad del mundo real). Ultra-D detecta objetos que parcialmente obstruyen los de detrás y extrapola lo que no puedes ver detrás de ese objeto. Cuando los objetos se mueven uno respecto del otro, percibes paralelaje de movimiento.

Incluso los que no pueden ver el 3D ni en el cine ni en la realidad percibirán profundidad al moverse

En la práctica, Ultra-D combina una imagen 2D y un mapa de profundidad (depth map), usando los píxeles de la pantalla bien para la imagen o bien para el mapa de profundidad. Por ejemplo, una pantalla 4K (que tiene 8 megapíxeles), la mitad se usan para la imagen 2D y la otra mitad para el mapa de profundidad. El usuario puede controlar la cantidad de volumen de la imagen, de ninguno a extremo, pero en cualquier ajuste la imagen no tendrá más resolución aparente que los píxeles asignados a la imagen 2D. La versión comercial como sabemos será 8K, que son 32 millones de píxeles. Aún no se ha decidido cuál será la proporción para la imagen y el mapa de profundidad, pero se habla de 8 millones de píxeles (4K) para la imagen y los otros 24 megapíxeles para el volumen.

Ejemplo de vídeo con mapa de profundidad. Se aprecia que contra más cerca está un objeto más claro se codifica el depth map.

“El ojo humano no puede distinguir entre 4K y 8K en un plano 2D”, añadió el Sr. Rajan (algo que los expertos en el sector también reconocen, al menos si no tienes un gran salón en el que toda la pared sea la pantalla). “Sin usar un tercer plano, básicamente, estás desaprovechando todos esos píxeles. Usamos esos píxeles extra para aportar intensidad y profundidad y así crear una experiencia envolvente que ofrece un auténtico valor a los fabricantes de dispositivos y a sus clientes

Sin usar un tercer plano, básicamente, estás desaprovechando todos esos píxeles. Usamos esos píxeles extra para aportar intensidad y profundidad y así crear una experiencia envolvente que ofrece un auténtico valor a los fabricantes de dispositivos y a sus clientes

El efecto es totalmente natural, sin efecto fantasma visible (el temible ghosting de algunas pantallas 3D cuando hay mucho contraste de iluminación en la imagen 3D). A medida que te mueves por la estancia se pueden ver sutiles distorsiones en forma de onda, pero no cuando te posicionas en un punto cualquiera de la habitación, aunque muevas la cabeza. Muy impresionante.

La estrategia para llevar Ultra-D a las masas

La jugada maestra de este año de Ultra-D ha sido una asociación estratégica con BOE. “Trabajar con los paneles de alta resolución de un socio como BOE nos permite conseguir un impacto significativo en el mercado internacional“. BOE es uno de los mayores OEM (manufacturadores de equipamiento original) de paneles planos mundiales y suministra paneles a muchos fabricantes de televisores. De hecho BOE suministra 100 millones de paneles por año y ha abierto este año una nueva factoría para fabricar paneles 8K. BOE es pionera en innovación y desarrollo de tecnologías TFT-LCD y se dedica a acelerar el progreso de nuevos dispositivos de visualización, como pantallas flexibles y realidad aumentada y virtual. Su objetivo es crear productos ligeros, finos, energéticamente eficientes y respetuosos con el medio ambiente que a la vez cuenten con una alta fidelidad de color, imágenes en alta definición y amplios ángulos de visión. La empresa también mejora constantemente la experiencia visual para teléfonos móviles, tabletas, ordenadores portátiles, monitores, televisores y otros dispositivos.

Aún mejor, BOE piensa incluir la tecnología Ultra-D en todos sus paneles 8K, con lo que todos los fabricantes que montan sus paneles serán Ultra-D de fábrica. Eso significa que si suministra 50 millones de paneles 8K a distintos fabricantes habrá 50 millones de televisores Ultra-D en el mercado (por poner un ejemplo). Pero también habrá paneles 4K y FullHD para televisores más baratos y/o más pequeños.

BOE piensa incluir la tecnología Ultra-D en todos sus paneles 8K

Mathu Rajan asegura que el coste añadido de usar un panel Ultra-D respecto a uno tradicional es inferior al 5%, por lo que se prevee que encontremos Ultra-D en cualquier televisor de cualquier tecnología de pantalla al mismo precio que valían hasta ahora, incluso en los televisores baratos de fabricantes chinos para los que tienen un presupuesto limitado. Y no solo televisores: portátiles, tablets, móviles, etc. Esto unido a que en las tiendas todo el mundo podrá apreciar directamente la profundidad y que nada más tenerla ya podrás aprovechar mucho contenido (ahora hay muchísimo más material que el que se econtraron los compradores de las primeras televisiones 4k o 3d), sino que se puede generar en tiempo real incluso desde fuentes 2D promete asegurar que el formato tenga éxito. Se ha indicado que un fabricante de los más famosos (no especificado) sacará los primeros televisores este mismo año y puede que algun monitor de PC (de hecho ya hay uno disponible para desarrolladores). Se espera que haya televisores Ultra-D de forma masiva por todo el mundo en 2019 y puede que ese año también llegue al resto de pantallas pequeñas como móviles (con permiso del inminente Red Hydrogen One), tablets, PCs todo en uno y portátiles.

 

Los planes de 2016 la compañía pasaban por integrar Ultra-D en XBOX One, PlayStation 4 y la ya olvidada Wii U, además de implantarse en los videojuegos de 6 de las 8 mayores productoras de videojuegos. Más recientemente está la posibilidad de integrar Ultra-D en Unity (una de las plataformas de desarrollo de videojuegos multiplataforma más usada del mundo), y a modo de demostración el videojuego République se adaptó muy fácilmente, según los desarrolladores. Actualmente existen SDK para una variedad de plataformas como After Effects, Nuke, Unreal Engine, DirectX y OpenGL. Como el contenido generado en dichas plataformas ya tiene la información 3D necesaria el proceso es tan sencillo que puede tomar un solo día adaptar un producto para Ultra-D.

No nos olvidamos de la (aparente) falta de contenidos en 3D o con información de profundidad. Conseguir profundidad de una imagen 3D es bastante sencillo. Para los contenidos 2D el sistema hace una conversión en tiempo real, pero también ofrecen a través de su filial SeeCubic conversión previa para obtener mejores resultados o tener más control artístico. Extraer la información de profundidad de videojuegos es mucho más fácil, porque los procesadores gráficos tienen un modelo interno de la escena para mostrarlo en pantalla, la cuál se puede extraer en tiempo real para verla en el formato Ultra-D. Lo mismo pasa con el CGI y programas de autoría como Autodesk 3ds Max. Sin olvidar del creciente contenido con información de profundidad guardada (como muchos móviles con doble cámara o el portal WeShare3D que dispone ya de contenidos con los nuevos formatos de 3D con información de profundidad).

Y para las productoras de contenido solo necesitan un artista de conversión que simplemente ha de hacer ciertas anotaciones en el metraje 2D en fotogramas clave con las que posteriormente herramientas avanzadas generarán la información de profundidad para Ultra-D, un proceso muchísimo más simple y barato que las conversiones 3D del cine actual (las cuales, por otra parte, ya consiguen un 3D mucho mejor que el rodado nativamente con cámaras 3D), las cuales necesitan edición fotograma a fotograma para producir los excelentes resultados que están consiguiendo companías punteras en el sector como StereoD. Tampoco hay que olvidar que el mapa de profundidad de la imagen (el depth map se está extendiendo por todos los ámbitos incluso aunque no se muestre en pantallas 3D) apenas ocupa espacio, por lo que un archivo codificado con Ultra-D apenas ocupará más que la versión en 2D tradicional, y podrá seguir viéndose en 2D para los que no tengan pantalla Ultra-D, así que las plataformas de distribución de contenido casi no han de realizar cambios a la hora de transmitir contenido Ultra-D. Tampoco se han olvidado de las retransmisiones en vivo ofreciendo codificación en tiempo real mediante su software propietario seeCube Pro.

Para terminar hay que tener en cuenta el márketing que se le vaya a dar a esta tecnología, no es ningún secreto que mucha gente no quiere ni oír hablar del 3D. Por mucho que hagan siempre habrá gente que dirá que se marea, que no aporta nada, y muchos más excusas. Es evidente que para que Ultra-D triunfe no se debería vender como pantallas 3D, por mucho que dijeras que no marea, que lo puede ver incluso los que no ven el 3D actual, etcétera tienen interiorizado el rechazo.  Para nosotros el nombre ideal es Holográfico 3D, ya que está a medio camino entre una imagen 3D y un Holograma; puedes ver distintos ángulos de la imagen al moverte como en un holograma, pero la imagen está dentro de la pantalla como si fuera una ventana abierta al mundo y no tiene tantos ángulos de visualización como una pantalla holográfica. Consideramos que es crítico olvidarse del nombre 3D y anunciarlo como algo totalmente nuevo para que el público muestre interés (mucha gente al oír la palabra 3D no querrá ni mirarlas y si lo hacen dirán que el 3D está muerto -al menos para él-). Lo que sí sabemos es su plan maestro para que futuras generaciones de Ultra-D revolucionen -sin exagerar- el mundo de la imagen ¿Quieres saber a qué nos referimos? ¡Pues estate atento a la tercera parte de nuestro artículo! (en unos meses)

Si esta es la primera revolución no te pierdas la segunda: Red Hydrogen One, que revolucionará la producción de contenidos para pantalles holográficas, junto con The Looking Glass, que también traerá creadores de contenidos holográficos.

Bibliografía:

White paper: http://www.ultra-d.com/wp-content/uploads/sites/2/2014/06/Ultra-D-technology-white-paper_07062013.pdf
Entrevista a Stream TV Networks en el CES 2018: https://www.ivoox.com/ultra-d-tv-from-stream-tv-networks-at-audios-mp3_rf_23118196_1.html

 {:}{:ca}Al nostre blog ens agrada tocar de peus a terra amb les noves tecnologies i no parlar sobre tecnologies experimentals si no és segur que arribin al mercat. Una de les tecnologies que encara no ha arribat de les que hem parlat és Ultra-D.

Però sembla que aquest any per fi arribarà al mercat.

8K

Ara que el 4K ja hi és arreu a Stream TV Network (l’empresa darrere Ultra-D) aposta pel futur i la tecnologia 8K. En paraules del conseller delegat de Stream TV Networks Mathu Rajan: “Els televisors 4K i els monitors per a PC són obsolets ara que el 8K ha arribat”.

La solució Ultra-D de Stream TV, fa ús d’óptiques avançades y potents algoritmes de renderitzat per a crear un angle de visió de 140 graus que brinda als presents en la sala una experiència 3D nítida, clara, dinàmica i ajustable, sense pèrdua de brillantor, necesitat d’ulleres ni tindre que posicionar-se a determinats llocs de l’habitació.

La tecnologia

El sistema es composa de tres parts bàsiques: un mòdul que converteix qualsevol font 2D o 3D al format d’Ultra-D en temps real, un DSP (processador digital de senyal) integrat a la pantalla que accepta senyals Ultra-D natives i control·la els subpixels del LCD, i una llàmina òptica adherida al panell LCD (la tecnologia Ultra-D pot funcionar a LCD, LED, OLED, plasma, etc. i a qualsevol mida, ja sigui un PC, tablet, mòbil o tel·levisor de gran mida).

La llàmina òptica es composa de distintes capes refractives i difractives, que al ser manipulades per el DSP, projecten la llum dels subpixels a l’espai enfront el panell, creant el que es diu un camp de llum (light field en anglès). Áixó genera la Estereopsis.

Com diuen els documentos tècnics “Subpixels parcials i virtuals mergen a l’espaï i formen vistes senceres i separades per a cada ull de l’espectador. Llavors el cervell les processa de la misma manera natural a la que ho fa en el món real, originant una experiència 3D natural. Es molt diferent a les pantalles de tecnologia 3D amb ulleres, on només hi han dues vistes d’una escena. Amb Ultra-D les àrees de visió (els camps de llum o light fields) es repeteixen de forma horitzontal (cons de visió) tal i com fan altres tecnologies, però el sistema òptic crea un camp de llum gairebé contínu a la pantalla”

Com tenim un camp de llum i no dues vistes, es pot reproduïr el paralelatge de moviment, amb el qual pots veure diferents parts de la imatge a mida que et mous per veure altres angles. Aixó no depen de la estereopsis i es pot utilitzar per aquella gent que no pot apreciar el 3D ni al cinema ni a la realitat (i que depenen del moviment per a que el seu cervell desxifri la espacialitat del món real). Ultra-D detecta objectes que parcialment bloquejen els de darrere i extrapola el que no pots veure darrere de l’objecte. Quan els objectes es mouen un respecte de l’altre, pots percebre el paralelatge de moviment.

Els que no poden veure el 3D ni al cinema ni al món real veuran profunditat al moure’s

A la pràctica, Ultra-D combina una imatge 2D i un mapa de profunditat (depth map), utilitzant els pixels de la pantalla o bé per a la imatge o bé per al mapa de profunditat. Por ejemplo, una pantalla 4K (que té 8 megapixels), la meitat s’utilitzen per a la imatge 2D i l’altre meitat per al mapa de profunditat. L’usuari pot controlar la quantitat de volum de la imatge, de cap a extrem, en qualsevol cas la imatge no tindrà més resolució que els pixels asignats a la imatge 2D. La versió comercial serà 8K, que són 32 milions de pixels. Encara no es sap la proporció per la imatge i el mapa de profunditat, però es parla de 8 milions (4K) per la imatge i els altres 24 megapixels per al volum.

Exemple de vídeo amb mapa de profunditat. S’aprecia que contra més a prop hi ha un objecte més blanc es codifica el depth map.

“L’ull humà no pot distinguir entre 4K i 8K en un pla 2D”, va afegir el Sr. Rajan. “Sense utilitzar un tercer pla, basicament, desaprofites tots aquests pixels. Utilitzem aquests pixels extra per a aportar intensitat i profunditat i així crear una experiència envolvent que ofereix un autèntic valor als fabricants de dispositius i als seus clients

Sense utilitzar un tercer pla, basicament, desaprofites tots aquests pixels. Utilitzem aquests pixels extra per a aportar intensitat i profunditat i així crear una experiència envolvent que ofereix un autèntic valor als fabricants de dispositius i als seus clients

L’efecte es totalment natural, sense efecte fantasma visible. A mida que et mous per la habitació es poden veure sutils distorsions en forma d’onda, però no quan et posiciones a un punt qualsevol de l’habitació, encara que moguis el cap.

La estrategia per estendre Ultra-D al món

La jugada mestra d’aquest any d’Ultra-D ha sigut una asociació estratègica amb BOE. “Treballar amb els panells d’alta resolució d’un soci com BOE ens permet aconseguir un impacte significatiu al mercat internacional“. BOE es un dels majors OEM (manufacturadors de equipament original) de panells plans mondialment i suministra panells a molts fabricants de televisors. De fet BOE suministra 100 milions de panells per any i ha obert una nova factoria per a fabricar panells 8K. BOE es pionera en innovació i desarrotllament de tecnologies TFT-LCD i es dedica a acel·lerar el progres de nous dispositius de visualització, com a pantalles flexibles i realitat augmentada i virtual. El seu objetiu es crear productes lleugers, fins, energeticament eficients y respetuosos amb el medi ambient que a la vegada tinguin una alta fidelitat de color, imatges en alta definició i amplis angles de visió. La empresa també millora constantement la experiència visual per a telèfons mòbils, tauletes, ordinadors portàtils, monitors, televisors i altres dispositius.

Encara millor, BOE vol incloure la tecnologia Ultra-D en tots els seus panells 8K, amb el que tots els fabricants que muntin els seus panells serán Ultra-D. Si es suministren 50 milions de panells 8K a diferents fabricants hi haurà 50 milions de televisors Ultra-D al mercat (per posar un exemple).

BOE vol incloure la tecnologia Ultra-D a tots els seus panells 8K

Mathu Rajan assegura que el cost afegit d’usar un panell Ultra-D respecte a un tradicional es inferior al 5%, per la qual cosa es probable trobar Ultra-D a qualsevol televisor de qualsevol tecnologia de pantalla al mateix preu que valien fins ara, inclus televisors econòmics de fabricants xinesos. I no només televisors: portàtils, tauletas, mòbils, etc. Han afirmat que un fabricant dels més famosos (no especificat) treurà al mercat els primers models aquest mateix any i pot que també algun monitor de PC (ja hi ha un disponible per a desarrotlladors). S’espera que Ultra-D es vengui de forma masiva per tot el món a 2019 a més de començar la venda de mòbils (amb permis del Red Hydrogen One), tauletes, PCs tot en un i portàtils.

 

Actualment existeixen SDK per una varietat de plataformes com After Effects, Nuke, Unreal Engine, DirectX i OpenGL. Com el contingut generat en aquestes plataformes ja té la informació 3D necessària el procés es tan senzill que pot tomar un sol dia adaptar un producte per a Ultra-D.

Aconseguir profunditat de continguts 3D es sencill. Per als continguts 2D el sistema fa una conversió en temps real, però también ofereixen a través de la seva filial SeeCubic conversió previa per obtenir millors resultats o tindre més control artístic. Extraure la informació de profunditat de videojocs és molt més fàcil, per que els processados gràfics tenen un model intern de l’escena per mostrar-ho a pantalla, per tant es fàcil extreure la informació en temps real per a veure-la al format Ultra-D. El mateix passa amb el CGI i programes com Autodesk 3ds Max. Sense oblidar el creixent contingut amb informació de profunditat incorporada (com molts mòbils amb doble càmera o el portal WeShare3D que disposa ja de continguts amb els nous formats de 3D amb informació de profunditat).

I per a les productores de contingut només necessiten un artista de conversió que simplement ha de fer certes anotacions al metratge 2D a fotogrames clau amb les que posteriorment eines avançades tindran la informació de profunditat per a Ultra-D, un procés moltissim més simple i econòmic que las conversions 3D del cinema actual (que ja acosegueixen un 3D millor que rodat nativament amb càmeres estereoscòpiques), les quals requereixen edició fotograma a fotograma per a produïr els excelents resultats que estan aconseguint companyes com StereoD. Tampoc s’ha d’oblidar que el mapa de profunditat de la imatge (el depth map s’està extenent arreu, encara que no s’utilitzi per a pantalles 3D) no afegeix gairebé mida als arxius, un arxiu Ultra-D ocuparà gairebé el mateix que l’arxiu 2D, les plataformes de distribució de continguts no han de fer gairebé inversions ni adaptacions per oferir contingut Ultra-D. Tampoc s’han oblidat de les retransmisions en viu oferint codificació en temps real amb el seu programari seeCube Pro.

Per terminar s’ha de tenir en compte el màrketing del producte, no es cap secret que molta gent no vol escoltar res sobre 3D. Es evident que per a que Ultra-D triomfi no es deuria vendre com a pantalles 3D. No sabem que nom comercial li posaran als dispositius, si Ultra-D o pantalles hol·logràfiques. El que sí sabem és el pla mestre per a que properes generacions de dispositius Ultra-D revolucionin -sense exagerar- el món de la imatge. Vols saber de qué parlem? Doncs espera a la tercera part d’aquest article!

Si aquesta és la primera revolució no et perdis la segona: Red Hydrogen One, que revolucionarà la producció de continguts per pantalles hologràfiques (juntament amb The Looking Glass, que també portarà continguts hologràfics).

Bibliografia:

White paper: http://www.ultra-d.com/wp-content/uploads/sites/2/2014/06/Ultra-D-technology-white-paper_07062013.pdf
Entrevista a Stream TV Networks al CES 2018: https://www.ivoox.com/ultra-d-tv-from-stream-tv-networks-at-audios-mp3_rf_23118196_1.html

 {:}

[:es]Otra cámara 3D de RV triunfa en Kickstarter[:en]Another “VR” 3D camera surpasses goals on Kickstarter[:ca]Una altra càmera 3D de RV triomfa a Kickstarter[:]

[:es]La cámara SID capaz de capturar imágenes con profundidad ha duplicado los objetivos de financiación. Ofreciendo una experiencia inmersiva. Weeview es la creadora de esta cámara con un tamaño que cabe en cualquier bolsillo.

Este dispositivo es una mezcla entre una cámara 3D y una cámara de Realidad Virtual. Los resultados se aprecian mejor en un casco de RV o Cardboard, pero no puedes girar la cabeza para ver otros ángulos de la escena.

También puedes ver las grabaciones en una pantalla 3D, pero las proporciones del vídeo son cuadradas, hay que decirle a tu pantalla 16:9 que no expanda la imagen para ocupar toda la pantalla, o conecta tu móvil a tu TV 3D y usa Tridef tal y cómo te contamos en este artículo (si tienes un móvil 3D también puedes usar Tridef).

A cambio obtienes unos resultados impresionantes aunque no puedas mover la cabeza para mirar otros ángulos de la grabación, y esto nos brinda otra ventaja: esta es la única cámara de RV en la que puedas ver grabaciones en las que la cámara se mueva constantemente sin mareos. Y aún sigues teniendo la sensación de estar ahí. Podéis ver y descargar una filmación de muestra en nuestro canal de Telegram…

A todo esto le podemos añadir una impactante prestación que puede disfrutar cualquiera aunque no tenga pantalla 3D: Puedes compartir fotos con profundidad como un Wigglegram. Aquí tenéis un ejemplo:

Aún puedes obtener la cámara en Kickstarter, con un 40% de descuento respecto al producto final. Hay disponible un kit especial con estabilizador en el que también se puede colocar el móvil, con un precio más económico que otros estabilizadores (y sin ninguna cámara).

 [:en]A super compact 3D camera capable of capturing shake-free videos has raised double the funding goal to bring it to life.

SID claims to offer an immersive and stereoscopic viewing experience. Weeview has created this device and patented digital video calibration to make the form factor so small that the camera fits in the palm of your hand.

This device is a compromise between a 3D camera and a VR camera. Content is better viewed with a VR headset or Cardboard, but you can’t move your head to view other angles of video.

3D screens are supported but resulting video is square, without 16:9 capabilities you have to tell to your 3D screen to not expand image, or you can use Tridef on your smartphone and stream to your TV as explained on this article (you can also use Tridef on a 3D smartphone).

In exchange of that you obtain impressive results even knowing you can’t look other angles, and this brings us other advantage: this is the only VR camera you can look moving footage without dizziness. And you still feel like being there. You can view and download sample footage on our Telegram Channel…

Added to that there’s a cool feature you can share photos with depth to anyone as a wiggle gram. Here’s one example:

You can still get the camera on Kickstarter, saving you 40% off the RRP. A camera kit is available including a custom designed gimbal to ensure shake-free creation and your phone can also be mounted on it, so you can see what you’re filming, the combined cost is less than most gimbals without any camera included. 

 [:ca]Una càmera compacta 3D amb sistema anti vibració ha duplicat els objectius de financiació.

SID ofereix una experiència immersiva. Weeview es la creadora d’aquest producte que té una mida que cap a qualsevol butxaca.

Aquest dispositiu es un compromís entre una càmera 3D i una càmera de Realitat Virtual. Els resultats es veuen millor a un casc de RV o Cardboard, però no pots girar el cap per veure més angles de la gravació.

Els resultats també es poden veure a pantalles 3D, pero les proporcions del video son quadrades, has de dir-li a la pantalla 16:9 que no expandeixi l’imatge a tota la pantalla, o pots utilitzar Tridef per transmetre a la teva televisió tal i com expliquem a aquest article (si tens un mòbil 3D també pots fer servir Tridef).

A canvi s’aconsegueixen uns resultats impresionants encara que no puguis moure el cap per mirar altres parts de la gravació, i això ens brinda un altre avantatge: aquesta es la única càmera de RV en la que pots veure una gravació en que la càmera es mogui constantment sense marejos. I encara obtens la sensació de la RV de estar dintre de l’escena. Podeu veure i descarregar una filmació de mostra al nostre canal de Telegram…

A tot aixó li podem afegir una prestació que pot veure qualsevol encara que no tingui pantalla 3D: Pots compartir fotografies amb profunditat com a un Wigglegram. Aquí teniu un exemple:

Encara pots obtenir la càmera a Kickstarter, amb un 40% de descompte respecte del producte final. Hi ha disponible un kit especial amb un estabilitzador en el que també es pot posar el mòbil, amb un preu que es més econòmic que altres estabilitzadors (i sense cap càmera).

 [:]

[:es]Otros revolucionarios productos 3D presentados en el CES 2017 por los creadores de Ultra-D[:en]Other amazingly revolutionary 3D products presented on CES 2017 by Ultra-D creators[:ca]Altres revolucionaris productes 3D presentats al CES 2017 per els creadors d’Ultra-D[:]

[:es]Si leíste nuestro artículo sobre la tecnología Ultra-D sabrás que Ultra-D es el futuro de los televisores 3D. Pero eso era solo el principio. Un montón de productos para el consumidor están siendo desarrollados usando tecnología Ultra-D; Actualmente StreamTV Networks está distribuyendo soluciones de cartelería digital en 3D, mientras van mejorando la tecnología para el consumidor esos carteles irán generando asombro alrededor del mundo. Pero nosotros estamos más interesados en productos para consumidores, así que hablemos de ellos.[:en]If you read our article about Ultra-D technology you know that Ultra-D TV is the future of 3D-TV. But that was only the beginning. A lot of consumer products are being developed using Ultra-D technology, actually StreamTV Networks is deploying 3D digital signage solutions, that wow factor will spread everywhere while they improve technology for mass-market. But we are more interested on consumer products, so let’s speak about them.[:ca]Si vas llegir el nostre article sobre la tecnologia Ultra-D sabrà que Ultra-D és el futur dels televisors 3D. Pero només era el principi. Un munt de productes per el consumidor s’estan fent utilitzant tecnologia Ultra-D, actualment StreamTV Networks està distribuïnt solucions de carteleria digital en 3D, mentre van millorant la tecnologia per el consumidor aquests cartells aniran generando admiració al voltant del món. Però nosaltres estem més interessats en productes per a consumidors, així que parlem-hi d’ells.[:]