Apple lanza un impresionante modelo que transforma fotos normales en entornos 3D inmersivos
¡Apple explora la reconstrucción visual asistida por IA para transformar imágenes bidimensionales a tridimensionales!
Las fotografías bidimensionales no volverán a ser lo mismo. Apple ha presentado SHARP (Sharp Monocular View Synthesis), un modelo de inteligencia artificial capaz de reconstruir una escena 3D fotorrealista a partir de una única imagen 2D en menos de un segundo. Esta tecnología busca transformar la forma en que interactuamos con nuestras bibliotecas de fotos, permitiéndonos ver dentro de una imagen con una profundidad y escala sorprendentes.
El núcleo tecnológico de SHARP se basa en una técnica conocida como 3D Gaussian Splatting (salpicadura gaussiana 3D). Se trata de una pequeña mancha difusa de luz y color situada en un punto específico del espacio. Al combinar millones de estas manchas, el sistema logra recrear una escena que se siente sólida y fiel a la realidad desde el punto de vista original.
SHARP: Apple aprovecha la IA para generar imágenes increíbles
Lo que hace que SHARP sea verdaderamente disruptivo es su eficiencia. Mientras que otros métodos necesitan un procesamiento intensivo y múltiples capturas para calcular la geometría de una habitación o un paisaje, el modelo de Apple lo logra mediante un único paso de avance a través de una red neuronal.
Según el estudio publicado por los investigadores de Apple, titulado Sharp Monocular View Synthesis in Less Than a Second, el modelo establece un nuevo estándar de rendimiento en la industria, ya que brinda velocidad extrema, escala consistente con el mundo real y calidad visual.
Para alcanzar este nivel de precisión, Apple entrenó al modelo con ingentes cantidades de datos sintéticos y reales. Esto permite que la IA "entienda" patrones comunes de profundidad. De este modo, sabe cómo se comporta la perspectiva de una mesa o la distancia de una pared, permitiéndole predecir la posición de millones de gaussianas 3D de forma casi instantánea.
A pesar de su potencia, SHARP está diseñado para renderizar vistas cercanas. Esto significa que, aunque puedes mover ligeramente la cámara para ver "detrás" de los objetos cercanos o cambiar la perspectiva del suelo, no puedes alejarte demasiado ni girar completamente. El sistema no inventa las partes de la escena que están totalmente ocultas tras un objeto, lo que garantiza que el resultado final sea siempre creíble y no una alucinación visual.
A diferencia de Apple Intelligence y otros modelos de IA, el código de SHARP ha sido publicado en GitHub, permitiendo que desarrolladores y entusiastas de todo el mundo comiencen a experimentar con sus propias fotografías, compartiendo resultados que hasta hace meses parecían imposibles de lograr sin equipos de escaneo profesional. Algunos de los primeros en probarlo han compartido los resultados en redes sociales, como vemos a continuación:
https://x.com/AIRevSpot/status/2001310621275705458 https://x.com/timd_ca/status/2000760184226943167
https://x.com/gerogerber/status/2000913723863535671 https://x.com/AKurian001/status/2000811593379275147 https://x.com/VisualitoXr/status/2001382288995815588
Esta tecnología no es solo un "experimento visual" curioso, sino que representa un cambio radical en cómo consumimos y creamos contenido digital. La utilidad de SHARP se extiende a varios campos que afectan tanto a usuarios comunes como a industrias profesionales. Aunque todavía existen retos con la oclusión de objetos, la capacidad de generar entornos 3D métricos en menos de un segundo posiciona a esta herramienta como el nuevo referente en la reconstrucción visual asistida por IA.
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.