Saltar enlaces

Codificación de atmósfera AR/VR: uso de IA para construir prototipos de realidad inmersiva

La codificación Vibe es la palabra de moda del momento, y las herramientas de inteligencia artificial están brindando a los diseñadores de productos nuevos y enormes superpoderes, y con razón. Nos convierten a todos en “hacedores”. En este artículo, te mostraré cómo codificar dos proyectos diferentes usando Vivi: una aplicación de cocina con interfaz de usuario flotante y un juego de baloncesto XR.

Una fotografía de calle con una capucha 3D en el medio. Pon ambos brazos frente a ti como si estuvieras lanzando una pelota.

Si bien Figma proporciona a los diseñadores una codificación atmosférica, este enfoque va mucho más allá de una sola herramienta. Hay un montón de herramientas increíbles que sirven para diferentes propósitos: herramientas centradas en el diseño, p. costura; Motor prototipo, p.e. Wersel, lindo, Estudio de inteligencia artificial de Googleasí como entornos listos para producción, como antigravedad o cursor. Vale la pena mencionar que incluso aquellos que clasifico como prototipos pueden enviar su código a GitHub, lo cual es un nuevo paso hacia el código listo para producción.

Después de pasar algún tiempo “codificando vibraciones” prototipos de aplicaciones web y móviles, me di cuenta de que estas herramientas también deberían poder manejar lienzos XR 3D. Esto generó un pensamiento… ¿podrían crear también un prototipo de una experiencia XR?

Definitivamente la tecnología está ahí. WebXR Es una API estándar para experiencias inmersivas en red y marcos similares. marco en A Proporciona componentes XR listos para usar que cubren entrada, primitivas, teletransportación, gestos, etc. Dado que las herramientas de codificación de IA ya pueden interactuar con bibliotecas externas, me di cuenta de que solo necesito proporcionar la intención y guiar a la IA para lograr los resultados espaciales que deseo.

Entonces, eso es exactamente lo que hice. Funcionó. De repente, podía decirle a la IA lo que quería y crearía un lienzo 3D con una cámara de seguimiento de cabeza, controladores manuales e interacciones funcionales. ¡Este es el comienzo de la codificación de vibraciones espaciales!

Mi método de codificación de la atmósfera espacial.

En la práctica, la codificación por vibración para experiencias inmersivas es similar a la codificación por vibración para dispositivos móviles o de escritorio, pero con una dimensión adicional.

Si bien no es necesario ser desarrollador para crear un prototipo de una función, cuanto más sepa sobre la pila de tecnología, más control tendrá. La codificación de atmósfera pura, que se centra únicamente en la intención sin considerar el “cómo”, es efectiva y, a menudo, es la mejor manera de evitar sesgos en la IA. Si le da libertad a un agente, normalmente encontrará el camino más eficiente. En cambio, si intentas microgestionarlo, terminarás con “dos cerebros” trabajando uno contra el otro en la misma tarea.

Sin embargo, comprender estas herramientas le permite hablar el mismo idioma que la IA, lo que mejora la velocidad y la precisión. Por ejemplo, un marco en A tiene un marco llamado Control de seguimiento manual. Si le dice a la IA que use este componente específico, generará una solución estandarizada y lista para usar que crea menos problemas que una solución personalizada.

¿Mi recomendación? Concéntrese en la intención, pero establezca “reglas” basadas en los componentes que sabe que funcionan mejor.

Estrategias motivacionales: libertad y prejuicio

Cuando se trata de proyectos técnicamente complejos, prefiero dejar que el agente principal de IA encuentre la solución en lugar de preguntar. segundo Inteligencia Artificial para refinar o “diseñar” mis indicaciones.

En mi experiencia, cuando otra IA toma mi consejo aproximado y lo “pule”, introduce sesgos. A menudo lleva al agente codificador resultante en direcciones que naturalmente no tomaría, lo que conduce a peores resultados. Obtengo mejores resultados cuando le digo a la IA que mejore las indicaciones sin dar comandos cómo para solucionarlo, o simplemente siga mis consejos originales basados ​​en la intención.

Mensajes “basados ​​en la intención” (exitosos en este caso)

Captura de pantalla del entorno Figma Make y vista previa del panel UI
Entorno de producción de Figma.

Este es el mensaje original que creé. se centra en Quéen lugar de detalles cómo:

“Quiero que crees una aplicación de cocina MR. La aplicación debe proporcionar una experiencia de paso con un panel de interfaz de usuario representado dentro de ella. Cuando se publica la aplicación y se abre la URL en un visor de realidad virtual como Meta Quest 2 o 3, el usuario debe ver un botón estándar “Abrir en realidad virtual” en el navegador. Después de hacer clic en él, el usuario puede ingresar a la experiencia.

Utilice WebXR y A-framework. Me referiré frecuentemente a los componentes y primitivas de A-Frame, así que asegúrese de utilizar primitivas A-Frame nativas siempre que sea posible.

Asegúrese de que la interfaz de usuario se represente dentro de la experiencia de MR. Coloque el panel de la interfaz de usuario a la izquierda del usuario e inclínelo ligeramente hacia la cámara del usuario. Ahora, incluya elementos de marcador de posición en el panel: un título, una imagen y algo de texto.

El sistema de entrada debe ser seguimiento manual, utilizando el componente A-Frame raycaster. Prepare una estructura para agrupar todos los elementos de la interfaz de usuario, ya que la aplicación contendrá múltiples pantallas y navegación. Cree una interfaz de usuario utilizando primitivas A-Frame. “

resultado: Obtuve un lienzo 3D funcional, un sistema de entrada, un acceso directo y una interfaz de usuario. Aún no es perfecto, pero es una base sólida para la iteración.

Mensaje “sobrediseñado” (falló en este caso)

Luego intenté utilizar inteligencia artificial para “especializar” las indicaciones. Esta versión es demasiado estándar:

“Cree un prototipo WebXR funcional para una aplicación de cocina de realidad mixta (MR) utilizando el marco A-Frame.

1. Configuración de escena y entorno:
Inicializado para la configuración de paso AR/MR . Asegúrese de que el fondo sea transparente ( eliminado o transparente) para que los usuarios puedan ver el mundo real. Asegúrese de que el botón WebXR esté habilitado de forma predeterminada para que los usuarios puedan hacer clic en “Ingresar VR/AR” en el navegador Meta Quest 2/3.

2. Cámara y entrada:
Coloque el equipo de la cámara en la posición 0 1.6 0. Implemente controles de seguimiento manual. Utilice el componente de controles de seguimiento de manos para agregar manos izquierda y derecha componentes. Adjunte un lanzador de rayos a la mano (configurado para interactuar con objetos de la interfaz de usuario) para que el usuario pueda señalar y pellizcar/seleccionar elementos.

3. Arquitectura de la interfaz de usuario:
crear un padre Actúa como un “contenedor de pantalla” para agrupar todos los elementos de la interfaz de usuario. Esto permitirá cambiar fácilmente la visibilidad para una navegación futura. Ubicación: coloque este grupo de interfaz de usuario a la izquierda del usuario (aproximadamente x: -1, z: -1,5) y gírelo en el eje Y (aproximadamente rotación=”0 45 0") para que se incline hacia la cámara del usuario.

4. Diseño de interfaz de usuario (primitivo de marco A):
Dentro del grupo UI, use Construya un panel como fondo (oscuro, ligeramente opaco). Agregar para la imagen del título de la receta Marcador de posición. añadir Sirve como marcador de posición para el título de la receta y la descripción. Asegúrese de que todos los elementos de la interfaz de usuario sean hijos del grupo principal y se representen correctamente en la vista MR. “

resultado: Este consejo lleva demasiado lejos al agente de IA. Terminó siguiendo estrictamente las instrucciones en lugar de encontrar una solución coherente, lo que resultó en un código roto. Es como microgestionar a un diseñador gráfico: si le dices exactamente dónde colocar cada píxel, no obtendrás su mejor trabajo.

diseño iterativo

Una vez establecidos los conceptos básicos, decidí aumentar la fidelidad. Noté algunos errores durante la sesión informativa inicial, específicamente al intentar crear interfaces de usuario complejas utilizando primitivas. Me di cuenta de que es mejor diseñar una interfaz de usuario de alta fidelidad en Figma, exportarla como PNG y luego importarla a la experiencia. Si bien una herramienta como Figma Make es un poco más difícil con sistemas de entrada de apuntar y hacer clic, es suficiente para visualizar cómo se verá una versión de producción.

Paneles UI flotando en una cocina real
Prueba en XR
Interfaz de usuario de alta fidelidad para aplicaciones de cocina
UI de la aplicación de cocina en Figma

Un paso más allá: interacciones complejas con Gemini 3 Pro

GIF animado de un jugador lanzando el balón a la canasta
Prueba tu juego en realidad virtual

Para ir más allá del panel de la interfaz de usuario, elegí Gemini Pro en Google AI Studio.

Esto muestra que una sesión de 15 minutos puede producir un prototipo WebXR completamente funcional con física, mecánica de agarre y lógica de juego. La física resultante es impresionante y se siente muy fluida y realista.

GIF animado de un jugador lanzando el balón a la canasta en realidad mixta en una calle real
Prueba tu juego en XR

Si bien este método requiere implementación a través de Cloud Run (en lugar de un simple botón Publicar), la configuración solo lleva dos minutos. El resultado es un prototipo que se puede utilizar en realidad virtual y realidad aumentada, creando transiciones perfectas entre mundos. A partir de este punto, añadir contadores, efectos de sonido o texturas es sólo una cuestión de conversación.

Captura de pantalla del entorno de Google AI Studio, que muestra la página de inicio del juego en vista previa
Entorno de Google AI Studio
Entorno Google AI Studio con vista previa del juego en vivo
Vista previa del juego en Google AI Studio

✨ ¡Agrega magia de nano-plátano! Al actualizar a imágenes de alta fidelidad, podemos ofrecer comunicaciones más persuasivas e impactantes.

Gráficos de juego visualmente mejorados de Nano Banana Pro
Mejora las imágenes con Nano Banana Pro

Estos son experimentos iniciales, pero demuestran cuán accesible se ha vuelto la codificación de la atmósfera espacial. Estoy ansioso por probar este enfoque utilizando herramientas más poderosas como Antigravity, que combinadas con el último Blender o Unity MCP (Model Context Protocol) abrirán la puerta al código listo para producción (no solo prototipos).

La ganancia más importante No tan lejos herramienta Puedes caminar, pero ¿hasta dónde puedes llegar? I puedes ir Como no desarrollador. Ahora puedo concebir, diseñar y crear prototipos de juegos o aplicaciones XR por mi cuenta. Las barreras para crear realidades inmersivas nunca han sido tan bajas.

Gracias por leer y no dudes en dejar un comentario o iniciar una discusión. ¡Me encantaría saber de ti!


Codificación de atmósfera AR/VR: uso de IA para construir prototipos de realidad inmersiva Publicado originalmente en Colectivo de experiencia de usuario En Medium, la gente continúa la conversación destacando y respondiendo a esta historia.

Home
Account
Cart
Search
¡Hola! ¡Pregúntame lo que quieras!
Explore
Drag