El toque correcto: mapear la presencia de inteligencia artificial con la intención del usuario
Saber lo que quieren los usuarios es sólo la mitad del problema. La otra mitad es saber cómo responder y cuánto responder.
Este es el tercer artículo de una pequeña serie sobre diseño de productos para sistemas impulsados por inteligencia artificial. este primer artículo explora cómo está evolucionando nuestro papel como diseñadores, y segundo Examina cómo las señales relacionadas con la intención del usuario dan forma a las experiencias impulsadas por la inteligencia artificial. La pregunta se basa en esta base, pasando de comprender la intención a decidir cómo debe responder el sistema a ella.
Si aún no los has leído, no te preocupes. Te llevaré conmigo.

En mi último artículo, hablé de cómo las señales nos ayudan a comprender lo que los usuarios quieren lograr en función de sus trabajos por realizar (JTBD). Incluso a medida que aumentan las capacidades generativas, los usuarios siguen obteniendo los resultados reales que intentan lograr. Obtener las señales correctas no sólo permite al sistema determinar qué producir, sino también cuándo realizar ajustes o retrocesos.
Sin embargo, esta idea tiene ciertos supuestos. Se supone que utilizamos patrones familiares: interfaces estructuradas, puntos de entrada claros, flujos predecibles.
A medida que la inteligencia artificial se integra cada vez más en la experiencia, esta suposición comienza a desmoronarse.
¿Qué sucede entre estos puntos de contacto? Una vez que el sistema comprende las necesidades de alguien, ¿cómo debería responder? ¿Cuándo debería producir algo nuevo, guiar a los usuarios a través de una experiencia estructurada o trabajar silenciosamente en segundo plano?
Sin respuestas claras, es fácil centrarse demasiado en la inteligencia artificial. Todo se vuelve generativo o conversacional, a menudo a expensas de la claridad, el costo y el control. Los sistemas de diseño nativos de IA deben ir más allá de los componentes reutilizables hacia una lógica de decisión reutilizable.
Aquí es donde la conversación pasa de comprender la intención a dar forma a una respuesta.
Clippy no se equivoca. Simplemente no es bueno leyendo una habitación.
La mayoría de nosotros recordamos la caricatura Paperclip de Microsoft, el asistente de escritura bien intencionado que se convirtió en un remate. Aparecerá en medio de una oración y te preguntará si necesitas ayuda para escribir una carta, ya sea que la necesites o no. ¿Te suena familiar?

Ahora, las empresas están reconsiderando la idea con herramientas más sofisticadas. Estas promesas van desde “te ahorrará tiempo” hasta “te reemplazará por completo”, pero esa es una conversación para otro artículo. La mayoría de la gente está de acuerdo en que una IA que funcione mal en el momento equivocado es peor que no tener IA en absoluto.
Entonces, ¿cómo se equilibra un sistema lleno de señales que se corresponden con objetivos reales de los usuarios sin bombardear a las mismas personas a las que intentas ayudar?
Marco de presentación de inteligencia artificial

No existe una única forma de expresar la inteligencia artificial en los productos. Tiene diferentes modos de participación, o diferentes niveles, que determinan el alcance y el momento de la participación del sistema. Este es un marco personal para cada experiencia por parte del usuario. Se basa en el pensamiento de ambas partes. Guía PAIR de Google y Guía de interacción persona-computadora de Microsoftdos marcos más rigurosos disponibles para los profesionales en la actualidad.

Nivel 1: “Tocando el hombro” Un suave empujón. O el usuario se acerca o el sistema nota algo y lo registra. Imagina que alguien te toca el hombro en una tienda y te pregunta si necesitas ayuda, o te acercas para hacer una pregunta rápida. El nivel de interacción es bajo y el nivel de compromiso de ambas partes es bajo.

Nivel 2: “Discusión de ida y vuelta” Aquí es donde se utilizan hoy en día la mayoría de las integraciones de IA, y con razón. Las interacciones son conversacionales; el sistema responde, aclara y, en ocasiones, muestra pequeños fragmentos visuales para respaldar la conversación. Puede considerarlo como trabajar con un vendedor: usted describe su necesidad, él responde y luego trabajan juntos para hacer que algo suceda.

Nivel 3: “Déjame ayudarte” Aquí es donde la conversación genera algo en lo que puedes intervenir. Imagina a un compañero de equipo que no sólo responde, sino que junta algo y te lo entrega. La inteligencia artificial se genera en Canvas, un espacio compartido para una colaboración más profunda. Esto podría ser un flujo de trabajo generado, una experiencia creada para recopilar información específica o algo que no existe en absoluto como una interfaz fija.

Nivel 0: “Toma el control” Este grado está deliberadamente fuera del itinerario estándar. Este no es un punto de partida, sino un límite que controla todo el sistema. La generación innecesaria duplica el contenido existente, aumenta enormemente los costos reales y rompe los modelos mentales de los usuarios sobre dónde están las cosas. Las versiones generadas de páginas existentes no proporcionan a los usuarios ubicaciones de retorno estables, marcadores ni ubicaciones compartidas. como Notas de Gartnerincluso cuando el costo de escalar el razonamiento disminuye, sigue siendo una consideración operativa importante. También hay cosas que la inteligencia artificial no debería producir en absoluto, como la información legal formal que es un ejemplo obvio. El nivel 0 mantiene el sistema honesto.
El hecho de que la IA sea nativa no significa que todo se vuelva generativo. Esto significa que el sistema sabe cuándo algo es útil, cuándo la conversación es suficiente, cuándo es apropiado presionar y cuándo la interfaz de usuario existente debe tomar el control.
Estos niveles no son islas; Los usuarios se mueven naturalmente entre ellos dentro de una única experiencia. Un ejemplo sencillo:
Los usuarios navegan por paneles complejos y no encuentran lo que necesitan. El sistema nota este patrón y muestra el mensaje de sugerencia, toque el hombro (L1). Cuando el usuario haga clic en él, se abrirá un panel de diálogo. Describen lo que buscan y el sistema hace una pregunta aclaratoria (L2). A partir de este intercambio, el sistema genera un resumen que reúne información relevante de todo el producto y no existe como una pantalla fija (L3). El usuario encuentra el recurso vinculado en el fragmento, hace clic en él y llega directamente a la página existente en lugar de a la versión generada (L0). El sistema ahorra costes. Los usuarios llegan a donde necesitan ir.
Este es un proceso. Los niveles varían según las necesidades del usuario, no las capacidades del sistema.
Responder con intención
A medida que se desarrolle la inteligencia artificial, las empresas encontrarán más formas de ofrecer experiencias personalizadas basadas en lo que saben sobre sus usuarios. Datos de perfil, clics específicos y señales de comportamiento agregadas. El listón sigue subiendo. No basta con tener el modelo de interacción adecuado. Los usuarios esperarán que estos patrones aparezcan de una manera que les parezca oportuna, apropiada y valiosa.
Esta es una pregunta más difícil de lo que parece. Cuando un modelo de lenguaje responde a un usuario, funciona en base a probabilidades; inferir significado a partir de los datos de entrenamiento y sus señales precedentes. Nuestros trabajos como diseñadores son similares. Leemos las señales y tomamos decisiones informadas en función de las necesidades del usuario. La pregunta es qué tan seguros estamos de estas apuestas y qué debemos hacer cuando no tenemos confianza.
donde esta esto trabajo por hacer Sea un ancla útil. Incluso cuando las señales se multiplican y las capacidades se expanden, los usuarios siguen obteniendo los resultados reales que intentan lograr. La confianza en estos objetivos subyacentes, no sólo en el comportamiento superficial, permite a los sistemas evitar perseguir el ruido.
Los usuarios expresan sus necesidades de dos maneras: explícitamente, a través de acciones directas, como hacer clic en botones y mensajes de escritura, e implícitamente, a través de patrones de comportamiento, como errores repetidos o saltos entre páginas. Cuanto más clara sea la señal, más confianza tendrá el sistema en poder actuar. Asigne esta confianza a un continuo y obtendrá un marco práctico para gestionar las respuestas de la IA.

Alta confianza: acción directa Sabes lo que necesitan los usuarios. Hicieron clic en una acción específica, hicieron una solicitud explícita o provocaron el mismo error repetidamente. Éste es el momento preciso: una respuesta directa, una respuesta concreta, una acción clara. Sin preguntas aclaratorias, sin rodeos. Sólo ayuda.
Confianza moderada: aclarar o mejorar Sabe mucho, pero no lo suficiente como para actuar sin riesgo de cometer un error. El usuario inició una conversación, pero la consulta es amplia o buscó algo con múltiples respuestas razonables. Aclarar preguntas o producir un borrador con margen de mejora es lo correcto: mantiene el impulso sin comprometerse demasiado.
Confianza baja: pregunte antes de generar La señal es débil. Tiene una idea general de lo que los usuarios podrían querer, pero no lo suficiente como para gastar recursos en producir algo que rechazarán. Este es un momento para preguntas, no para suposiciones. Una buena pregunta es más barata para el sistema y la paciencia del usuario que una respuesta incorrecta.
Confianza muy baja: empuje suavemente Se lee comportamiento, no intención. un usuario saltador entre páginasdesplazándose hacia arriba y hacia abajo sin hacer clic, pasando una cantidad inusual de tiempo en una sola pantalla; Estas son señales implícitas de que algo no está funcionando. La respuesta correcta es no producir nada. Se trata de hacer visible la ayuda y permitir que los usuarios decidan si piden ayuda.
Nota: A medida que disminuye la confianza, el objetivo de cada interacción es restaurar el continuo de la manera más efectiva posible. Cuando compiten múltiples señales; por ejemplo, un usuario utiliza pogo-sticking y provoca errores repetidos, entonces se necesitan reglas de desempate. La inmediatez es una buena opción: abordar primero las fricciones más dañinas. La cuestión no es responder a todas las señales. Se trata de responder a la persona adecuada.
Trabajar en equipos
Hace unos años, la adopción de sistemas de diseño era una batalla en sí misma. He asistido a suficientes reuniones donde el lema tácito era “separar componentes y morir”, pero el problema es siempre el mismo: sin reglas compartidas, no solo componentes compartidos, es difícil mantener la coherencia entre diseñadores, proyectos y equipos.
La inteligencia artificial hace que esto sea más difícil y, al mismo tiempo, más importante. Es necesario mover el marco aquí. Esto significa separar dos cosas: la lógica central, la jerarquía, el continuo de confianza y el mapeo de componentes de la capa específica del proyecto, que es donde residen el JTBD real, las definiciones de señales y los umbrales de confianza. El núcleo se mantiene estable. La adaptación se realiza a nivel de proyecto. Pensamientos sobre Figma Sistema de diseño semántico. Apunta en una dirección similar; Los componentes necesitan significado y reglas, no sólo imágenes, para funcionar en un mundo generado.
He estado basándose en esto en la práctica y he creado un proyecto de GitHub que intenta hacer que esta separación sea concreta y al mismo tiempo contenga estructuras paradigmáticas que su equipo pueda aprovechar.
Explora el marco en GitHub
Este repositorio separa la lógica del marco central y el mapeo de componentes de proyectos de ejemplo que muestran cómo las señales, los umbrales de confianza y las reglas de interacción se combinan para casos de uso específicos. Su objetivo es ser un punto de partida que usted pueda desglosar, modificar y desarrollar en su propio trabajo. Si está experimentando cómo puede funcionar la IA en su producto, me encantaría ver cómo la aplica. Véalo en GitHub →
En la próxima publicación, presentaré un proyecto hipotético que une estos hilos; mapeo de señales, umbrales de confianza y marcos de presencia que funcionan como un sistema. Menos teoría y más exhibición de tu trabajo.
La decisión de diseño más importante en un producto de IA no es qué modelo utilizar o cómo activarlo. Sabe cuándo el sistema debería retroceder. Hacer esto de manera consistente en todos los equipos y casos de uso es uno de los factores que diferenciará la IA que se ha ganado la confianza de la IA que recién está surgiendo. Esto es trabajo. Ésta también es nuestra responsabilidad.
El toque correcto: mapear la presencia de inteligencia artificial con la intención del usuario Publicado originalmente en colectivo de experiencia de usuario En Medium, la gente continúa la conversación destacando y respondiendo a esta historia.