Matriz de delegación de IA: ¿Qué partes de la interfaz de usuario no deberían existir?
Un modelo de puntuación práctico para decidir cuándo delegar, ayudar o seguir siendo dirigido por humanos.

Este artículo fue publicado originalmente en mi flujo de sintaxis de subpiladonde escribí sobre los principios de la interacción humana con la inteligencia artificial.
Durante años, el diseño de aplicaciones ha perseguido un objetivo simple: reducir la fricción para que los usuarios puedan realizar su trabajo más rápido. Trazamos flujos, eliminamos pasos y optimizamos las interacciones, asumiendo que el usuario seguía siendo el actor principal.
La inteligencia artificial cambia esta suposición.
Hoy nos encontramos en el peligroso “medio caótico”. Estamos creando software que puede actuar, decidir y sintetizar, pero aún lo estamos diseñando para que sea una herramienta simple. Si queremos crear productos que a la gente realmente le guste, tenemos que dejar de “introducir” IA en nuestros flujos de trabajo. Debemos responder a una pregunta básica:
¿Quién está al mando en este momento particular y cuál es la lógica que lo hace así?
Necesitamos un enfoque sistemático que vaya más allá de la “ayuda en todas partes”. Necesitamos saber cuándo dar un paso atrás y dejar que las máquinas tomen el control total del volante, y cuándo proteger a los humanos en su papel de conductores responsables.
Este artículo proporciona un marco práctico para convertir las decisiones de “quién hace qué” en un proceso repetible.
Tres modos de control
Cada misión está asignada a uno de los tres modos. Cada uno define quién actúa, quién decide y qué debe hacer la interfaz.

1) Dirigido por las personas
Los humanos conservan el control total. El papel de la IA es revelar evidencia, resaltar compensaciones y tomar decisiones, pero nunca tomar medidas. Los humanos leen, pesan, seleccionan y ejecutan.
Objetivos de diseño: Mejorar la calidad de las decisiones y la rendición de cuentas proporcionando a las personas pruebas claras, compensaciones y apoyo racional estructurado.
Cuando usarlo: Las decisiones de alto riesgo requieren juicio subjetivo, empatía o matices éticos, o el proceso en sí crea valor.
Patrones comunes de experiencia de usuario
- Paquete de evidencia (hechos relevantes, fuentes, casos anteriores, políticas)
- Marco de compensación (ventajas/desventajas, riesgos, alternativas)
- Plantilla de decisión estructurada (estándar + captura de fundamentos)
- Crítica de “segunda opinión” (refutación, modo de fracaso)
- Líneas claras de responsabilidad (qué constituyen consejos y decisiones)
2) Asistencia
La IA hace el trabajo pesado (generar borradores, ejecutar cálculos, escanear documentos) pero no puede tomar acciones de seguimiento sin la aprobación humana explícita. Revisión, edición y firma humana.
Objetivos de diseño: Maximice la velocidad y la iteración mientras garantiza los compromisos de seguridad con vistas previas, diferencias y aprobación manual clara de los puntos críticos.
Cuando usarlo: Tareas de alta variabilidad con riesgo moderado a alto donde los errores son costosos o difíciles de detectar y la responsabilidad debe recaer en los humanos
Patrones comunes de experiencia de usuario
- Borrador del primer proceso (Generar → Editar → Aprobación)
- Planificar primero y ejecutar después (“Esto es lo que voy a hacer”)
- Revisión basada en diferencias (muestra los cambios, no solo el resultado final)
- Panel de procedencia (entradas, fuentes, restricciones de uso)
- Incertidumbre y explicaciones del “por qué” (cuándo/por qué un sistema es incierto)
- Bucle de corrección estrecho (sección de edición, regeneración local)
- Controles de envío claros (aprobación/visibilidad del alcance de la aplicación)
3) Representante
La inteligencia artificial es dueña de esta tarea. Actúa de forma autónoma dentro de límites definidos. Los seres humanos no sancionan acciones individuales: establecen límites de antemano y revisan los resultados después del hecho.
Objetivos de diseño: Ejecute en piloto automático con barreras de seguridad, minimizando la participación del usuario mientras mantiene la trazabilidad, el monitoreo y la reversión cuando sea necesario.
Cuando usarlo: Tareas predecibles, de gran volumen y bajo riesgo con criterios de éxito claros y errores fácilmente detectables: la revisión manual agrega fricción sin agregar valor (por ejemplo, entrada de datos, filtrado de spam, programación de reuniones).
Patrones comunes de experiencia de usuario
- Restricciones globales (lista de permitidos, presupuesto, alcance, ventana de tiempo)
- Registro de actividades/cronograma (qué sucedió, cuándo sucedió y qué política se siguió)
- Monitoreo de excepciones (alertas solo para condiciones anormales)
- Revertir/deshacer (o compensar acciones) cuando sea posible
- Vistas de auditoría (muestreo, flujo de trabajo de control de calidad, cumplimiento de políticas)
Modelo de puntuación
No basta con conocer estos tres patrones. Necesita un enfoque sistemático para decidir qué modo es adecuado para cada tarea. Estas variables determinan si la máquina debería comportamiento y si es valer La inversión que le permita hacerlo.

Dimensión 1: Idoneidad de la automatización (S_SUIT)
esta medida Riesgo y controlabilidad. Puntajes altos = automatización más segura.
- Reversibilidad: ¿Se puede deshacer esta acción? La alta reversibilidad permite un empoderamiento más profundo.
- Seguridad/Riesgo: ¿Cuál es el “radio de explosión” de una falla? Los riesgos catastróficos requieren barandillas dirigidas por humanos.
- Tipo lógico: ¿La tarea se rige por reglas objetivas (deterministas) o por una “atmósfera” subjetiva (probabilística)?
Dimensión 2: Retorno de la inversión en automatización (S_ROI)
esta medida valor y viabilidad. Puntajes altos = grandes recompensas por la automatización de edificios.
- frecuencia: ¿Es esto algo poco común o un flujo de trabajo continuo y de gran volumen?
- Estado de preparación de datos: ¿La información necesaria es confusa y no estructurada, o se puede acceder a ella a través de una API estructurada?
- Competencia en inteligencia artificial: ¿Las capacidades del modelo actual demuestran resultados experimentales o un dominio consistente de la tarea?
Asignar puntuaciones a modos de control.
Para pasar de puntuaciones brutas a estrategias de productos funcionales, el marco utiliza una matriz de cuatro cuadrantes para determinar la relación óptima entre usuarios y máquinas. dibujando Retorno de la inversión en automatización en el eje X Idoneidad de la automatización En el eje Y, puede clasificar cualquier flujo de trabajo en uno de cuatro grupos estratégicos diferentes.
- Representa (alto retorno de la inversión/alta aplicabilidad): La IA funciona de un extremo a otro dentro de limitaciones, mientras que los humanos desempeñan el papel de auditores. El objetivo es Eliminación de empleo A través de ejecución sigilosa y barandillas de backend.
- Asistencia (alto retorno de la inversión/baja idoneidad): Las tareas de alto apalancamiento son demasiado arriesgadas para una autonomía total. La IA redacta paso a paso, lo que requiere un “apretón de manos humano” con vistas previas y aprobación explícita en las confirmaciones críticas.
- Dirigido por personas (bajo retorno de la inversión/baja aplicabilidad): Tareas subjetivas o de alto riesgo donde el juicio humano es el valor principal. La IA proporcionará la evidencia, pero los humanos siguen firmemente al volante.
- Aplazado (bajo retorno de la inversión/alta aplicabilidad): La automatización es segura, pero el esfuerzo supera las recompensas. Conserve estos manuales o utilice asistentes livianos hasta que la frecuencia de las tareas o el dominio de la IA cambien el retorno de la inversión.

Aquí hay un ejemplo: Coordinación de arreglos de entrevista..
Es frecuente y requiere mucho tiempo (alto retorno de la inversión), se basa en gran medida en reglas, tiene poco riesgo y es fácil de deshacer (alta aplicabilidad). Cuando lo calificamos, cae en el cuadrante superior derecho. representar— Esto significa que el producto debe ejecutarse de un extremo a otro dentro de restricciones, requiriendo la participación humana sólo cuando surjan excepciones.

hoja de trucos
Después de calificar docenas de flujos de trabajo, surgió un patrón claro en la forma en que se agrupaban las tareas:
(dirigido por humanos): Todo lo que involucre ética, compromisos legales, decisiones de personal, dirección estratégica o respuesta a crisis. Estas tareas requieren un juicio que no se puede delegar, no porque la IA sea incompetente, sino porque la responsabilidad debe recaer en los humanos.
(asistir): Generación de contenido, detección de información, clasificación y cualquier tarea en la que la IA pueda producir un primer borrador sólido pero, en última instancia, requiera una revisión humana. Las decisiones de aprobación y revisión de pagos también están aquí: la IA señala y sugiere, los humanos se comprometen.
(representar):Las operaciones de datos dominan este ámbito. Trabajos ETL, clasificación, normalización, filtrado de spam, programación, enrutamiento de notificaciones. Alta capacidad, entrada estructurada, reglas claras, fácil reversión.
Las calificaciones no pretenden ser precisas, sino forzar la conversación. Cuando su equipo debate si una “revisión de contenido” es un 4 o un 6, está teniendo una discusión adecuada sobre qué nivel de supervisión humana realmente requiere la tarea.

Aplicar el marco en 6 pasos
- Enumere los flujos de trabajo principales (10 a 30).
Utilice verbo + objeto: “Programar una entrevista”, “Aprobar una visita”, “Clasificar un ticket”. - Marcar punto de compromiso.
¿Dónde se vuelve real: enviar/publicar/conceder/pagar/escribir/eliminar? - Califique cada flujo de trabajo en dos escalas (1-10).
S_SUIT: Reversibilidad + Riesgo/Radio de explosión + Reglas y juicio
S_ROI: frecuencia + preparación de datos + rendimiento de IA - Trazar en una matriz y especificar la moda.
Dirigido por humanos, asistido, delegado, pospuesto - Diseño por patrón (use patrones probados).
- Controlar la autonomía a través de métricas.
Realice un seguimiento de los errores, reversiones, excepciones, tiempo ahorrado y revise la calidad (evite dar el visto bueno).
La matriz de empoderamiento no indica dónde “agregar IA”. Le indica qué forma de control desea diseñar: piloto automático, copiloto, asistente o asesor.
Cada tarea requiere una respuesta específica a la pregunta: “¿Quién conduce aquí?”
Matriz de delegación de IA: ¿Qué partes de la interfaz de usuario no deberían existir? Publicado originalmente en Colectivo de experiencia de usuario En Medium, la gente continúa la conversación destacando y respondiendo a esta historia.