Saltar enlaces

¿Quién te detectará cuando automatices?

¿Quién te detectará cuando automatices?

Diseñado para humanos en ambientes de alta presión.

Observador, ubicado cerca del levantador en el banco. La señal lucha y espera intervención.

un buen observador Reduzca su miedo al desastre. Están ubicados lo suficientemente cerca de usted como para no interferir con su elevación y usted sabe que están observando para intervenir si es necesario. Esta certeza te hace sentir seguro. Pero ¿qué pasa cuando no confías en tu observador? Te reprimes porque el riesgo parece demasiado alto. No es ningún secreto que los equipos de toda la industria están lidiando hoy con problemas de confianza, gobernanza y automatización transfronteriza.

¿Qué debe suceder cuando la conciencia situacional se transfiere de los humanos a los sistemas?

La automatización no elimina la responsabilidad; lo reposiciona

Los beneficios del uso de la automatización no son sólo operativos; A medida que las organizaciones y los sistemas maduran, remodelan la forma en que los equipos toman decisiones. La automatización identifica y resuelve problemas entre un 30 % y un 40 % más rápido, lo que permite a los ingenieros reasignar responsabilidades con mayor confianza. Un estudio empresarial destaca que la detección de anomalías basada en el aprendizaje automático mejora la precisión del diagnóstico en un 25% (HGBR, octubre de 2025). Este es un salto significativo dados los desafíos del análisis de causa raíz en entornos distribuidos.

Representación de gráfico de barras de HGBR, datos de octubre de 2025 (realizado con Figma). El tiempo medio de reparación (MTTR) se reduce en un 40 % y la precisión de la resolución de problemas aumenta en un 25 %.
Representación del gráfico de barras de los datos de HGBR de octubre de 2025 (creado en Figma)

El miedo es la reacción humana más natural cuando un proceso de implementación se comporta de manera inesperada. Naturalmente surge la pregunta: ¿Se captará la tendencia a tiempo? ¿Funcionará la reversión como se esperaba? Si algo sale mal, ¿a quién se le notificará? Estas preguntas revelan problemas profundos en torno a la rendición de cuentas, la gobernanza y los límites fallidos.

Los ingenieros dependen de modelos mentales para predecir cómo funcionarán los sistemas bajo estrés, pero cuando la automatización interviene demasiado pronto o demasiado tarde, los modelos fallan y la seguridad psicológica se reduce. Es la misma sensación que levantar pesas con un observador que no comprende tus patrones. Es posible que intervengan demasiado tarde, demasiado pronto o en el momento equivocado. En la automatización, surge el mismo dinamismo. Cuando los modelos mentales divergen, los ingenieros utilizan controles manuales, lo que aumenta la carga de trabajo operativa. Este es un error común cuando aún no se ha establecido la transparencia.

Ilustración de pesas circulares apiladas en forma de pirámide.
La pila ponderada (pirámide) de la automatización de la seguridad de abajo hacia arriba: vista previa y visibilidad del impacto, claridad de control y reversión, reglas de gobernanza y uso compartido y, finalmente, automatización.

Las investigaciones sobre la colaboración entre humanos y máquinas muestran consistentemente que cuando los límites del error no están claros, la confianza se rompe. Cuando la automatización supera el contexto humano, o cuando sus condiciones de error son inconsistentes con el modelo mental del equipo, rompe el contrato que hace que la delegación sea confiable, lo que lleva a una mala toma de decisiones (Bansal et al. 2019). El contexto es uno de los componentes más importantes para promover la confianza.

seguridad psicológica La automatización requiere límites. La automatización eficaz comunica lo que puede y no puede hacer a través de una estructura de responsabilidad que refleja cómo opera el equipo en el mundo real. Cuando la automatización se encuentra con una situación desconocida o poco clara, los ingenieros necesitan una aclaración inmediata: ¿A quién se le notificará, qué opciones de reversión existen y cómo podemos escalar este problema? Si la respuesta se integra con las prácticas de gobernanza y los flujos de trabajo de equipo existentes, se puede formar una asociación con la automatización.

Mapa de prioridad de seguridad psicológica 2x2: predecible pero desalineado (arriba a la izquierda), automatización confiable (abajo a la izquierda), área de cobertura manual (arriba a la derecha), alineado pero poco claro (abajo a la derecha)
Los diagramas de prioridades ayudan a resolver responsabilidades poco claras antes de resolver el problema.

En las prácticas maduras de gestión de servicios de TI (ITSM), Puerta de aprobación Actuar como una pausa intencional activada por el riesgo, garantizando la seguridad a través de un juicio que puede alternar entre la toma de decisiones automatizada y la humana. Esta experiencia está diseñada para evitar tener que presionar el botón “sí” o “no” bajo una presión extrema.

La confianza se desarrolla con el tiempo a medida que la automatización se alinea con los patrones organizacionales y de infraestructura y los comportamientos del equipo. Debido a que la automatización demuestra un comportamiento confiable dentro del alcance del aprendizaje, se gana la confianza de los humanos de la misma manera que lo hace la automatización. excelente Los observadores lo hacen, Observando y respondiendo de manera predecible en interacciones repetidas.

Experiencia de usuario consciente del tiempo construyendo relaciones

Una gran automatización no crea obstáculos dentro de su puerta de aprobación de ITSM sin ninguna explicación. La aprobación condicional requiere una experiencia de usuario de conciencia provisional en la que los eventos pasados ​​informan los umbrales, las señales del estado actual generan confianza y los posibles riesgos futuros identifican escaladas.

Hay observadores novatos y buenos observadores, pero un gran observador Conozca su entorno y Anticipa tus patrones a través de la conciencia del tiempo. Han visto suficientes programas para notar tus patrones. Cualquier observador puede observar activamente su barra. tiempo real, Un buen observador notará tu desviación hacia la derecha, verá tu lucha en la tercera repetición y te dará comentarios después de tu serie.

Un pilar de la automatización que a menudo se pasa por alto es el tiempo.

La UX consciente del tiempo es la práctica de crear experiencias que brindan transparencia sobre el estado del sistema en toda la línea de tiempo.

La barra con pesas representa la lucha: la línea de tiempo se muestra de izquierda a derecha: descubrimiento de patrones (tiempo 1), transición de estado (tiempo 3) y contexto histórico y aprendizaje (final de la serie). La nota adhesiva en el extremo derecho tiene la etiqueta
Conciencia del tiempo = confianza ganada con el tiempo

La automatización comparte los mismos principios y requiere visibilidad oportuna en tres dimensiones:

Rastros históricos, políticas organizativas, registros y telemetría (pasado): Al igual que entrenar y brindar retroalimentación después de una serie, los ingenieros necesitan datos para comprender qué sucedió y por qué. Sin esto, la confianza en la automatización se vuelve más difícil de generar y la depuración se convierte en conjeturas.

Estado en vivo y observabilidad (actualmente, “Rep 2”): Como un observador que observa una barra en tiempo real, las herramientas deben observar el comportamiento del sistema a medida que ocurre y estar listas para prevenir o alertar sobre fallas inminentes.

Análisis y pronóstico de tendencias (futuro): La abducción del codo por tercera vez predice problemas por quinta vez, y un sistema con visibilidad superior detecta la deriva y la degradación para evitar el caos antes de que ocurra un accidente.

Las ilustraciones representan puntos pasados, presentes y futuros con grandes observadores.
Visibilidad temporal: observar lo que ha sucedido, lo que está sucediendo y lo que sucederá después.

Al carecer de estos contextos temporales, las puertas de aprobación (por ejemplo) utilizan por defecto reglas inmutables y opciones de decisión binarias; obstaculizar la confianza en lugar de fortalecerla.

Los límites y el tiempo cultivan la confianza

Límites, no puertas, Aumente la eficiencia creando sistemas de apoyo cuando el estrés alcance su punto máximo. El éxito o el fracaso de la adopción de la automatización depende de dos dimensiones:

– Seguridad psicológicarequiriendo límites claros. Como un observador confiable, la automatización debe comunicar lo que hará o no, cuándo intervenir y cómo los equipos pueden escalar si surgen problemas.
conciencia del tiemporequiere visibilidad a través del tiempo. Los ingenieros necesitan comprender qué sucedió (para aprender de los eventos), qué está sucediendo (para aumentar la conciencia) y qué sucederá (para evitar fallas).

Sin estas dimensiones interdependientes, los equipos operan a ciegas, incapaces de confiar en sistemas que no pueden predecir u observar. La automatización de la seguridad requiere un observador con capacidad de memoria, observación y predicción.

Una buena automatización es práctica. La gran automatización está diseñada para emplear estos comportamientos de observador, Capacitar a los humanos para que comprendan la seguridad y el tiempo ayuda a los equipos a superar sus límites sabiendo que sus socios están observando.

Durante los últimos diez años, he estado trabajando para mejorar la experiencia del producto del desarrollador en equipos multidisciplinarios. Durante los últimos más de 5 años, he liderado el diseño de flujos de trabajo de DevOps, la adopción de IaC, la gestión de incidentes y la observabilidad en entornos sociotécnicos.

referirse a:

* Reduzca el tiempo medio de reparación (MTTR) con AIOps: un enfoque avanzado para la gestión de operaciones de TI https://www.researchgate.net/publication/395524114_Retaining_Mean_Time_to_Repair_MTTR_with_AIOps_An_Advanced_Approach_to_IT_Operations_Management (septiembre, agosto de 2025)

** AIOps para la integración empresarial: evalúe la detección de anomalías basada en ML y la corrección automatizada frente a los SLA y los costos. https://hgbr.org/research_articles/aiops-for-enterprise-integration-evaluating-ml-based-anomaly-detection-and-auto-remediation-on-slas-and-cost (octubre de 2025)

Ingeniería de plataformas: de la teoría a la práctica, Liz Fong-Jones y Lesley Cordero (Serie de conferencias GOTO): https://www.youtube.com/watch?v=wVi7pNRT0Xk, irtopía (junio de 2025)

Modelar la confianza y su dinámica basándose en señales fisiológicas y medidas integradas para permitir operaciones de equipos humanos autónomos. https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2025.1624777/full (octubre de 2025)

Superagentes en el lugar de trabajo: ayudando a las personas a desbloquear todo el potencial de la inteligencia artificial https://www.mckinsey.com/capability/tech-and-ai/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-pottial-at-work (enero 2025)

Más allá de la precisión: el papel de los modelos mentales en el desempeño del equipo humano-IA, https://www.researchgate.net/publication/339697298_Beyond_Accuracy_The_Role_of_Mental_Models_in_Human-AI_Team_Performance (octubre 2019)


¿Quién te detectará cuando automatices? Publicado originalmente en Colectivo de experiencia de usuario En Medium, la gente continúa la conversación destacando y respondiendo a esta historia.

Home
Account
Cart
Search
¡Hola! ¡Pregúntame lo que quieras!
Explore
Drag