Priorizar la inteligencia sobre la inspiración para aumentar la confianza en la IA
Resumen:
La gente confía más en la IA cuando se ven más inteligentes que valiosas. El sentimiento de inteligencia artificial puede reducir la confianza en hechos, tareas y reducir la confiabilidad de la IA.
Preocupación general de nuestros participantes Diseñar una experiencia de IA Por supuesto, cómo ayudar a los usuarios a desarrollar la confianza en la inteligencia artificial (IA). Una técnica que los diseñadores a menudo quieren usar es Antropomorfismo. La razón es que los usuarios ven a la IA como entidades conscientes y humanas, más probabilidades tienen de confiar en ella.
¿Pero es el antropomorfismo una estrategia efectiva? Un estudio reciente proporciona datos interesantes sobre cómo nuestra creencia en la IA «piensa» predice nuestra voluntad de confiar y confiar en sus sugerencias.
Sobre la investigación
Los investigadores psicológicos Clara Colombatto, Jonathan Birch y Stephen Fleming esperan revelar el amplio concepto de antropomorfismo y explorar su impacto en la confianza. Reclutaron a 410 participantes estadounidenses para un experimento En el tema Formato.
Parte A: Vistas preconcebidas sobre AI (datos autoinformados)
Creencia de los investigadores en sus habilidades psicológicas en ChatGPT. Específicamente, los investigadores preguntaron sobre:
- ¿Qué tan inteligente es ChatGPT? ¿Puedes planificar, ser racional, decidir o recordar?
- ¿Chatgpt experimentará emociones? ¿Tiene la capacidad de sentir, sentir o conciencia?
Parte B: toma de decisiones de información de IA (datos de comportamiento)
Además de estas preguntas perceptivas, los investigadores también realizaron una prueba simple de participantes, con 40 preguntas de conocimiento general sobre la estimación de la población nacional, como: «¿Hay más personas en Colombia o Alemania?»
Luego, a los participantes se les proporcionó información que representaba la «selección de chatgpt» en el cuestionario y tuvieron la oportunidad de cambiar la respuesta. Investigadores Mida con qué frecuencia las personas «aceptan el consejo de Chatgpt» (es decir, sus respuestas se cambiaron de acuerdo con la elección de la IA). A los participantes no se les dijo si sus respuestas de cuestionario eran correctas, pero el 10% del tiempo, se les pidió que recordaran las recomendaciones de ChatGPT para preguntas previas de cuestionario, como medida de control de calidad, y si no respondieron el 70% de estas preguntas de retiro correctamente, los datos de los participantes estaban excluidos.
Los participantes no saben La selección de ChatGPT no se genera en realidad. Fue escrito por investigadores. (Este script es para control Variables mixtas La precisión de las respuestas de Changpt en tiempo real es impredecible y garantiza que cualquier diferencia en la confianza se deba a la creencia de los participantes en ChatGPT, no a la calidad de una respuesta particular.
Calificaciones finales de confianza y uso (datos autoinformados)
Al final del experimento, los participantes informaron su confianza en esta tarea de estimación de la población y su confianza general en ella. También informaron la frecuencia de uso de asistentes digitales (Alexa, Siri), aplicaciones de compañía de IA (rol ai, replika) y chatbots de IA de uso general (Chatgpt, Gemini, Claude).
Smarts genera confianza, simula las emociones erosionados
El análisis de regresión de los datos revela dos hallazgos clave sobre la creencia de las personas en la IA y su disposición a aceptar sugerencias.
- Calificación final de confianza relacionada con las recomendaciones (r = 0.58, p <0.001), lo que significa que los participantes que informan que confiar en ChatGPT tienen más probabilidades de cambiar la respuesta para que coincida con la respuesta de la IA. Las percepciones sobre la inteligencia se correlacionaron positivamente con el consejo de aceptar chatgpt (b = 0.31, p <.001). A medida que aumentaron significativamente las percepciones de los participantes sobre la inteligencia de Chatgpt, su disposición a aceptar sus sugerencias aumentó significativamente.
- Las percepciones de la emoción se correlacionan negativamente con la recomendación de aceptar chatgpt (b = –1.04, p = .042). A medida que aumentaron las percepciones de los participantes sobre las habilidades emocionales de la IA, su disposición a aceptar sus sugerencias disminuyó ligeramente.
Los investigadores especulan que cuando las personas asocian características como la memoria y el razonamiento con ellos, pueden estar más dispuestos a creer las recomendaciones objetivas de la IA, lo que lo veía como más confiable. Por el contrario, los usuarios pueden confiar menos en la IA cuando creen que la IA tiene más rasgos emocionales y, por lo tanto, más inestables, subjetivos o menos analíticos.
Lo más importante: la confianza es crucial cuando se trata de consejos de IA. Si los usuarios piensan que la IA es inteligente en lugar de emocional, es más probable que sigan el consejo de la IA. Entonces, si desea generar confianza, debe trabajar para crear una impresión de su inteligencia (proporcionando respuestas precisas y relevantes) en lugar de solo crear fantasías emocionalmente relacionadas.
Investigación emergente sobre el significado de la IA emocional
Más investigaciones emergentes muestran que en la confianza del usuario y otras situaciones, poner las emociones de IA en riesgos graves.
El entrenamiento de la calidez y la empatía hacen que la IA sea menos confiable
En Colombatto et al. El estudio, el guión recomendado de ChatGPT es aproximadamente un 62% preciso para simular el rendimiento humano promedio. Pero, ¿qué pasa si la personalidad de la IA en sí afecta su confiabilidad?
Un reciente estudio de preimpresión de Lujain Ibrahim, Franziska Sofia Hafner y Luc Rocher descubrieron completamente esto. Los investigadores capacitaron a varios LLM para producir reacciones más cálidas y más simpáticas, lo que muestra que lo importante compensación. Las respuestas a estos modelos «cálidos» son mucho menos confiables y 10% -30% Aumento en la tasa de error En comparación con el original. Si bien la elfunción de finos es más profundo en su nivel de personalización de modelo que el que emprenden la mayoría de los equipos de productos, los investigadores también probaron el comportamiento de ajustar las LLM a través de las indicaciones del sistema, un enfoque de personalización más probable. Los resultados son similares: Indicando que el calentamiento del modelo base también produjo una reducción de fiabilidad del 12% al 14%.
Es más probable que estos modelos cálidos promuevan teorías de conspiración, proporcionen datos falsos y brinden asesoramiento médico problemático. Hacer que la inteligencia artificial sea más preocupada y competenteTela de lana
AI no es confiable en situaciones sensibles
El estudio de Colombatto reconoce que explora la confianza en tareas fácticas de baja parte, lo que resulta en diferentes resultados en entornos emocionalmente sensibles, como la compañía o la salud mental. Pero algunas investigaciones muestran que también es imprudente. Las preimpresiones de Jared Moore, Declan Grabb y sus colegas investigan situaciones de alto riesgo en el uso de LLM como un proveedor alternativo de salud mental. Descubrieron que los LLM tienden a Pasta La grave crisis de salud mental que los llevó a alentar el pensamiento delirante y desafortunadamente.
La investigación de Ibrahim encuentra Es más probable que el modelo cálido y comprensivo sea una celda pegajosa, Esta es exactamente la calidad que los hace desconfiar y potencialmente dañinos para sus necesidades de salud mental. Incluso cuando parece beneficioso, la comprensión y la IA emocional no funcionan bien.
La competencia no significa impersonal
Las ideas de este estudio pueden plantear algunos malentendidos sobre la IA antropomórfica, que vale la pena aclarar:
- ¿No debería AI discutir las emociones? No, puede reconocer los sentimientos del usuario (si el usuario los comparte, como un cliente decepcionado equivocado) o discutir las emociones como conceptos. La IA nunca debe afirmar que experimente estas emociones y siempre debe reconocer las limitaciones para los usuarios.
- ¿Debería AI nunca usar pronombres o tener identidad? Por supuesto, puede tener identidad o usar pronombres como «i» o pronombres como todos los adjetivos posesivos o algo así como porque El sistema AI existe, y las personas deben referirse a él a través de algunos descriptores de mano corta. Esta es solo una entidad que no es consciente ni humana. Fuerza la redacción alternativa para desarrollarla aún más, lo que resulta en una comunicación gramatical y no intuitiva.
- ¿Debería AI comunicarse con los robots? No, no tiene que comunicarse con una voz y tono fríos y hostiles. Las instrucciones del sistema pueden ajustar la selección de palabras y la estructura de oraciones de la IA para que sea útil sin disfrutar de expresiones emocionales falsas.
Consejo práctico para profesionales de UX
Los profesionales de UX deben tomar este consejo al diseñar capacidades o sistemas de IA para realizar el trabajo.
- Realmente localiza la IA: Evite usar nombres humanos habituales o avatares de tontos. El marketing, la incorporación y la copia de la interfaz siempre deben posicionarlo como una herramienta de trabajo útil, nunca como persona o amigo.
- Enfoque cercano en el alcance de las funciones de IA: Cuanto más enfocado esté en las características, más probabilidades tiene de AI para probar las capacidades. Sea claro sobre lo que la IA no puede realizar de manera confiable.
- Mantente consistente con la profesionalidad: Pregunte al equipo sobre los pasos para garantizar que las interacciones emocionales sean castigadas o excluidas del ajuste de la IA. Me gusta y recompensa interacciones profesionales que son neutrales.
- Verificar y mejorar las indicaciones del sistema: Asegúrese de que se establezcan barandillas a nivel del sistema para mantener la IA consistente con la transparencia y las capacidades de rotación.
- Incorporar poderosas adquisiciones en la interfaz: Un modelo de IA razonable demuestra que genera datos razonables para reducir las posibilidades de alucinación. Use técnicas como la generación basada en recuperación (RAG) para enriquecer la salida de IA de las fuentes de datos y permitir a los usuarios confirmar estas fuentes de una manera mínima Costo de interacción.
- Reclutar IA para detección: Use preguntas de filtro en estudios de usuarios para comprender la experiencia previa de los participantes y Modelo psicológico AI. ¿Está reclutando participantes que ve principalmente la IA desde una perspectiva social al diseñar herramientas de IA centradas en la productividad? Estas experiencias anteriores pueden estar sesgadas con las expectativas de los participantes y sus comentarios cualitativos.
en conclusión
Promover las cualidades antropomórficas en la IA orientada a tareas es una estrategia contraproducente. Este enfoque parece ser una manera fácil de hacer que la IA sea accesible, pero puede socavar la confianza del usuario. en cambio, Los equipos que trabajan en un entorno de productividad deben desarrollar las capacidades analíticas, de planificación y razonamiento de la IA. El camino es más desafiante, pero no hay atajos para crear una experiencia de IA en la que los usuarios realmente confiarán y usarán.
referirse a
Clara Colombatto, Jonathan Birch y Stephen M. Fleming. 2025. El impacto de la atribución del estado mental en la confianza en modelos de idiomas grandes. Psicología de la comunicación 3, 84. https://doi.org/10.1038/s44271-025-00262-1
Jared Moore, Declan Grabb, Kevin Klyman, William Agnew, Stevie Chancellor, Desmond C. Ong y Nick Haber. 2025. Expresar estigma y respuestas inapropiadas puede evitar que LLM reemplace de manera segura los proveedores de salud mental. Preimpresión arxiv https://arxiv.org/abs/2504.18412
Lujain Ibrahim, Franziska Sofia Hafner y Luc Rocher. 2025. Los modelos de lenguaje de capacitación deben mantenerse cálidos y comprensivos para que sean menos confiables y más despreciables. Preimpresión arxiv https://arxiv.org/abs/2507.21919v2