Saltar enlaces

San Agustín y la falsa promesa de la inteligencia artificial

Un diagnóstico antiguo de los delirios modernos.

San Agustín Felipe de Champaña
San Agustín de Hipopótamo con el corazón inquieto traspasado por la luz de la verdad, pintura de Philippe de Champaigne, siglo XVII

La narrativa actual en torno a la inteligencia artificial se basa en promesas familiares de mejores predicciones y resultados. La inteligencia artificial se posiciona como un sistema que puede reducir la incertidumbre y acercarnos al orden óptimo. Ya sea un algoritmo de reclutamiento, un sistema de recomendación, un modelo de riesgo o una herramienta de generación, se supone que un sistema suficientemente sofisticado producirá resultados que no sólo serán efectivos sino también bien definidos. El problema es que esto supone que el estándar del producto en sí es estable, lo cual no es el caso. Todo sistema requiere una decisión previa sobre lo que es bueno, y esa decisión refleja un conjunto de valores más que una verdad fundamental.

san agustín de hipopótamo (354-430 d. C.) Al escribir mientras las instituciones romanas estaban colapsando, entendió la crisis no como un fracaso de la administración sino como un síntoma de un caos más profundo. Mientras que los primeros filósofos señalaron causas externas, Agustín culpó a la voluntad humana como la fuente de la decadencia. Inspírate con sus conocimientos psicológicos arrepentirseCreía que los deseos humanos no eran inherentemente corruptos sino que a menudo estaban equivocados. Dado que una sociedad se define por las preferencias colectivas de sus ciudadanos, cualquier sistema puede volverse inestable si esas preferencias son inconsistentes y valoran la gloria terrenal por encima de la riqueza duradera.

existir ciudad de diosAgustín desarrolló esta idea en dos direcciones opuestas. La ciudad de la humanidad está construida sobre el amor propio y deseo de dominarel impulso hacia la maestría. Sin un principio superior de orden, no puede estabilizarse sobre productos que siguen siendo insuficientes, como la seguridad o el prestigio. En cambio, la Ciudad de Dios se enfrenta a lo divino a través del amor ordenado. Estos no son lugares físicos sino las condiciones morales entrelazadas que existen dentro de cada institución. El orden humano es defectuoso no porque carezca de capacidades sino porque está moldeado por sus valores fundamentales.

Aplicado a los sistemas humanos, incluidos aquellos mediados por tecnología e inteligencia artificial, esto crea limitaciones estructurales que ningún sistema puede abordar. El estándar de bondad está más allá de lo que los humanos pueden definir completamente, pero cada sistema aún debe operar utilizando sus definiciones parciales y competitivas. El resultado es una inestabilidad continua. Los humanos se sienten atraídos por el concepto de orden perfecto, aunque todo lo que construyen todavía está limitado por la dirección de sus deseos.

La inteligencia artificial no puede escapar de esta limitación. De hecho, agrava la situación. Los sistemas de inteligencia artificial funcionan mediante optimización, pero la optimización nunca es neutral porque requiere una definición previa de lo que es bueno. El sistema sólo puede rastrear la versión del comando que se le dio. Si la participación se considera algo bueno, el sistema optimizará la atención. Si la eficiencia se considera un beneficio, se sacrificarán factores que la frenan. El sistema puede funcionar correctamente sin dejar de reproducir una idea distorsionada de lo que es importante.

Esta brecha no es casualidad. Para Agustín, el caos de la ciudad humana surge del amor desordenado: a sus ciudadanos no les falta inteligencia, esfuerzo o incluso empatía, pero están dirigidos hacia las cosas equivocadas, en el orden equivocado. Aquí es donde la lente agustiniana se vuelve más precisa. El concepto de Agustín. orden del amoro el Orden del Amor, aclara que el orden no es sólo estructura o eficiencia, sino una jerarquía que se valora y se ve como un propósito.

Cuando se trata de orden, tenemos que preguntarnos qué se prioriza y para qué sirve en última instancia el sistema. El problema no es sólo que la IA refleje las prioridades humanas. Más bien, recalibra cómo fortalecer esas prioridades. Una vez que un valor se convierte en indicador, adquiere la apariencia de objetividad.

Agustín distingue tracto urinario y disfrutar existir Sobre la doctrina cristiana. Ooty se refiere a algo usado como medio, y disfrutar Se refiere a algo que se disfruta como propósito. El fracaso no es el deseo en sí, sino su desorden. La herramienta no tiene nada de malo porque funciona. Se vuelve peligroso cuando se confunde su utilidad con su propósito.

Los sistemas de inteligencia artificial aceleran esta confusión sobre la utilidad de la ropa bajo la apariencia de resultados finales. Las herramientas diseñadas para su uso comienzan a tener autoridad cuando consideramos su resultado como un insumo para sacar conclusiones en lugar de un juicio. Este cambio se produce cuando la lógica interna del modelo comienza a fijar límites a nuestras propias decisiones.

Si un modelo de reclutamiento prioriza palabras clave específicas, entonces nuestra comprensión de los candidatos calificados se reduce para satisfacer esas palabras clave. Si un sistema de recomendación destaca ciertos temas, entonces nuestra sensación de contenido relevante se verá afectada por esa elección. La herramienta deja de ser una ventana que nos ayuda a ver el mundo y se convierte en un marco para decidir qué vale la pena ver.

Buscar inteligencia artificial general (AGI) refleja los mismos supuestos a mayor escala. Esto es importante porque expone las ilusiones detrás de la narrativa más amplia de la inteligencia artificial. Se cree que sistemas suficientemente avanzados pueden resolver la inestabilidad del juicio humano. Sin embargo, una mayor inteligencia artificial no resolverá los desacuerdos sobre lo que se debe valorar. Amplifica cualquier definición de valor ya integrada en el sistema.

Esta dinámica no es abstracta. Ocurre en la forma en que los sistemas de inteligencia artificial implementan el juicio humano. como se informó Revisión de tecnología del MIT ha demostrado en su informe sobre el sesgo algorítmico que estos sistemas no eliminan el sesgo sino que lo formalizan, incorporando supuestos existentes en sistemas aparentemente objetivos y escalables.

Lo que parecen ser mejoras en la precisión son a menudo repeticiones a gran escala de decisiones anteriores en lugar de revisiones de las mismas. En términos agustinianos, la inteligencia artificial no crea un amor desordenado, entendido como tu dirección. Lo estabiliza, lo legitima y lo hace más difícil de identificar.

Lo mismo ocurre con la innovación, que a menudo se define como el movimiento de mejora, como si la llamada mejora en sí no estuviera definida por el concepto de buenas intenciones previas. La inteligencia artificial acelera esta dinámica al hacer que las prioridades sean mensurables, escalables y más fáciles de justificar. Las métricas reemplazan al juicio y los resultados reemplazan a la deliberación. El sistema parece más preciso, pero esta precisión depende de supuestos normativos que aún no han sido probados.

Los lectores seculares pueden resistirse a este marco. Si el argumento se basa en un criterio trascendente del bien, entonces, sin compromiso teológico, ¿se reduce a una modesta afirmación de que los valores están en cuestión? Esta objeción es ciertamente persuasiva, pero pasa por alto el punto estructural que plantea Agustín. Este argumento no requiere la aceptación de su teología para reconocer el problema subyacente.

Filósofos como Herbert Simon creían que racionalidad limitada —el simple hecho de que la cognición humana sea limitada y siempre opere dentro de supuestos heredados—produce la misma brecha estructural que Agustín describió sin ninguna presuposición teológica.

Todo sistema de optimización codifica una jerarquía de valores que el propio sistema no puede justificar. ¿Es un marco limitado debido a pecado original O como resultado de la finitud cognitiva, las implicaciones prácticas son las mismas: ningún sistema puede autoautorizar los valores que persigue. El marco teológico da al argumento su profundidad y urgencia, pero las ideas diagnósticas permanecen incluso cuando se traducen a términos seculares.

San Agustín no llegó dogmáticamente a esta conclusión. Estaba profundamente involucrado en el escepticismo, cuestionando si las certezas eran posibles, tomándolas en serio y considerándolas contraproducentes. Su posición surgió de esa confrontación, no de la confrontación.

Lo que produce esta confrontación no es un rechazo de las instituciones sino una interpretación de su papel adecuado. El error no está en construir las herramientas, sino en confundirlas con los fines. Los objetos terrestres son reales, pero también finitos. Están destinados a ser utilizados, no vistos como sustitutos de órdenes superiores que están fuera de su alcance. Cuando se aplica a la inteligencia artificial, la tarea ética es distinguir entre las herramientas que pueden ayudarnos a hacer y lo que sólo el juicio puede determinar.

La prioridad inmediata es reanudar las deliberaciones. Los resultados de la IA deben informar el razonamiento, no reemplazarlo. Esto requiere estructuras organizativas en las que el criterio humano siga siendo el paso autoritario en lugar de un sello de goma al final de un proceso automatizado. Cuando los modelos de reclutamiento califican a los candidatos, cuando los sistemas de riesgo señalan las solicitudes de préstamos, cuando las herramientas de contenido redactan recomendaciones, el resultado es el insumo, no la conclusión.

Las herramientas de inteligencia artificial deben diseñarse para mantener visibles los juicios y responsabilizar a quienes los ejecutan. Si se elimina la responsabilidad, no sólo se pierde la precisión, sino también la seriedad moral necesaria para juzgar.

El segundo es la visibilidad de los valores. Cada optimización codifica la definición de un bien que debería surgir y generar controversia. Esto significa tratar las opciones de valor integradas en los sistemas de IA como decisiones políticas e institucionales, en lugar de decisiones técnicas. Los investigadores se comprometen a Responsabilidad algorítmica Enmarcar la IA como un optimizador neutral es en sí mismo una opción política: eliminar estas opciones del escrutinio democrático.

Cuando un sistema define cómo es un candidato calificado, qué contenido merece ser ampliado, o qué comunidades asumen qué riesgos, esas definiciones requieren responsabilidad. Deben nombrarse, verificarse y estar sujetos a modificación. No porque el sistema sea necesariamente incorrecto, sino porque no se puede conceder silenciosamente al modelo el poder de decidir lo que es correcto.

La tercera es la humildad institucional. No se debe confundir estabilidad con legitimidad. Los sistemas que producen resultados consistentes pueden simplemente repetir la misma secuencia retorcida con mayor confianza. Las agencias que dependen en gran medida de los productos de la IA necesitan mecanismos regulares para cuestionar si esos productos reflejan las prioridades correctas, no solo si reflejan las prioridades declaradas. La coherencia no es prueba de corrección. En términos agustinianos, una máquina bien ordenada aún puede terminar en desorden. La eficiencia de un sistema no es en modo alguno un argumento a favor de la adecuación de sus objetivos.

La inteligencia artificial no nos acerca a un orden ideal porque no puede resolver las limitaciones del juicio humano ni estabilizar lo que consideramos bueno. Hace que la ciudad de la humanidad sea más eficiente, más escalable y más atractiva. Ésta no es razón para abandonar la tecnología. Ésta es una razón para rechazarlo como sustituto del juicio humano. El error no fue construir el sistema. La gente olvida que una herramienta para su uso no determina lo que vale la pena seguir.

¡No te lo pierdas! Únase a mi lista de correo electrónico y recibe el contenido más reciente.


San Agustín y la falsa promesa de la inteligencia artificial Publicado originalmente en colectivo de experiencia de usuarioEn Medium, la gente continúa la conversación destacando y respondiendo a esta historia.

Home
Account
Cart
Search
¡Hola! ¡Pregúntame lo que quieras!
Explore
Drag