Por qué los diseñadores gruñones desconfían de la confianza en la IA – Speckyboy
La confianza es algo curioso. Luché con esto cuando era niño. No creía que fuera lo suficientemente bueno para sobresalir en la escuela o en los deportes. Aun así, soy un gran compañero en trivias sobre cultura pop.
Crecer como un diseñador gruñón me dio un impulso a mi autoestima. Descubrí un talento para el diseño, el desarrollo y la escritura. Que otros disfruten de mi trabajo me hace sentir capaz. También comencé a preocuparme menos por lo que pensaran los demás.
Sin embargo, todavía me siento incómodo cuando estoy cerca de una persona segura de sí misma. Ya sabes, el tipo de persona que puede venderle cualquier cosa a cualquiera. Tiendo a dudar de mí mismo en estas situaciones. Quizás este factor de intimidación sea la razón por la que estas personas suelen ascender a puestos altos, pero estoy divagando.
Hoy en día, no tengo que salir de casa para sentir esa misma sensación de insuficiencia. Todo lo que tenía que hacer era iniciar una aplicación de inteligencia artificial (IA). Responderá con un nivel de confianza con el que nosotros, simples mortales, sólo podemos soñar.
Por eso encuentro inquietante la actitud confiada de la IA. Incluso aterrador.
Las respuestas seguras no siempre significan resultados precisos
Un modelo de IA finamente ajustado puede decir cualquier cosa con seriedad. Bueno, todavía no tiene cara. Pero escúchame. Esta cosa te dice que la luna está hecha de queso crema, y así es. Lo preocupante es que algunas personas creerán la respuesta sin cuestionarla.
Vi este comportamiento descarado cuando le pregunté a la IA. Sugerencias de codificación. Compartiré un fragmento de código con errores o solicitaré uno nuevo desde cero. La herramienta genera código y explica cómo funciona. ¡Qué pensativo!
Sorprendentemente, resulta que el código generado en menos de un minuto no siempre es fiable. Probar el rendimiento de la inteligencia artificial no es necesariamente primera vez trabajando. O crea los mismos problemas o introduce otros nuevos.
Señalar estos problemas contribuirá en cierta medida a humillar al robot. La respuesta más común parece ser: «¡Oh, es cierto! Olvidé considerar incógnita, yy z. Aquí se explica cómo solucionarlo. «
Esa personalidad magnética volvió a la vida y su respuesta fue tan segura como la primera. Este ciclo continúa hasta que la IA lo hace bien o me rindo.
Eso no significa que la IA no pueda ayudar. Sin embargo, su tono reactivo da a los humanos una falsa sensación de seguridad. Los grandes modelos de lenguaje (LLM) pueden persuadirnos de maneras que la mayoría de los humanos no pueden. Por tanto, dificulta nuestro pensamiento crítico.
La gente ya está sintiendo el impacto. Las generaciones futuras que crezcan con esta tecnología omnipresente tendrán aún más que perder. Para ellos, la respuesta a la inteligencia artificial podría ser solo Uno que vieron.

¿Puede la IA reducirlo un poco?
Entiendo la situación en la que se encuentran las empresas de IA. Desde una perspectiva de marketing, una aplicación que proporciona respuestas a preguntas difíciles debe demostrar competencia. Un tono de voz seguro es una forma de generar confianza con sus usuarios.
No parece haber una elección fácil. Por ejemplo, no puedo imaginar que una respuesta tímida tenga las mismas vibraciones positivas. ¿Te imaginas a Géminis de Google respondiendo «Esto probablemente no funcione, pero inténtalo de todos modos»?
Tampoco creo que sea útil ampliar estas pequeñas exenciones de responsabilidad. Entonces, ¿cuál es la solución? algunas cosas posible Ayuda (nota mi tono semi-confiado).
Mejor citación de referencias.
La inteligencia artificial no es mágica. No invoca conocimiento del universo. Rastrea sitios web (a veces, un poco demasiado). Sin embargo, no cita bien las fuentes de información.
Algunas aplicaciones agregan notas a pie de página en las que se puede hacer clic, mientras que otras no parecen proporcionar referencias visibles. Esto no es lo suficientemente bueno.
Las fuentes pueden integrarse mejor en las respuestas de la IA. Por ejemplo, no digas:
«Asegúrese de evitar la salida de los complementos de WordPress».
Esto se puede ajustar a:
«de acuerdo a Documentación oficial de WordPresslos autores de complementos deben evitar todo el contenido de fuentes no confiables. «
Este paso logra dos cosas. Primero, da crédito a la fuente de la información (lo más educado). En segundo lugar, invita a los usuarios a profundizar en el tema.
Cuéntanos qué podría salir mal
Dado que los LL.M. tienen una gran cantidad de datos, estoy dispuesto a apostar que pueden explicar el peor de los casos. Pueden utilizar esta información para mantener a los usuarios seguros cuando intentan codificar, cocinar u otras actividades potencialmente peligrosas.
Así como una taza de café le advierte que hay líquido caliente en su interior, una aplicación de inteligencia artificial puede proporcionar una lista de verificación de seguridad y sus respuestas. recordar Haga una copia de seguridad de su sitio webPor ejemplo, alguien podría salvarse de un desastre.
Esta es una técnica común utilizada por escritores y otros creadores de contenido. No debemos dar por sentado que los lectores lo saben todo. Por eso, informarles de los posibles peligros forma parte de ser un recurso responsable.
La IA debe cumplir los mismos estándares que sus homólogos humanos.
Haga preguntas de seguimiento para brindar la mejor respuesta.
Hay más de una manera de lograr algo. Algunos temas son controvertidos o presentan zonas grises. Esta es la realidad de nuestro mundo. La IA debería esforzarse por informarnos de estas situaciones sin tomar partido.
Al escribir código usando IA, noté que a veces Proporcionar múltiples métodos. Esto ayuda porque puedo usar el que mejor me funcione. Ésta debería ser la regla, no la excepción.
Me doy cuenta de que sin el contexto adecuado podría resultar difícil para la aplicación hacer esto. Los humanos no siempre sabemos lo que queremos. Entonces, ¿por qué no hacernos algunas preguntas de seguimiento? ¿O reaccionar con múltiples opciones y elegir tu propia aventura?
Esto promueve un enfoque más conversacional de las tareas y fomenta el pensamiento crítico. Incluso podría conducir a mejores resultados.

La inteligencia artificial no tiene por qué ser tan engreída
Independientemente de su precisión, la IA responde a nuestras preguntas con confianza. Esta es una tendencia preocupante considerando la rapidez con la que se están adoptando estas herramientas. Los humanos que siguen ciegamente los consejos de la IA inevitablemente tendrán un duro despertar.
No creo que esto tenga ningún impacto positivo en las empresas o los usuarios de IA. La confianza es un componente clave del crecimiento. Los usuarios acudirán en masa a aplicaciones en las que confían y evitarán aquellas que proporcionen mala información. Al igual que otros productos de consumo, la confiabilidad es fundamental para el éxito final de la inteligencia artificial.
Quizás la respuesta sea que estos modelos cambian un poco de comodidad por un proceso más confiable. Los humanos hacemos esto todo el tiempo. Quizás estas máquinas puedan aprender un par de cosas de nosotros.
arriba