Saltar enlaces

Microsoft Co-Pilot plantea dudas sobre la cláusula de ‘solo fines de entretenimiento’


Microsoft enfrentó críticas después de que los usuarios notaron que su terminología oficial Copilot todavía describía al asistente de IA como “solo para fines de entretenimiento”, a pesar de ser promocionado como una herramienta de productividad seria. Los términos advierten que Copilot puede generar errores, puede no funcionar como se esperaba y no se debe confiar en él para brindar consejos importantes, a diferencia de su marca centrada en el lugar de trabajo. Este desajuste genera preocupaciones sobre la confiabilidad de la inteligencia artificial, la seguridad de los usuarios y la responsabilidad corporativa. Microsoft dijo que la redacción refleja un lenguaje legal más antiguo y se actualizará, pero el descargo de responsabilidad actual continúa alimentando el debate sobre la confianza y la transparencia en la construcción de inteligencia artificial.

Home
Account
Cart
Search
¡Hola! ¡Pregúntame lo que quieras!
Explore
Drag