Microsoft Co-Pilot plantea dudas sobre la cláusula de ‘solo fines de entretenimiento’
![]()
Microsoft enfrentó críticas después de que los usuarios notaron que su terminología oficial Copilot todavía describía al asistente de IA como “solo para fines de entretenimiento”, a pesar de ser promocionado como una herramienta de productividad seria. Los términos advierten que Copilot puede generar errores, puede no funcionar como se esperaba y no se debe confiar en él para brindar consejos importantes, a diferencia de su marca centrada en el lugar de trabajo. Este desajuste genera preocupaciones sobre la confiabilidad de la inteligencia artificial, la seguridad de los usuarios y la responsabilidad corporativa. Microsoft dijo que la redacción refleja un lenguaje legal más antiguo y se actualizará, pero el descargo de responsabilidad actual continúa alimentando el debate sobre la confianza y la transparencia en la construcción de inteligencia artificial.