Microsoft ha confirmado que un error permitió a su Copilot AI resumir los correos electrónicos confidenciales de los clientes durante semanas sin permiso. El error, reportado por primera vez por Bleeping Computer, permitió a Copilot Chat leer y delinear el contenido de los correos electrónicos desde enero, incluso si los clientes tenían políticas de prevención de pérdida de datos para evitar ingerir su información confidencial en el modelo de lenguaje grande de Microsoft.
Ahora entenderéis la confianza que tengo en Copilot, la AI en Office, Recall y todo lo que incluyen sin mi consentimiento.
Si quiero AI, utilizo los programas separados del SO