Seguridad y privacidad en proyectos de IA empresarial

Seguridad y privacidad en proyectos de IA empresarial

13 de abril de 2026

El riesgo que pocas empresas están gestionando bien

La adopción acelerada de herramientas de IA en empresas ha creado un riesgo nuevo: los empleados están compartiendo información sensible con modelos de IA sin entender completamente qué pasa con esos datos.

Antes de escalar el uso de IA en tu organización, estas preguntas no son opcionales.

¿Qué pasa con los datos que envías a la IA?

Depende del proveedor y de cómo uses la herramienta:

  • OpenAI (ChatGPT): por defecto, los datos pueden usarse para entrenar modelos. La versión enterprise tiene opciones de opt-out
  • Microsoft Copilot Enterprise: los datos del tenant no se usan para entrenar modelos globales
  • Claude (Anthropic): política más conservadora en uso de datos por defecto
  • Modelos locales (open source): los datos no salen de tu infraestructura

Qué no debes enviar a IA pública

  • Datos personales de clientes (nombres, RUTs, correos)
  • Información financiera no pública (proyecciones, resultados)
  • Secretos comerciales o propiedad intelectual
  • Información de M&A, litigios o temas legales sensibles
  • Datos de empleados

Cómo construir una política de uso seguro de IA

  1. Clasificar la información: define qué es público, interno, confidencial y restringido
  2. Reglas claras por nivel: qué puede compartirse con cada tipo de herramienta de IA
  3. Capacitar al equipo: todos deben conocer las reglas, no solo el equipo técnico
  4. Herramientas enterprise: para datos sensibles, usa versiones enterprise o soluciones privadas
  5. Monitoreo y auditoría: revisar periódicamente el cumplimiento