mediumCWE-359OWASP LLM02:2025

Contexto de IA Excesivo

Tu app manda registros completos de base de datos, archivos de configuración o secretos como contexto a un modelo de IA, exponiendo mucho más datos de los que la tarea requiere.

Cómo Funciona

Las ventanas de contexto más grandes hacen tentador simplemente dumpear todo en el prompt. Pero mandar filas completas de base de datos, variables de entorno o configs internas a una API de IA externa significa que esos datos salen completamente de tu infraestructura. Aunque el proveedor sea confiable hoy, estás creando riesgo innecesario de exposición de datos y probablemente violando tu propia política de privacidad.

Código Vulnerable
// MAL: mandando configuración completa y registro de BD como contexto de IA
const config = require('./config.json'); // contiene DB_URL, API_KEYS...
const userRecord = await db.findOne({ id: userId }); // fila completa con PII
const prompt = `Contexto: ${JSON.stringify(config)} Usuario: ${JSON.stringify(userRecord)}\nPregunta: ${question}`;
Código Seguro
// BIEN: extrae solo los campos específicos necesarios
const relevantData = {
  userName: userRecord.display_name, // sin email, sin PII
  plan: userRecord.plan,
  createdAt: userRecord.created_at
};
const prompt = `Contexto de usuario: ${JSON.stringify(relevantData)}\nPregunta: ${question}`;

Ejemplo Real

Una startup que construía un asistente de código con IA enviaba archivos .env completos y configs de package.json como contexto a su modelo. Esto se descubrió durante una auditoría de seguridad — las API keys y URLs de base de datos de sus usuarios fluían a un proveedor de IA de terceros.

Cómo Prevenirlo

  • Aplica el principio de mínimos privilegios al contexto de IA: incluye solo los campos que el modelo necesita para la tarea específica
  • Nunca incluyas variables de entorno, archivos de configuración o secretos en el contexto de IA
  • Crea una vista o DTO dedicado 'seguro para IA' que elimine campos sensibles antes de mandarlo a cualquier modelo
  • Revisa el uso de tokens — los prompts inflados suelen ser señal de que estás compartiendo demasiados datos
  • Documenta qué datos mandas a APIs de IA externas en tu política de privacidad y mapa de datos

Tecnologías Afectadas

Node.jsPython

Data Hogo detecta esta vulnerabilidad automáticamente.

Escanea Tu Repo Gratis

Vulnerabilidades Relacionadas