Embeddings:
El Espacio Vectorial
Cómo la IA representa el significado matemáticamente
Los LLMs no leen palabras: convierten cada palabra en un punto en un espacio matemático de miles de dimensiones. Palabras con significados similares quedan geométricamente cerca.
Cuando escribes "perro", la IA busca los puntos más cercanos: mascota, ladrar, animal, correr... Desde ahí construye la respuesta. Por eso los prompts vagos funcionan mal: la IA "anda por todo lado en el espacio" y la probabilidad se vuelve impredecible.
embedding("rey") = [0.82, 0.91, 0.03, ...]
embedding("reina") = [0.79, 0.89, 0.94, ...]
embedding("perro") = [0.12, 0.08, 0.71, ...]
# rey - hombre + mujer ≈ reina ← magia vectorial
Formato JSON:
El Idioma de los Agentes
Por qué JSON es crítico en pipelines de agentes IA
JSON (JavaScript Object Notation) es el único formato que permite que la información fluya de una herramienta a otra sin corromperse. En agentes, si el output no es JSON estructurado y predecible, el pipeline explota.
Un agente conectado a 4 herramientas necesita que cada herramienta reciba y devuelva datos en un formato exacto. JSON garantiza eso. Markdown o lenguaje natural no lo garantizan.
{
"nombre": "María García",
"edad": 34,
"activo": true,
"habilidades": ["Python", "SQL"]
}
Markdown:
El Formato Conversacional
Cuándo usar Markdown y cuándo no
Los LLMs fueron entrenados originalmente con Markdown. Es el formato ideal para documentos, reportes y conversaciones con humanos. Pero en pipelines de agentes, Markdown puede romper el procesamiento automatizado.
Regla de oro: Markdown para humanos → JSON para máquinas.
## Subtítulo H2
**texto en negrita** *cursiva*
- elemento de lista
- otro elemento
`código inline`
Grounding:
Anclando la IA a los Datos
Cómo obligar al modelo a ceñirse a la verdad documentada
La IA es una biblioteca, no Google. Sin contexto inyectado, inventa respuestas estadísticamente plausibles. El grounding obliga al modelo a responder únicamente con el documento proporcionado.
Regla de oro: no basta con inyectar el contexto; debes controlar el perímetro de su uso con instrucciones explícitas como "responde ÚNICAMENTE usando el texto proporcionado".
Responde ÚNICAMENTE usando el texto proporcionado.
Si la respuesta no aparece, di exactamente:
"No tengo información suficiente para responder"
¿Cuál de estos dos comportamientos es correcto?
⚡ Agente A — Sin Grounding
Prompt: "Eres un agente de soporte. Responde preguntas del cliente."
"El servicio premium cuesta 240€/mes e incluye soporte prioritario 24/7, acceso a todas las funciones avanzadas y un manager dedicado."
🔒 Agente B — Con Grounding
Prompt: "[Tarifario: Estándar 85€, Express 149€] + Responde ÚNICAMENTE con este documento."
"No tengo información suficiente para responder. Los planes disponibles en mi documento son Estándar (85€) y Express (149€). ¿Te puedo ayudar con alguno de estos?"
Temperatura & Top P:
Controlando la Creatividad
La matemática detrás de cada respuesta del modelo
Temperatura: escala de aleatoriedad. 0.0 = determinista/exacto. 1.0 = creativo/variable. Para agentes en producción que manejan datos críticos: temperatura baja.
Top P (Nucleus Sampling): amplía o reduce el vocabulario posible. Top P 0.9 = solo considera tokens que suman 90% de probabilidad acumulada.
Regla práctica: no uses Temperatura alta + Top P alto al mismo tiempo. Es como soltar al modelo sin correa.
Los 6 Componentes
del Prompt Perfecto
Construye un prompt completo desde cero
La mayoría de personas usa 1 o 2 componentes y después se pregunta por qué el resultado es inconsistente. Un prompt bien construido tiene 6 componentes: Objetivo, Contexto, Rol, Instrucciones, Formato de salida y Restricciones.
Contexto → Info de fondo que el modelo necesita
Rol → A quién debe interpretar
Instrucciones → Secuencia de pasos a ejecutar
Formato → JSON / Markdown / NLP
Restricciones → Qué NO debe hacer
Zero-Shot vs Few-Shot:
Elige la Técnica Correcta
Cuándo usar cada tipo de prompting en producción
Zero-Shot: solo instrucción, sin ejemplos. El modelo improvisa el formato. Alto riesgo en salidas estructuradas. Ideal para tareas rápidas y generales.
Few-Shot: 2+ ejemplos input→output en el propio prompt. El modelo aprende el patrón exacto. Fundamental para JSON. Aumenta tokens pero garantiza consistencia.
Chain of Thought: le pides que razone paso a paso antes de responder. Reduce alucinaciones en tareas complejas o de análisis.
Prompt Injection:
Aprende a Atacar para Defender
Los 4 vectores de ataque que debes conocer
El Prompt Injection es el intento de un usuario malicioso de sobrescribir las instrucciones originales del agente. Si un ataque triunfa, la arquitectura inicial era deficiente. Hay que aprender a atacar para poder defenderse.
Nivel 2 — Authority: Fingir ser administrador del sistema
Nivel 3 — Indirect: Storytelling progresivo que confunde al modelo
Nivel 4 — Hijacking: Control total del flujo del agente