Embedding (o Incrustación)
Es la representación numérica de una palabra o frase. Los embeddings son la forma en que los LLM (Grandes Modelos de Lenguaje) entienden el lenguaje humano. Se almacenan en formato de vector, situando los términos relacionados cerca unos de otros. Esto permite al modelo comprender el contexto y la semántica.
- Ejemplo: La palabra «perro» podría representarse como
[0.2, -0.4, 0.1, 0.8]
, mientras que «gato» podría ser[0.3, -0.3, 0.2, 0.7]
. Fíjate en que los vectores son similares, ya que perros y gatos son mascotas. Por otro lado, «plátano» tendría un vector completamente diferente, como[-0.5, 0.2, 0.9, -0.1]
.
Base de Datos Vectorial (Vector Store)
Una base de datos diseñada específicamente para almacenar embeddings (vectores). En lugar de buscar por palabras clave, la IA busca por significado. Las bases de datos vectoriales se utilizan para encontrar elementos similares (como documentos o frases) basándose en su similitud semántica.
- Ejemplo: Una empresa crea un centro de ayuda con 500 artículos. Cada artículo se convierte en un embedding y se almacena en una base de datos vectorial. Cuando un cliente pregunta «¿Cómo restablezco mi contraseña?», esa pregunta se convierte en un embedding y el sistema encuentra el artículo con el vector más similar.
Búsqueda Semántica (Semantic Search)
Un método de búsqueda que entiende la intención y el significado contextual de una consulta, en lugar de simplemente buscar coincidencias de palabras clave. Esto permite obtener resultados más relevantes y precisos al encontrar contenido relacionado por significado, no solo por texto idéntico.
- Ejemplo: Cuando buscas «sitios para comer» en Google Maps, te devuelve restaurantes, aunque ninguno tenga «sitios para comer» en su nombre. La búsqueda entiende que los restaurantes son lugares donde la gente come, demostrando la conexión semántica.
Generación Aumentada por Recuperación (RAG)
Combina la inteligencia de un LLM con la búsqueda en una base de datos vectorial. El modelo primero recupera información relevante de la base de datos y luego genera una respuesta utilizando esa información.
- Ejemplo: Preguntas a una IA de atención al cliente: «¿Cuándo se renueva mi suscripción?». El sistema:
- Busca en los documentos de tu cuenta dentro de la base de datos vectorial.
- Recupera la información específica de tu fecha de renovación.
- Genera una respuesta: «Tu suscripción premium se renueva el 15 de mayo de 2026«.
Generación Aumentada por Caché (CAG)
Una técnica que mejora las respuestas de la IA manteniendo una «caché» (un almacén temporal) de peticiones y respuestas anteriores. Esto permite al modelo recuperar rápidamente información de interacciones pasadas en lugar de generar respuestas desde cero, mejorando tanto la eficiencia como la consistencia.
Ejemplo: Preguntas a un asistente de IA cuál es la capital de Francia y te responde «París». Más tarde, cuando otro usuario hace la misma pregunta, en lugar de procesar la respuesta de nuevo, el sistema recupera «París» directamente de su caché de respuestas pasadas, entregando el resultado mucho más rápido.