Curso RAG Agents: Construye Aplicaciones y GPTs con APIs, MCP, LangChain y n8n

0 de 63 lecciones completas (0%)

4- Implementando RAG con LLMs de Código Abierto: AnythingLLM y Ollama

4.4- Chunk Size (Tamaño de Fragmentos) y Chunk Overlap (Superposición) para tus Embeddings

No tienes acceso a esta lección

Por favor, inscríbete o accede para acceder al contenido del curso.

Configuración del Espacio de Trabajo

Hemos creado un espacio de trabajo donde configuramos todos los ajustes necesarios. Enviamos nuestras primeras consultas en el chat y recibimos las respuestas correspondientes.

El siguiente paso es integrar un documento. Para hacerlo, simplemente presiona el botón correspondiente y accederás a la interfaz de carga de archivos.

Conceptos Fundamentales: Chunk Size y Overlap

Antes de subir documentos, es importante entender dos conceptos clave:

¿Qué es el Chunk Size (Tamaño de Fragmento)?

En la configuración de «Text Splitter and Chunking» encontrarás dos parámetros importantes:

  • Text Chunk Size: El tamaño de cada fragmento de texto
  • Text Overlap: La superposición entre fragmentos

Limitación actual: Solo podemos usar hasta 1000 tokens por fragmento en este modelo, aunque modelos más avanzados permiten fragmentos más grandes.

El Problema con Documentos Largos

Imagina que tienes un documento PDF largo con varias páginas de texto. Si subes todo el documento completo a la base de datos vectorial:

  • ✅ El LLM ve claramente el inicio del documento
  • ✅ El LLM ve claramente el final del documento
  • ❌ El contenido del medio se vuelve menos preciso

Esta pérdida de precisión en la parte central es un problema común en aplicaciones RAG.

La Solución: Dividir en Fragmentos

Ventajas de la Fragmentación

En lugar de procesar todo el documento de una vez, lo dividimos en fragmentos más pequeños:

  1. Mejor precisión: Cada fragmento se embebido por separado
  2. Búsqueda eficiente: El LLM busca solo en los fragmentos relevantes
  3. Mejores resultados: Evita perder información del «medio» del documento

Ejemplo Práctico

Si el LLM busca información sobre «perros»:

  • ✅ Encuentra tokens relevantes en el fragmento 1
  • ✅ Encuentra tokens relevantes en el fragmento 3
  • Solo procesa estos fragmentos específicos
  • Ignora el fragmento 2 (más eficiente)

Chunk Overlap (Superposición de Fragmentos)

¿Por qué usar superposición?

La superposición asegura que la información importante no se pierda en los «bordes» entre fragmentos.

Ejemplo: Si tienes fragmentos de 1000 tokens:

  • Fragmento 1: tokens 1-1000
  • Fragmento 2: tokens 950-1950 (con 50 tokens de superposición)
  • Fragmento 3: tokens 1900-2900 (con 50 tokens de superposición)

Beneficios de la Superposición

  • Continuidad: Preserva el contexto entre fragmentos
  • Precisión: Captura información que podría perderse en las divisiones
  • Búsqueda mejorada: El LLM puede encontrar información relevante aunque esté cerca del límite de un fragmento

Reglas Generales para Configurar Fragmentos

Por Tipo de Contenido

Tipo de ContenidoTamaño de FragmentoCasos de Uso
Historias largas/Libros1000-5000 tokensNovelas, documentos extensos
Textos cortos500-1000 tokensArtículos, ensayos
Listas y enlaces100-500 tokensCatálogos, precios, índices

Superposición Recomendada

  • Porcentaje ideal: 1-5% del tamaño del fragmento
  • Ejemplo: Para fragmentos de 1000 tokens → superposición de 10-50 tokens

Consideraciones de Precio y Rendimiento

El Problema de los Fragmentos Gigantes

Aunque algunos modelos (como los de Google) pueden manejar hasta 1 millón de tokens:

❌ Fragmentos muy grandes (50,000+ tokens):

  • Precio elevado: Cada consulta procesa muchos tokens
  • Velocidad lenta: Más datos para procesar
  • Menor eficiencia: Se procesan datos irrelevantes

✅ Fragmentos optimizados (1000-5000 tokens):

  • Precio razonable: Solo se procesan 2-3 fragmentos relevantes
  • Velocidad alta: Menos datos para procesar
  • Mayor precisión: Información más específica

Ejemplo de Costo

  • Fragmentos grandes: 50,000 tokens por consulta = costoso
  • Fragmentos optimizados: 10,000 tokens por consulta (2-3 fragmentos) = económico

Estrategias Específicas por Contenido

Para Listas de Precios o Catálogos

  • Tamaño: 100-500 tokens (pequeño)
  • Razón: Búsqueda rápida de items específicos
  • Superposición: Mínima (no crítica para este tipo de contenido)

Para Historias y Narrativas

  • Tamaño: 1000-5000 tokens (grande)
  • Razón: Preservar el contexto narrativo
  • Superposición: 1-5% para mantener continuidad

Recomendaciones Finales

Experimentación

  • Prueba y ajusta: Cada documento es único
  • Monitorea resultados: Observa la calidad de las respuestas
  • Optimiza gradualmente: Ajusta según el rendimiento

Regla de Oro

1000 tokens es un excelente punto de partida que funciona bien para la mayoría de casos, equilibrando:

  • ✅ Precisión
  • ✅ Velocidad
  • ✅ Costo
  • ✅ Calidad de resultados

Resumen Ejecutivo

  1. Fragmenta tus documentos para mejor precisión
  2. Usa superposición del 1-5% para preservar contexto
  3. Ajusta el tamaño según el contenido:
    • Historias largas → fragmentos grandes
    • Listas/precios → fragmentos pequeños
  4. Considera el costo: fragmentos más pequeños = consultas más económicas
  5. Experimenta y optimiza según tus resultados específicos

Con estos principios, estarás listo para crear aplicaciones RAG eficientes y precisas.

Resumen de privacidad
Logo JeroCuevas.com

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Cookies de terceros

Esta web utiliza Google Analytics para recopilar información anónima tal como el número de visitantes del sitio, o las páginas más populares.

Dejar esta cookie activa nos permite mejorar nuestra web.