En esta lección has aprendido los conceptos fundamentales. Ahora comprendes cómo funciona un Modelo de Lenguaje Grande (LLM).
¿Cómo Funciona un Modelo de IA?
Un modelo de IA se entrena con enormes cantidades de texto de internet. Este texto se comprime como si fuera un archivo ZIP, y luego el modelo de IA «sueña» a partir de ese archivo comprimido.
El proceso funciona así:
- Toma las palabras que escribes
- Las divide en tokens (unidades más pequeñas)
- Usa estos tokens para hacer cálculos en la red neuronal
- Te devuelve los tokens que probablemente quieres escuchar
Las Tres Fases del Entrenamiento
1. Pre-entrenamiento
Esta es la fase base donde el modelo aprende patrones del lenguaje a partir de texto masivo.
2. Ajuste Fino (Fine-tuning)
Aquí le damos instrucciones con ejemplos específicos para que el LLM entienda cómo queremos que estructure sus respuestas. Ya no obtenemos solo «sueños», sino oraciones que tienen sentido.
3. Aprendizaje por Refuerzo
Simplemente le damos al modelo «me gusta» o «no me gusta» con recompensas para mejorar sus respuestas.
4. Ley de Escalado de Razonamiento
También conocida como «compute de tiempo de prueba» con aprendizaje por refuerzo completo. Aquí el LLM trata de mejorarse a sí mismo con los tokens dentro del modelo de IA.
¿Cuándo usar cada tipo?
- Con compute de tiempo de prueba: Para preguntas con respuestas lógicas fijas como matemáticas, ciencias o código
- Sin compute de tiempo de prueba: Para escritura creativa
Llamadas a Funciones (Function Calling)
Las llamadas a funciones simplemente significa que el LLM puede comunicarse con otras herramientas a través de una API.
¿Qué es una API? Una API es una Interfaz de Programación de Aplicaciones. Siempre tenemos cliente y servidor, y podemos enviar información del punto A al punto B.
Bases de Datos Vectoriales: La Magia Detrás de RAG
Cómo Funciona el Proceso:
- Documentos originales → Los dividimos con modelos de embeddings
- Vector Database → Almacenamos la información en un espacio tridimensional
- Clusters inteligentes → Se forman grupos con palabras que tienen sentido juntas
- Búsqueda eficiente → El LLM puede encontrar información mucho más fácilmente
Ejemplo visual: Imagina a los «nerds de IA» en una esquina y los «fanáticos del hardware» en otra esquina del espacio vectorial.
Fragmentos (Chunks) y Top-K
Cuando el LLM explora la base de datos vectorial, obtiene documentos de vuelta. Estos documentos siempre son fragmentos (chunks).
Tamaño de fragmentos flexible:
- 500 tokens
- 5,000 tokens
- O incluso más grandes
Resultados Top-K: Podemos decirle al LLM cuántos fragmentos queremos obtener. Hacemos una búsqueda por similitud y obtenemos, por ejemplo, 4 resultados top-k. El LLM entonces estructura una respuesta coherente.
Dominio de ChatGPT
Ya conoces todos los fundamentos de ChatGPT:
- Cómo hacer preguntas efectivas
- Cómo usar prompts del sistema
- Cómo usar Canvas
- Cómo usar Deep Research
- Modo de voz avanzado
- Qué modelo usar en cada situación
¿Qué Sigue?
Ahora que dominas todos los conceptos básicos, podemos dar el siguiente paso. Vamos a construir nuestra propia aplicación RAG:
- Primero: Lo haremos de forma sencilla en la interfaz de ChatGPT
- Después: Profundizaremos cada vez más en el lado técnico de desarrollo
Si este curso te ha sido útil hasta ahora, no dudes en compartirlo con un amigo. ¡Nos vemos en la siguiente sección porque ahora empezamos a construir!