TLDR
- Los LLMs (Large Language Models) son redes neuronales entrenadas con grandes volúmenes de texto para entender y generar lenguaje natural.
- Utilizan la arquitectura Transformer basada en mecanismos de atención.
- Aquí encontrarás ejemplos de código, admoniciones y otros elementos Markdown para ilustrar su uso.
¿Qué es un LLM?
Un Large Language Model (LLM) es un modelo de inteligencia artificial que ha aprendido patrones del lenguaje gracias al entrenamiento con billones de tokens1. Se utilizan en tareas como chatbots, generación de texto, traducción automática y mucho más.
Arquitectura Transformer
La base de la mayoría de LLMs actuales:
flowchart LR
A[Entrada de Texto] --> B[Embeddings]
B --> C[Atención Multi-Cabeza]
C --> D[Capa Feed-Forward]
D --> C
D --> E[Salida de Texto]
Pasos clave
- Embeddings: cada palabra o token se convierte en un vector numérico.
- Atención Multi-Cabeza: el modelo pondera la relación entre tokens.
- Feed-Forward: capas densas que procesan la información combinada.
- Decodificador: genera el siguiente token.
Ejemplo de uso: OpenAI GPT en JavaScript
import OpenAI from "openai";
const openai = new OpenAI();
async function generarTexto(prompt) {
const response = await openai.chat.completions.create({
model: "gpt-4o-mini",
messages: [
{ role: "system", content: "Eres un asistente útil." },
{ role: "user", content: prompt }
],
});
console.log(response.choices[0].message.content);
}
generarTexto("¿Qué es un LLM?");
Aplicaciones y Casos de Uso
Modelo | Parámetros | Caso de uso |
---|---|---|
GPT-4o-mini | ~20 B | Asistentes conversacionales |
LLaMA 2 | 7 B – 70 B | Clasificación y generación |
BLOOM | 176 B | Investigación abierta |
Buenas prácticas
- Filtrado de datos: limpia tus datos de entrenamiento para reducir sesgos.
- Ajuste fino: personaliza el modelo con ejemplos concretos.
- Evaluación continua: mide calidad y seguridad de las respuestas.
Elementos Markdown adicionales
“La simplicidad es la máxima sofisticación.” – Leonardo da Vinci
Listas anidadas
-
Lenguaje Natural
-
Tokenización
- WordPiece
- Byte-Pair Encoding
-
Atención
-
-
Generación de Texto
Código inline
Para marcar un token usa `<token>`
.
Bloques de código con resaltado
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt-4o-mini")
tokens = tokenizer("¡Hola, LLM!", return_tensors="pt")
print(tokens)
Atajos de teclado
Acción | Atajo |
---|---|
Nuevo archivo | Ctrl+N |
Buscar en repo | Ctrl+Shift+F |
Referencias
Footnotes
-
Radford, A. et al. “Language Models are Unsupervised Multitask Learners.” (2019). ⤴