Guía simple de términos de IA: de LLMs a alucinaciones

Guía simple de términos de IA: de LLMs a alucinaciones


La inteligencia artificial está por todas partes y con ella vino un tsunami de palabras nuevas que a veces parecen sacadas de una película de ciencia ficción. Si alguna vez escuchaste términos como “LLM”, “hallucinations” o “prompt engineering” y pensaste “¿qué onda con esto?”, no estás solo. La mayoría de los latinos que llegamos a USA hace poco nos encontramos con esta jerga sin advertencia previa.

Aquí viene lo bueno: no necesitas un doctorado en informática para entender estas palabras. Son conceptos simples explicados de formas complicadas, y vamos a arreglarlo ahora mismo.

Los términos básicos que debes conocer

LLM: el motor que mueve ChatGPT

LLM significa “Large Language Model” o “modelo de lenguaje grande”. Imagina que es como un estudiante que leyó millones de libros, artículos e internet completo, y ahora puede predecir cuál debería ser la siguiente palabra en cualquier frase que escribas.

No entiende como tú y yo, pero es increíblemente bueno detectando patrones. Es la razón por la que ChatGPT llega a tu carro con Apple CarPlay y puede ayudarte mientras manejas.

Hallucinations: cuando la IA se inventa cosas

Las “alucinaciones” son cuando la IA te da una respuesta que suena perfecta, pero es completamente falsa. No es que esté siendo malvada; es que está tratando de ser útil pero se equivoca con confianza.

Ejemplo: le preguntas a ChatGPT sobre un evento que pasó hace poco, y te da detalles específicos que nunca sucedieron. La IA alucinó. Es como cuando tu tía cuenta una historia que “recuerda perfectamente” pero todos saben que la inventó en el camino.

Prompt Engineering: el arte de hacer preguntas

Este término suena complicado pero es simple: prompt engineering es aprender a hacer preguntas de la forma correcta para obtener mejores respuestas de la IA.

En lugar de decir “cuéntame sobre IA”, podrías decir “explícame cómo funciona la IA de una forma que un niño de 10 años pudiera entender”. La segunda pregunta casi siempre te da un resultado mejor.

Términos que aparecen constantemente

Token

Un token es una pieza pequeña de texto. Cuando usas ChatGPT o Gemini, no pagan por palabras, pagan por tokens. Generalmente, 4 tokens equivalen a más o menos una palabra en inglés.

¿Por qué importa? Porque empresas como Google que lanzó Gemini Flash-Lite cobran por millones de tokens, no por uso general.

Fine-tuning

Fine-tuning es cuando tomas un modelo de IA ya entrenado y lo “ajustas” con tus propios datos para que sea especialista en tu área específica.

Imagina que tienes un modelo general de IA, pero quieres que sea experto en tu negocio. Entonces lo entrenas más con información tuya. Es como llevar un carro genérico al mecánico para que lo personalice.

Inference vs. Training

Training es cuando la IA aprende, cuando se alimenta de datos y desarrolla sus habilidades. Inference es cuando ya aprendió y ahora está respondiendo tus preguntas.

Cuando usas ChatGPT, estás en la fase de “inference”. La IA ya fue entrenada hace tiempo y ahora solo está usando lo que aprendió para ayudarte.

Lo que realmente necesitas entender

La verdad es que toda esta jerga existe porque la IA es relativamente nueva y la industria aún está inventando términos sobre la marcha. Algunos van a desaparecer en cinco años, otros van a ser estándar.

Lo importante es que entiendas que cuando empresas valoran modelos de IA en miles de millones de dólares, no es por magia: es porque tienen sistemas entrenados para hacer cosas específicas y hacerlas bien.

La próxima vez que escuches a alguien usando estos términos en una conversación tech, ya sabrás qué significa. Y si alguien te suelta una palabra que no conoces, simplemente pregunta. Créeme, ningún experto de verdad se enoja por eso.

¿Hay algún término de IA que hayas escuchado últimamente y no hayas entendido? Cuéntame en los comentarios y lo explicamos juntos.


Comentarios