Terminología de IA: ML, DL y LLM explicados
- apuntiturull
- 1 may
- 6 Min. de lectura
En los últimos años, el auge de la Inteligencia Artificial Generativa ha traído consigo una avalancha de términos de moda como IA, Aprendizaje Automático, Aprendizaje Profundo y Modelos de Lenguaje de Gran Tamaño. Aunque estos conceptos se utilizan con frecuencia, a menudo se malinterpretan y se emplean de forma intercambiable, lo que dificulta comprender sus diferencias reales. Este artículo tiene como objetivo aclarar esa confusión explicando las diferencias clave entre estas tecnologías y por qué es importante entenderlas.
¿Qué es la Inteligencia Artificial?
Comencemos abordando la pregunta clave: ¿qué es la inteligencia artificial? La IA es un concepto amplio que hace referencia a diversas técnicas diseñadas para replicar la lógica, los procesos y la inteligencia humana en máquinas, algoritmos o “cerebros” artificiales. Estas técnicas pueden agruparse en cuatro grandes áreas, cada una de ellas un subconjunto más avanzado de la anterior: inteligencia artificial (IA), aprendizaje automático (ML), aprendizaje profundo (DL) y modelos de lenguaje de gran tamaño (LLM).

En este artículo, exploraremos cada uno de estos campos en orden cronológico y con niveles crecientes de complejidad. Para replicar la lógica humana, la IA puede utilizar enfoques que van desde sistemas basados en reglas —donde se programan explícitamente las instrucciones en la máquina— hasta métodos más avanzados que permiten al sistema aprender esas reglas a partir del análisis de datos con patrones implícitos y complejos.
El recorrido de la IA comienza con el enfoque más simple: la IA basada en reglas y los algoritmos, que sirven como base para técnicas más sofisticadas.
IA Basada en Reglas
La forma más tradicional de IA consiste en crear algoritmos basados en reglas. Estos algoritmos siguen instrucciones predefinidas para replicar el razonamiento humano. Por ejemplo, si quisiéramos identificar si una imagen contiene un perro, podríamos elaborar una lista de características faciales definidas previamente. Estas podrían incluir rasgos como “orejas puntiagudas”, “hocico”, “nariz húmeda” y “bigotes”. A continuación, analizaríamos la imagen para comprobar si presenta estas características faciales específicas. Si la imagen coincide con la mayoría de los rasgos predefinidos, podríamos clasificarla como una imagen que contiene un perro. Si carece de esas características clave, la clasificaríamos como una imagen sin perro.

En la IA basada en reglas, tenemos control total sobre la lógica del algoritmo. Sabemos exactamente cómo procesa la información y por qué toma decisiones específicas. Este tipo de IA se ha utilizado ampliamente, desde la regulación de termostatos hasta la guía de robots, e incluso impulsó a Deep Blue, el programa de ajedrez que derrotó al campeón mundial Garry Kasparov en 1997.


Estos algoritmos pueden basarse desde lógicas simples hasta procesos de decisión complejos que incluyen modelos matemáticos y estadísticos altamente sofisticados para realizar una tarea. Sin embargo, los algoritmos basados en reglas tienen una capacidad limitada para aprender o adaptarse. Si necesitamos que el sistema se comporte de manera diferente, debemos modificar o añadir manualmente nuevas reglas. Esto contrasta fuertemente con los sistemas de IA más avanzados, como los impulsados por el aprendizaje automático, que pueden adaptarse y aprender a partir de los datos.
Aprendizaje Automático (ML)
El Aprendizaje Automático (ML) es un subconjunto de la IA que permite a las computadoras aprender a partir de datos sin necesidad de programar explícitamente cada tarea. En lugar de proporcionar reglas predefinidas, suministramos ejemplos —como imágenes etiquetadas con “contiene perro” o “no contiene perro”— y el ordenador aprende patrones a partir de esos datos para tomar sus propias decisiones. En este proceso, controlamos cómo aprende la IA, pero no exactamente qué aprende.

Los desarrolladores en ML configuran el marco de aprendizaje, pero es el propio sistema el que descubre la lógica subyacente. Para modificar su comportamiento, introducimos nuevos datos en lugar de reescribir las reglas. Aunque tenemos control sobre el proceso de aprendizaje y los datos de entrada, perdemos la capacidad de gobernar directamente las decisiones específicas que toma el algoritmo. El aprendizaje automático incluye una amplia gama de modelos, cada uno adecuado para aprender diferentes patrones en los datos. Cuando hablamos de ML tradicional —en contraposición al aprendizaje profundo— nos referimos comúnmente a modelos como la regresión, los árboles de decisión o XGBoost.
Estos modelos suelen construir árboles de decisión complejos basados en los datos proporcionados, lo que los hace mucho más adaptables que los sistemas basados en reglas. En lugar de definir manualmente la estructura del árbol, como haríamos en un enfoque basado en reglas, el modelo aprende de forma autónoma las “decisiones” más eficaces en función de un conjunto de entradas y el resultado deseado. Durante el entrenamiento, afina esas decisiones para alinear mejor los resultados con el objetivo previsto, aprendiendo a partir de un conjunto diverso de ejemplos de entrada y salida.
Por ejemplo, pensemos en un modelo de aprendizaje automático diseñado para clasificar objetos en función de sus características, como el tamaño del diámetro y el color. Primero, extraemos las características relevantes del conjunto de datos (por ejemplo, diámetro del objeto y color). Luego, el modelo utiliza estas características para dividir los objetos en distintas categorías. Podría, por ejemplo, realizar una primera división basada en el tamaño del diámetro, y luego refinar la clasificación utilizando el color. Al entrenar el modelo con ejemplos etiquetados, este aprende a clasificar con precisión nuevos objetos en función de esas características.

Los modelos de ML se utilizan ampliamente en aplicaciones como recomendaciones de productos, previsión de demanda energética y evaluación del riesgo crediticio. Estos modelos aprovechan datos históricos y patrones de comportamiento similares para predecir resultados futuros. Sin embargo, a medida que los datos se vuelven más complejos, resulta cada vez más difícil comprender plenamente cómo estos sistemas llegan a sus conclusiones. Existen ciertas tareas que, a menudo, requieren intuición o sentido común, y que incluso árboles de decisión altamente sofisticados tienen dificultades para manejar. Es aquí donde el Aprendizaje Profundo (Deep Learning) sobresale, al abordar las limitaciones del ML tradicional mediante la detección de patrones más complejos en los datos.
Aprendizaje Profundo (DL)
El aprendizaje profundo, un subconjunto del aprendizaje automático, va un paso más allá al utilizar redes neuronales artificiales inspiradas en el funcionamiento de las neuronas biológicas. Estas redes pueden aprender patrones complejos que antes eran imposibles de detectar. Por ejemplo, un modelo de aprendizaje profundo encargado de analizar emociones en un texto no se limita a contar palabras; comprende las relaciones entre ellas, el contexto e incluso matices como el sarcasmo y el humor.


La forma en que operan los modelos de aprendizaje profundo es altamente compleja. Cada capa de la red neuronal procesa los datos de manera diferente, lo que dificulta entender con precisión cómo se toman las decisiones. A estos modelos se les suele llamar “cajas negras” porque, aunque podemos ver las entradas y las salidas, el funcionamiento interno permanece opaco. Esta falta de transparencia resulta especialmente preocupante en sectores de alto riesgo como la salud, las finanzas y el ámbito legal. Confiar en decisiones tomadas por una IA sin una justificación clara —especialmente cuando esas decisiones pueden afectar profundamente la vida de una persona— conlleva riesgos significativos. En estos sectores, donde la explicabilidad es crucial, se está prestando cada vez más atención al desarrollo de herramientas y técnicas que permitan comprender mejor cómo los modelos de aprendizaje profundo llegan a sus conclusiones. Sin embargo, lograr una transparencia total en estos sistemas sigue siendo un reto.

A pesar de su complejidad, los modelos de aprendizaje profundo son extremadamente potentes y se utilizan ampliamente en aplicaciones como el reconocimiento de voz, el análisis de imágenes y la clasificación de textos. Ejemplos reales incluyen los coches autónomos, la inspección automática de calidad en líneas de producción, el filtrado de correos electrónicos no deseados y la monitorización del tráfico mediante cámaras inteligentes.
Una de las aplicaciones más destacadas del aprendizaje profundo es en el procesamiento del lenguaje natural, donde los modelos de lenguaje de gran tamaño (LLM), como ChatGPT, han revolucionado la forma en que procesamos texto hasta ahora.
Modelos de Lenguaje de Gran Tamaño (LLM)
Los LLM son sistemas de IA especializados en comprender y generar lenguaje humano. Pueden realizar tareas como clasificar, resumir e incluso crear texto. Pero, ¿cómo aprende un modelo de IA las complejidades del lenguaje?

Los LLM se entrenan con enormes cantidades de texto, aprendiendo a predecir la siguiente palabra en una frase, de forma similar a la función de texto predictivo en un teléfono inteligente. Al predecir palabra tras palabra de manera continua, estos modelos pueden generar textos coherentes y contextualmente relevantes.

Sin embargo, los LLM no “entienden” realmente el contenido. Generan texto basándose en patrones encontrados en los datos con los que fueron entrenados, lo que les ha valido el apodo de “loros estocásticos”: repiten patrones en lugar de comprender significados. El proceso de toma de decisiones de estos modelos es altamente complejo, involucrando miles de millones de parámetros que se ajustan durante el entrenamiento, lo que hace imposible explicar con exactitud por qué eligen una palabra sobre otra.
Esta complejidad plantea desafíos en el control ético del uso de la IA. Las empresas están invirtiendo fuertemente en métodos para guiar el comportamiento de estos sistemas, pero todavía estamos lejos de tener un control completo.
Conclusión
La inteligencia artificial tiene el potencial de transformar nuestra vida cotidiana y la forma en que funciona el mundo. Sin embargo, es importante reconocer que la IA no es una solución universal. Engloba una amplia variedad de tecnologías, cada una con sus propias fortalezas y aplicaciones. Comprender las diferencias entre estas tecnologías es clave para elegir el enfoque adecuado para cada desafío específico. Los distintos métodos de IA requieren diferentes volúmenes y tipos de datos, así como procesos particulares para entrenar y optimizar modelos según la tarea a realizar. El primer paso para aprovechar eficazmente el poder de la IA es adquirir una comprensión clara de los diversos campos que conforman esta disciplina amplia y en constante evolución.