Síguenos

Confusiones frecuentes sobre inteligencia artificial

Este post es una continuación a nuestra Guía de conceptos esenciales sobre inteligencia artificial.

Muchas veces se habla de “entrenar a la IA con nuestros datos”. En el contexto de los LLMs “entrenar” tiene un significado específico, pero no es en el que muchas veces se piensa – generalmente se está pensando “que la IA tenga en cuenta nuestro contexto para darnos respuestas personalizadas”. 

Por esta razón nos parece interesante crear estas “confusiones frecuentes”, para que hablemos con propiedad : 😎Nuestra particular guía de Confusiones Frecuentes sobre Entrenamiento, Modelos y Prompts. 

Confusiones frecuentes...

"Entrenar una IA con datos propios" vs. "Usar Prompts": ¿Cuál es la diferencia?

Esta es una confusión muy común. Muchos creen que para sacar el máximo partido a la IA, necesitan "entrenar" el modelo con sus propios datos. En realidad, en la mayoría de los casos, lo que se necesita es usar buenos "prompts". 

Un prompt es simplemente una instrucción o pregunta que le das a un modelo pre-entrenado para que te dé una respuesta. "Entrenar" implica modificar los pesos internos del modelo, algo mucho más complejo, costoso y que generalmente no es necesario para obtener resultados excelentes. Es como la diferencia entre aprender a cocinar un plato nuevo (entrenar) o simplemente preguntarle a un chef cómo hacerlo (usar prompts).

Fine-tuning vs. Entrenamiento: ¿Son lo mismo?

No, no lo son. El "entrenamiento" desde cero implica construir un modelo desde el inicio, lo cual requiere una gran cantidad de datos, tiempo y recursos. El "fine-tuning" es un proceso más ligero y rápido. Consiste en tomar un modelo ya entrenado y adaptarlo a una tarea específica con un conjunto de datos más reducido. 

Es como si a un atleta de alto rendimiento le dieras un entrenamiento específico para una nueva competición.

"Voy a entrenar un modelo comercial (como GPT)" vs. "Lo uso con prompts":

Aquí hay otra confusión habitual. Los modelos comerciales como GPT o Claude no están diseñados para ser entrenados por los usuarios finales. Las empresas que los crean ya los han entrenado con enormes cantidades de datos y los ponen a disposición de los usuarios a través de APIs. 

Tú no entrenas GPT, sino que lo utilizas mediante prompts. Intentar entrenar un modelo comercial es como intentar cambiar el motor de un avión que ya está en pleno vuelo.

ChatGPT vs la API de OpenAI vs LLMs

Un LLM es el tipo de tecnología de base. Cuando hablamos de LLM muchas veces se está hablando de un modelo específico entrenado por una organización específica. OpenAI es una de ellas, la pionera. ChatGPT es un producto de OpenAI que usa modelos de LLMs propietarios. Cuando tu integras un LLM en un producto tuyo, puedes usar un modelo de OpenAI o de otro proveedor. Incluso un modelo open source desplegado en tu propia infraestructura.

Cuando usas ChatGPT no estás usando un modelo directamente: OpenAI define un prompt intermedio que le dice a ChatGPT cómo debe contestar a tus peticiones (y qué puede contestar).

"¿Es mejor entrenar un modelo open source que usar uno comercial?"

Depende. Los modelos open source ofrecen más control y transparencia. Puedes acceder a su código y adaptarlos a tus necesidades específicas, pero esto requiere conocimientos técnicos y recursos. Los modelos comerciales, por otro lado, son más fáciles de usar, pero ofrecen menos control y flexibilidad. 

La decisión depende de tus objetivos, presupuesto y conocimientos. Es como elegir entre un coche de segunda mano que puedes modificar a tu gusto o uno nuevo que viene listo para usar.

¿Tiene sentido entrenar tu propio modelo desde cero?

En la mayoría de los casos la respuesta es no. Entrenar un modelo desde cero requiere una gran inversión en datos, infraestructura y talento. Solo tiene sentido si tienes necesidades muy específicas que no pueden ser satisfechas con modelos pre-entrenados o si tienes un conjunto de datos único y valioso que justifica esta inversión. 

La mayoría de las empresas y personas pueden obtener excelentes resultados utilizando modelos pre-entrenados y técnicas de prompt engineering.

"Entrenar" vs. "Prompt Engineering": ¿Por qué importa el segundo?

Muchos se obsesionan con la idea de entrenar un modelo y se olvidan del arte de la "ingeniería de prompts". Un prompt bien diseñado puede generar resultados sorprendentes con un modelo pre-entrenado. 

De hecho, la ingeniería de prompts es un campo emergente que busca optimizar la forma en que interactuamos con la IA para obtener la información y los resultados que buscamos. ¡Es como hablarle al genio de la lámpara con las palabras correctas!

El coste de entrenar un modelo de IA: ¿Cuánto es en realidad?

El coste de entrenar un modelo de IA puede ser muy elevado. Depende de la cantidad de datos que se necesiten, la complejidad del modelo, los recursos computacionales (GPU) y el tiempo de entrenamiento. 

Para los grandes modelos, como los que entrenan las grandes empresas, los costes pueden ascender a millones de dólares. Por lo tanto, antes de embarcarte en un proyecto de entrenamiento, es fundamental analizar el retorno de la inversión.

Privacidad y modelos comerciales: ¿Dónde quedan mis datos?

Esta es una preocupación legítima. Cuando usas modelos comerciales a través de APIs, envías tus datos a los servidores de la empresa que ofrece el servicio. Es importante entender las políticas de privacidad de la empresa y cómo tratan tus datos. 

En las condiciones de uso de los grandes proveedores comerciales se suele especificar que los usuarios que utilizan las APIs de pago tienen la garantía de que sus datos no serán utilizados para entrenar el modelo. No siempre ocurre lo mismo si usas las versiones gratuitas. 

Si trabajas con datos sensibles, podrías considerar modelos open source o soluciones que te permitan procesar la información en tus propias instalaciones.

Inteligencia artificial en contratación pública

En Gobierto Contratación, la clave no está en entrenar modelos desde cero, sino en usar modelos fundacionales preexistentes y hacerles las preguntas correctas (con prompts bien pensados). Es la ingeniería de prompts la que realmente hace que nuestra herramienta brille. 

Y cuando hablamos de ingeniería de prompts, realmente la clave es aportar el máximo contexto posible en los prompts. Este tema será el objeto de nuestra próxima guía…

Recursos para aprender más

Si quieres profundizar aún más en el mundo de la IA, te recomendamos los siguientes recursos:

Conclusión

La IA puede parecer compleja, pero con un poco de explicación, ¡se vuelve mucho más accesible! Esperamos que este artículo te haya ayudado a entender los conceptos clave de los LLMs y cómo los aprovechamos en Gobierto Contratación. Si tienes alguna pregunta, ¡no dudes en contactarnos!

May 6, 2025
cerrar
¿Te ha interesado esto? Recibe nuestras novedades
.