Cuando hablamos de temas relacionados a Inteligencia artificial como son machine learning, Deep Learning y Modelo Inteligentes en general, estamos hablando de areas innovadoras que se esperan que continuen mejorando este año 2025, así que con el fin de que puedan tener una idea de que es lo que nos depara este año en cuanto a avances de Inteligencia artificial, pues en este videos veremos 5 tendencias de IA para este 2025.
empecemos.
1. Modelos Muy grandes y modelos muy pequeños
Los LLM o Large Language Modelos que muchos usamos a diario a traves de chats como ChatGPT, consiten en modelos entrenados con muchos parametros y que son refinados durante un proceso de entrenamiento.
Y actualmente es normal que muchos LLM usan al rededor de 1 a 2 billones de parametros, pero este año se espera que la siguiente generacion de modelos sean mucho mas grandes en cantidad de parametros, asi que podrian estar rondando los 50 billones este año, lo que mejoraria el procesamiento del lenguaje natural con una más alta precisión.
Ahora estos modelos obviamente van a venir por parte de empresas grandes como OpenAI, Anthropic, Google, Microsoft y muchos otras más, que tienen bastante recursos como infraestructuras de la nube gigantes para crear este tipo de modelos, pero asi como se esperan que hayan modelos mas grandes tambien se esperan que existan modelos mucho mas pequeños que puedan ejecutarse en computadores con menos potencia.
Y estos modelos pequeños pueden tener tamaños de agunos millones de parametros tan solamente. lo que quiere decir que estos modelos no necesitan grandes data centers GPUs Apilados para poder operar, sino que pueden ejecutarse en tu laptop o incluso hasta tu telefono.
Y de hecho si quieres probar estos modelos pequeños justo ahora, tambien hay proyectos como Ollama, que te permiten instalar multiples modelos pequeños en tu computador.
2. Agentic AI
Cuando hablamos de Agentic AI, basicamente hacemos referencia a agentes inteligentes, los cuales son programas de IA que intentan ser lo mas autonomos posible, en el sentido que si le das una tarea estos pueden llegar a hacer todo el trabajo por ti sin que tu tengas que hacer nada.
Por ejemplo si llegas a pedir algo como crea un videojuego, este ya no solo es un chat que te da el codigo, sino que el intenta navegar en pantalla, hacer clicks, crear archivos, descargarlos, crear el codigo, ejecutarlo, probarlo y corregirlo hasta que funcione, es decir crea todo un flujo de trabajo mas complejo para llegar a cumplir la tarea inicial que le has dado.
Pueden ejecutar multiples modelos y ya terminando el año estan apareciendo servicios que ofrecen este tipo de funcionalidades, una de los mas populares ha sido Devin, este año que es un Ingeniero IA que al final no es mas que un servicio de agentes inteligentes enfocados en programacion
Y en el 2025 se esperan que aparezcan mucho mas frameworks, herramientas, y nuevas tecnicas para crear aplicaciones basadas en Agentic AI, y esto es la tendencia al parecer porque empresas de IA como Google ya estan preparando sus modelos para este uso
Y en cuanto a desarrollo de momento tambien ya tenemos formas de crear Agentes inteligentes gracias a proyectos como CrewAI, Langflow, Langraph, o Phidata
3. Inference Time Compute
con modelos tipicos, cuando un usuario hace una consulta, la informacion es procesada durante el entrenamiento y almacenada en peisos o weights.
pero los nuevos modelos AI estan exteniendo ese proceso de inferencia para tomar un poco mas de tiempo en "pensar" antes de darte una respuesta, y esta cantidad de tiempo que un modelo toma se le llama "Inference Time Compute", y este tiempo puede variar dependiendo de que hayas preguntado. Y en teoria a mas tiempo este permitido para tomar una decision, mejor sera la precision del modelo.
por lo que una pregunta simple puede tomar unos segundos y una complicada minutos
Y algo interesante tambien es que el razonamiento inferido es algo que puede ser ajustado o mejorado sin tener que entrenar el modelo que esta por debajo.
asi que con esto los modelos nuevos tienen dos formas de poder mejorar, uno es con mejores datos al momento de ser entrenados y la otra es con mas tiempo para poder inferir una mejor respuesta.
4. Mejora de Infraestructura para IA
Asi como cuando despliegan aplicaciones hacen uso de servicios de la nube, y tienen opciones como Vercel, Railway, Render.com, Heroku y muchos otras plataformas PaaS (Platform as a service) más.
Este año se espera que haya muchos mas servicios de la nube que provean la forma de hacer despliegue de modelos propias de IA usando este mismo modelo PaaS, es decir el poder pagar por GPUs o TPUs a medida que se consumen por los modelos, y que sean faciles de despelgar.
Y a su vez tambien se espera que la nube permita ejecutar modelos de IA mas grandes, Es por esto por ejemplo que empresas como Nvidia estan desarrollando sus propios GPU con su propia arquitectura a la que llaman Blackwell para poder integrarse en servicios de la nube y permitir ejecutar modelos con mas cantidad de parametros gigantescas.
Y todo esto hace que los modelos que ya usamos actualmente ganen mas calidad y mas capacidad tambien, por ejemplo en las primeras etapas de la IA generativas tipicamente en un contexto en una ventana podia contener al rededor de 2000 tokens, mientras que actualmente un modelo puede tener en contexto al rededor de miles, cientos de miles o incluso millones de tokens.
y a este punto ya estamos cerca que un LLM tenga memoria casi infinita, lo que significa que cualquier cosa que le preguntes al Chatbot que uses este podra recordar todo, y esto tiene muchos usos, por ejemplo si tienes un chatbot de atencon al cliente este puede recordar todo lo que preguntastte y sugerirte algo mejor, o simplemente un chat que ya tiene tu historial puede responderte mejor.
5. Human in the loop augmentation
Quizas has escuchado de estudios donde chatbots han sobrepasado el reazonaminto de fisicos, doctores y profesionales que requieren muchos años de estudio en general.
por Ejemplo esta el caso en el que 50 doctores fueron preguntados para diagnosticar condiciones medicas a partir de reportes de examenes, y al presentarle los mismos datos a un chatbot, estos ultimo pudieron obtener mas puntuciones que estos dctores.
Pero lo mas interesante es que en el estudio, a algunos de los doctores tambien se les permitio usar un chatbot para interpretar los datos, es decir que algunos doctores mas el chat tuvieron puntuciones mas bajas aun que cuando el chatbot se le pregunto por si solo.
y esto es la falle de como una IA carece de tomar una mejora humana, porque un experto unido a un sistema ia deberia ser mas inteligentes juntos, que las mismas entidades operando cada una por su lado.
Pero esto puede tener muchas variantes y una puede ser que darle el prompt correcto a un chat puede ser dificil, porque a pesar que dominas el tema no sabes como pedir las cosas correcatmente a un modelo inteligente.
asi que necesitamos mejores sistemas que permitan a profesionales utilizar herrmians de ia en su flujo de trabajo sin que estos tengan que ser expertos en el tema. y de esto se trata mas el area de Human in the loop augmentation, que este año se espera ayude a mejorar muchos de los sistemas que actualmente usamos.
Conclusión
En fin como puden ver estas mejores son el siguiente paso que se espera para este año 2025 en lo que respecta a los LLM, que es el area que mas se promuevo actualmnte en IA a nivel de usuario, y que va a llegar a mejorar otras areas de uso comun como puede ser:
- Mejorar la experiencia de usuario
- Operaciones IT y automatizacion
- Asistentes virtuales
- Ciberseguridad
y se espera que muchas otras areas más, porque por supuesto hay muchas otras areas mas y estoy seguro que ustedes tambien conocen otras, asi que no duden en compartirlas usando la caja de comentarios.