Como Actualmente muchas empresas estan en una carrera por desarrollar cada vez mejores Modelos de inteligencia artificial grandes (Large Language Models), en los que encontramos a Microsoft, Google, Nvidia, y estando a la cabeza OpenAI.
Hace solo un día se ha publicado una peticion formal titulada "Pause Giant AI Experiments: An Open Letter" el cual ha llamado bastante la atencion, debido a que basicamente pide que todos los laboratorios de Inteligencia artificial paren las investigaciones de modelos de lenguaje muy grandes o LLM que sean superiores a GPT-4, hasta tener mucha mas confianza que sus beneficios seran mayores que sus riesgos.
Y algo que resalta mucho tambien, es que esta peticion ha sido firmada por personas importantes del sector como Elon Musk el CEO de SpaceX, Tesla y Twitter, Steve Wozniak, cofundandor de Apple, ademas de una lista bastante grande de investigadores de distintas universidades y laboratorios en el campo que mencionare en breve.
Ahora muchos han malentendido tambien la peticion pensado que esta pida que paren todas las investigaciones de IA hasta nuevo aviso, y en realidad lo unico que menciona es que paren las investigacion por un plazo de 6 meses relacionadas a modelos que son mucho más grandes que GPT-4, es decir no habla de parar GPT-4, sino basicamnte estariamos hablando parar la investigacion de GPT-5 o modelos equivalentes que vengan por parte de todas las empresas que estan compitiendo como lo seria Google, Microoft, y similares, y que estas continuen cuando se haya hecho desarrollado protocolos que permitan a sistemas de IA ser más precisos, seguros, confiables y sobretodo leales.
Nombres importantes
Y a pesar que se menciona a Elon Musk y Steve Wozniak en esta carta y que de cierta forma ellos esta relacionado a empresas como Twitter o Apple, lo cierto es que tambien hay nombres muy importantes que han firmado esta peticion, en los que podemos encontrar a:
- Stuart Russell, que es coauthor de uno de los libros mas importantes de IA, llamado "Artificial Intelligence: A Modern Approach"
- Yoshua bengio, ganador del premio turing y pionero del Deep Learning
- Victoria Krakovna, investigador Senior en DeepMind (la compañía de inteligencia artificial inglesa)
- Max Tegmark, Cosmologo y profesor del MIT
Por nombrar algunos de una lista muy grande de investigadadoes que forman parte de muchas universidades, laboratorios y personajes pertencientes a al sector tecnologico en general.
¿Porque la peticion?
Ahora, Segun la carta, toodo esto es debido que actualmente muchos laboratorios de inteligencia artificial estan fuera de control en una carrera por desarrollar y desplegar mentes inteligens que nadie, incluso sus propios creadores pueden entender, predecir o controlar completamente.
Asi que el documento plantea las siguientes preguntas:
- ¿debemos dejar que las maquinas inunden nuestros canales de desinformacion con propaganda falsa?
- ¿Deberíamos automatizar todos los trabajos, incluso aquellos que resultan gratificantes?
- ¿deberiamos ariesgarnos a perder el control de nuestra civilizacion?
Es decir la carta denota el miedo a perder el control en un punto, debido a que estas empresas no solo experimentando sino que estan colocando en produccion modelos que no se estan pruebando en su totalidad, y se estan alineando sobre la marcha, debido a que estas estan mas preocupadas en ser los primeros en estas innovaciones.
De hecho la carta tambien cita a varias investigaciones que se han dado a lo largo de estos ultimos años y dias en donde estas podrian sugerir que hay un riesgo potencial a que esto salga de control, de varios modos, por darle un resumen de algunas de estas, tenemos las siguientes investigaciones:
- El libro [The Alignment Problem: Machine Learning and human values], Se basa en numerosas entrevistas con expertos que intentan construir sistemas de inteligencia artificial, en particular sistemas de aprendizaje automático, que estén alineados con los valores humanos.
- GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models, que fue uno de los documento donde se mostro la cantidad de profesiones que serian impactadas en sus tareas por el desarrollo de GPT, y que ya vimos en un vide anteriror
- X-Risk Analysis for AI Research, en donde se menciona multiples riesgos de estos sitemas como usarlos mejorar armas,, o sistemas que con el fin de cumplir sus Objetivos engañan, o fingen su Comportamiento, ademas que muchos estados pueden estar buscando hacerse con el control de este tipo de tecnologia
Y sumando a los papers de OpenAI, y las entrevistas que han dado tanto el CEO San altman, y el CTO, esto solo hace que muchos de los que pueden estan del lado de que las IA son riesgosas, se alarmen mucho más.
Por darles idea, San Altman dijo esto en su ultima entrevista, que este tipo de sistemas podrian generar "problemas de la desinformacion o shocks economicos y para eso no requiere un sistema super inteligente"
o el CTO de openAI tambien dijo que no debemos subestimar la difucltad para alinear modlos que pueden ocultar sus intenciones
por alineacion por cierto se refiere a que el objetivo de una IA no sea el mismo que los de sus creadores, o basicmanete perder el control.
Y a pesar que aqui tan solo estoy mencionado a OpenAI, en realidad esta carta va dirigido a todas las empresas que estan entrando en esta competencia.
Sam altman
Ahora la pregunta mas importante, es posible llevar a cabo esta peticion?
Bueno estando en competencia empresas muy grandes, siendo por ejemplo El producto bandera de Google us buscador y Microsoft intentando ocuparssu puesto, invirtiendo mucho dinero en OpenAI, para acceder a toda su tecnología, al mismo tiempo que el Open Source trata de replicar lo que estas empresas estan logrande y paises como China, tambien estan desarrollando sus propios modelos grandes, es poco probable que estan quieran parar solo por la peticion de algunos pocos
De hecho el cofounder de cursesra y tambien especalista en inteligencia artificial, ha dado putos muy validos de porque esto no es posibe, en donde algo que descata es que se necesitaria la intervencion dle gobierno para hacer cumplir esta demanda, que es poco practica. y que seria mejor invertir mucho más en crear sistemas seguros de IA en lugar parar el progreo actual.
https://twitter.com/AndrewYNg/status/1641121451611947009
Aunque esto de regular las IA, ya es algo que se habia mencionado desde hace mucho tiempo, practicamente desde que empezo, siendo incluso el proposito inicial de OPenAI, y su CEo ya hbia mencionado que evuntualmente se necesitaria de sistemas que lo regular.
conclusion
En fin, a pesar de que puedes estar de acuerdo o en desacuerdo con la peticion de parar las investigaciones, creo que muchos estaran de acuerdo en que el desarrollo abierto de estas tecnologias por ahora, puede conllevar a tener no solo beneficios sino tambien incrementar los riesgos, solo en esta semana por parte del open source y con el afan de alcanzar a gpt-4 tenemos a GPT-4ALL que eun nuevo modelo basado en , o flamingo un modelo visual de deepmind, que los abarcare en su mas detalle en los siguientes videos.
https://github.com/nomic-ai/gpt4all https://wandb.ai/gladiator/Flamingo%20VLM/reports/DeepMind-Flamingo-A-Visual-Language-Model-for-Few-Shot-Learning--VmlldzoyOTgzMDI2
asi que, ¿crees que es necesario parar las investigaciones de modelos mas poderosos de GPT? o ¿crees que esto es posible en primer lugar?