GPT-4 es el límite: expertos y figuras como Elon Musk piden pausar el desarrollo en IA para evitar riesgos en la sociedad

A medida que avanza el desarrollo en Inteligencia Artificial, también llegamos al límite que los expertos consideran seguro. Elon Musk, miembro fundador de OpenAI, creadores de ChatGPT, junto con otros expertos en IA, han lanzado un comunicado bastante alarmista que pone sobre la mesa cuáles serán los riesgos para la sociedad.
Se estima que, por el momento, GPT-4 es el último estándar seguro y la feroz carrera en desarrollo de IA en los laboratorios ha entrado en una fase fuera de control debido a la competencia en la que podría haber consecuencias irreversibles.
Los chats por IA “son un riesgo para la sociedad”
Todo avance tecnológico puede llegar a suponer un riesgo, pero los pronósticos que están teniendo algunos expertos en la materia resultan alarmantes. Hace unos días nos congratulábamos con GPT-4 y sus posibilidades de cara a su implementación en ChatGPT, pero parece que ahí está la barrera entre
En una carta abierta, Elon Musk y un grupo de expertos en Inteligencia Artificial y ejecutivos de la industria piden una pausa de seis meses en el desarrollo de sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI: “Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.
Los motivos para solicitar esta pausa en el desarrollo son que se considera que pueden plantear riesgos profundos para la sociedad y la humanidad. “La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, e incluso en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.
Una pausa de 6 meses es necesaria
Teniendo en cuenta que efectivamente la competencia por desarrollar sistemas potenciados mediante Inteligencia Artificial es el nuevo boom en el que están entrando a formar parte un montón de nuevos actores, se solicita una moratoria de 6 meses.
Los motivos para ello surgen de una serie de interrogantes sobre cómo podría llegar a evolucionar esta tecnología, con algunos de ellos más cercanos a Skynet en Terminator: “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y que nos dejen obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.
Es ante estos temores por lo que se solicita a todos los laboratorios de IA que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. De hecho, se urge tanto a que se produzca, que, si no se produce tal pausa a nivel privado en cada caso, consideran que los gobiernos deberían intervenir e instituir una moratoria.
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.