Publicidad
Yuval Harari y Steve Wozniak lideran llamado de expertos para pausar desarrollo de IA ante numerosos riesgos para la humanidad CULTURA Crédito: Getty Images

Yuval Harari y Steve Wozniak lideran llamado de expertos para pausar desarrollo de IA ante numerosos riesgos para la humanidad

A través de una carta abierta, más de mil expertos y ejecutivos del mundo de las IA, entre ellos el destacado historiador y filósofo Yuval Noah Harari y el cofundador de Apple, Steve Wozniak, solicitaron una pausa “inmediata” de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4. Lo anterior, debido a los riesgos que tendrían para la sociedad y la humanidad, como el aumento de la desinformación, la pérdida de empleos e incluso la posibilidad de la “pérdida de control de la civilización”. “Los sistemas de IA con inteligencia que compite con la humana pueden plantear riesgos profundos, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido”, apuntan. “Esto no significa una pausa para el desarrollo en general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con capacidades emergentes impredecibles y cada vez más grandes”, agregan.


Expertos en inteligencia artificial (IA) y ejecutivos del sector, incluyendo al profesor Yuval Noah Harari y al cofundador de Apple, Steve Wozniak, han solicitado, a través de una carta abierta, una pausa “inmediata” de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4. Lo anterior, debido a los posibles riesgos que podrían tener para la sociedad y la humanidad. Algunos de los efectos negativos mencionados son el aumento de la desinformación, la pérdida de empleos e incluso el riesgo de “pérdida de control de la civilización”.

En concreto, el documento sostiene que “los sistemas de inteligencia artificial potentes deben desarrollarse solamente una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”. Asimismo, detallan los potenciales riesgos para la sociedad y la civilización de los sistemas de IA, como disrupciones políticas y económicas, por lo que se les pide a los desarrolladores que trabajen en conjunto con legisladores y autoridades reguladoras en materia de gobernanza.

La carta abierta propone que durante estos seis meses de pausa, los laboratorios de inteligencia artificial y los expertos independientes “desarrollen e implementen conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados ​​por expertos externos independientes”.

“Los sistemas de IA con inteligencia que compite con la humana pueden plantear riesgos profundos, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido”, apuntan. Además, advierten que ni se monitoriza su impacto ni se gestionan de forma correcta.

El escrito fue emitido por el Future of Life Institute, una organización sin fines de lucro enfocada en garantizar que las transformaciones tecnológicas no sean perjudiciales. En él, se solicita una pausa en el desarrollo avanzado de la IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad compartidos para estos diseños.

Además, se hace un llamado a establecer organismos reguladores, auditorías, sistemas de certificación y a asumir la responsabilidad por los daños causados por la IA. Incluso se sugiere la posibilidad de que los gobiernos intervengan para frenar el desarrollo si no hay una voluntad común de garantizar la seguridad en este ámbito.

El número total de personas que suscribió el documento supera las mil, y entre los principales firmantes se encuentran el consejero delegado de Stability AI, Emad Mostaque, investigadores de DeepMind -propiedad de Alphabet-, el cofundador de Apple, Steve Wozniak, y diversos referentes del sector como Yoshua Bengio o Stuart Russell. A ellos se suman los españoles Carles Sierra y Ramón López De Mántaras, entre otros.

“Pueden causar daños graves. Los grandes actores están siendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse”, ha valorado Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante en declaraciones a Reuters.

Es una carrera “cerrada y fuera de controles” para impulsar inteligencias artificiales que “nadie, ni sus creadores, pueden entender, predecir o controlar fehacientemente”, expone el escrito. “La carta no es perfecta, pero el espíritu es el correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones”, agregó Marcus.

La declaración se produce pocos días después de que Europol expresara su preocupación sobre las implicaciones éticas y legales de las inteligencias artificiales avanzadas como GPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. “Esto no significa una pausa para el desarrollo en general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con capacidades emergentes impredecibles y cada vez más grandes”, sentencian.

Cabe destacar que desde su lanzamiento el año pasado, ChatGPT de OpenAI, apoyado por la empresa Microsoft, ha incentivado a los rivales a acelerar el desarrollo de modelos de lenguaje similares, así como a las empresas a integrar modelos de IA generativa en sus productos. No obstante, Sam Altman, quien está a cargo de OpenAI, no se encuentra entre los firmantes de la carta.

Publicidad

Tendencias