Publicidad
La inteligencia artificial y la píldora Opinión

La inteligencia artificial y la píldora

Publicidad
Alejandro Reyes Vergara
Por : Alejandro Reyes Vergara Abogado y consultor
Ver Más

Infórmate bien y aprende a usar la IA: buenos prompts, verificación de fuentes y datos, poner límites éticos claros para ti y exigirlos a otros. No confíes ni descanses totalmente en sus resultados.


Imagina que las farmacéuticas lanzan una píldora capaz de curar 50 enfermedades, pero con contraindicaciones serias. Es una industria regulada y fiscalizada, así que antes de venderse, pasaría por ensayos, aprobación sanitaria y etiquetas de advertencia. Su uso sería muy restringido, con exámenes previos, receta médica retenida y monitoreo constante. Si la píldora causa daños graves, se retira.

Ahora piensa que esa súper “píldora” es la inteligencia artificial (IA): una sustancia cognitiva potentísima, en memoria, velocidad, aprendizaje, escritura, diseño, programación, suplantación de voz e imagen, acceso a información, matemáticas, etc. Sirve para impulsar la ciencia, la salud, algunos aspectos de la educación y sobre todo la productividad. Es realmente impresionante.

Pero esta píldora también tiene contraindicaciones serias: sesgos cognitivos y de información, desinformación, pérdida de muchos empleos o funciones, concentración de poder, dependencias humanas peligrosas, aumento de la desigualdad y la polarización, aumento de los autoritarismos.

Comparemos ambas píldoras. A diferencia de la píldora farmacéutica, la “píldora IA” se lanzó globalmente sin regulaciones, sin gobernanza ni fiscalización, sin prospectos ni usos restringidos, sin receta retenida ni límites de edad, sin monitoreo ni auditorías previas. Es de acceso universal, también para los niños y adolescentes.

Quizás sin darte cuenta, tienes “píldoras IA” en tu bolsillo y sobre tu escritorio hace tiempo, porque la pusieron en tu celular, tu WhatsApp, correo, el PC, el iPad. Casi 1.000 millones de personas ya la usan para divertirse, trabajar, estudiar… pero extrañamente se usa mucho para hacerse “terapia” o “coaching”, asuntos personales, conversación para evitar la soledad y “consejería espiritual”.

Más aun, quizás tampoco sabes que tú trabajas para las industrias de IA, sin contrato y sin paga, porque cuando usas la IA corriges o mejoras los resultados que te arroja. Entonces tú la entrenas, la alimentas de más información y la corriges, lo que es parte de un proceso de entrenamiento de cualquier IA.

La cuestión de la IA no es un falso dilema entre “beneficios o riesgos”, sino que cómo maximizamos los primeros y minimizamos los segundos. Igual que con un fármaco potente.

En mi columna “Inteligencia Artificial: acelerada, desregulada, aterradora” cité a científicos y líderes tecnológicos. Entre ellos, Geoffrey Hinton, uno de los padres del aprendizaje profundo y Premio Turing 2018 y Nobel de Física 2024, que advierte sobre el riesgo de perder control humano sobre sistemas de IA cada vez más capaces. También sigo a Sam Altman, Bill Gates, Mark Zuckerberg, Elon Musk y a los CEO de Google, Microsoft y Nvidia.

Al verlos y escucharlos da la impresión de que varios de ellos parecen pilotear un barco genial y gigante, en el que de hecho vamos con toda la humanidad arriba de ese crucero, un barco muchísimo más grande, potente, veloz e impredecible de lo que ellos jamás imaginaron. Se llegan a sorprender. Hay muchos temas éticos envueltos, porque la IA también da respuestas morales.

¿Cuál es la moral de la IA? ¿Quién la entrena en parámetros éticos? ¿Quién autorizó a las empresas de IA a enseñarle ética a todo el mundo, incluidos los niños y adolescentes?

Pero varios son muy optimistas y confían en la adaptabilidad humana; otros piden frenos. Por ejemplo, en marzo de 2023, el Future of Life Institute promovió una carta para pausar seis meses el entrenamiento de modelos más potentes que GPT‑4 y crear protocolos de seguridad auditables y gobernanza. La firmaron más de mil científicos y empresarios de la IA, entre ellos, Musk y Wozniak. Luego otras decenas de miles. Pero no hubo pausa. Porque o paran todos al mismo tiempo o ninguno, porque si algunos suspenden su carrera y los demás siguen, estos últimos ganan y los primeros pierden.

Pero piénsalo bien: si los científicos y empresarios que crean y empujan la IA están pidiendo frenos y reglas –cosa que jamás pide un empresario, no es porque quieran apretarse los dedos, sino porque están preocupados de verdad de algo cuyo control creen que pueden perder. Creo que un ciudadano sensato al menos debería pensar en esto, informarse, adoptar buenas prácticas y exigir marcos claros.

El ritmo de avance es asombroso y la opacidad real, porque hay una feroz competencia entre empresas y países (EE.UU., China, otros) que dificulta ver el cuadro completo y hacer predicciones objetivas. Aun así, hay señales suficientes para actuar con prudencia.

Si yo tuviera que resumir las cuatro preocupaciones centrales, además de la falta de regulación, gobernanza y control, son en mi opinión:

Riesgo existencial. Si emergen sistemas de IA superinteligente, con capacidades mayores a las humanas en dominios clave, podríamos perder control humano gradualmente en áreas críticas. Hinton y otros piden auditorías, estándares y límites. No es alarmismo: es gestión de riesgos. Según Sam Altman, de OpenAI, ellos llegarán a la superinteligencia en esta década. No es que vaya a amanecer un día una “IA malvada” que nos matará a todos o que se levanta como Frankenstein. No. Será un proceso de evolución, quizás autónomo, que decidirá por sí mismo.

Entonces deja de ser una “herramienta” del ser humano. Hinton y el historiador Yuval Noah Harari se han concentrado en advertir este riesgo “existencial” para nuestra especie, que nos veamos subordinados a la IA. No es que ellos sean unos sádicos metiendo miedo, sino personas brillantes que quieren evitarnos problemas futuros que son evitables.

Desempleo y desigualdad. Informes de McKinsey, FMI, OCDE y el Foro Económico Mundial estiman la afectación del 20% al 50% de tareas/empleos, según sector y país. Suponen que habrá destrucción y creación de empleos al mismo tiempo, pero esa transición puede durar décadas, como sucedió en la Primera Revolución Industrial. Y si no hay reglas, las ganancias económicas por mayor productividad derivada de la IA y menor trabajo humano se las llevarán los grandes inversionistas, creando más desigualdad.

Política y sociedad. Que haya mucho desempleo y beneficios mal repartidos crea un polvorín: erosión democrática, migraciones, polarización y tentaciones autoritarias. Por ejemplo, en la Alemania de los años 30 había un 25% de cesantía y ese descontento nutrió el surgimiento del nazismo y de Hitler. Es una advertencia histórica a tener presente. Pero ahora habrá una diferencia, porque el desempleo en esos porcentajes no se concentraría en uno o cinco países, sino en todo el mundo.

Riesgo moral. La IA da respuesta a preguntas morales y éticas. ¿Cuál es esa ética? ¿Quién la entrena con parámetros éticos? ¿Cuáles son? ¿Quién autorizó a las empresas de IA a enseñarle ética a todo el mundo con esos parámetros?

Antes de que me acusen de alarmista: la IA ya está dando beneficios enormes en medicina, traducción, educación continua, diseño, robótica, programación y actividades rutinarias. Bienvenida sea. Yo también uso la IA generativa y es genial.

¿Qué puedes hacer ahora?

Infórmate bien y aprende a usar la IA: buenos prompts, verificación de fuentes y datos, poner límites éticos claros para ti y exigirlos a otros. No confíes ni descanses totalmente en sus resultados.

No subas a la IA datos personales, empresariales, confidenciales o sensibles.

No le cuentes tu vida, no la uses como terapeuta ni coach. Usa la IA como asistente, no como oráculo; revisa siempre lo que te dice la IA aplicando el criterio humano.

Exige reglas: gobernanza, auditorías independientes, trazabilidad, responsabilidades y educación digital.

Respecto del trabajo, tienes que tener mucha flexibilidad, adaptación, resiliencia y mantenerte en aprendizaje continuo.

Es un gran desafío y una gran oportunidad.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad