Publicidad
Inteligencia Artificial: cuando el miedo no es un buen consejero Opinión

Inteligencia Artificial: cuando el miedo no es un buen consejero

Algoritmos, inteligencia artificial y desafíos humanos merecen una reflexión. No solo se trata de regular o de prohibir su uso como han hecho algunos países. Junto con el esfuerzo de pensar y avanzar en regulación, en forma paralela se debe investigar para tener herramientas para analizar y entender este fenómeno, explorar desafíos y consecuencias. Es esta generación de conocimiento la que nos permitirá tomar mejores decisiones de políticas públicas que protejan y beneficien a las personas, así como entender y definir las formas en que nos vamos a relacionar con las máquinas, en nuestro presente y su desarrollo futuro.


Desde hace tiempo que los seres humanos debemos confirmar a través de un CAPTCHA u otro sistema que no somos un robot interactuando con una plataforma. “No soy un robot” y anotamos un código que solo quienes no somos máquinas podemos identificar.

Es probable que este sistema debamos seguir utilizándolo o que aparezcan otros más complejos según siga avanzando la Inteligencia Artificial (IA), que hoy ha demostrado que es capaz de responder preguntas complejas, resolver pruebas a alumnos abrumados, crear discursos, y diseñar imágenes reales que nos hacen dudar de lo que estamos viendo.

Bard y el ChatGPT son hoy día los máximos representantes de la IA y los desafíos que nos presenta. Y nos provoca miedo. El mismo temor que en algún momento generaron otras tecnologías como el cine, la fotografía, la televisión o los videojuegos. La IA está siendo capaz de generar realidad, lo cual afecta nuestra experiencia humana. A pesar de la inquietud que nos generan sus acciones, debemos recordar que el miedo nunca ha sido un buen consejero.

Algoritmos, inteligencia artificial y desafíos humanos merecen una reflexión. No solo se trata de regular o de prohibir su uso como han hecho algunos países. Junto con el esfuerzo de pensar y avanzar en regulación, en forma paralela se debe investigar para tener herramientas para analizar y entender este fenómeno, explorar desafíos y consecuencias. Es esta generación de conocimiento la que nos permitirá tomar mejores decisiones de políticas públicas que protejan y beneficien a las personas, así como entender y definir las formas en que nos vamos a relacionar con las máquinas, en nuestro presente y su desarrollo futuro.

Hoy más que nunca es necesario actualizar la política de IA que tiene nuestro país y es precisamente en eso en lo que está trabajando nuestro Ministerio de Ciencia, Tecnología, Conocimiento e Innovación.

¿Hacia dónde vamos? ¿Qué relación queremos tener con la IA? ¿Cuáles son sus beneficios y cuáles podrían ser sus peligros? ¿Qué tipo de educación se requiere en este contexto? ¿Cómo avanzar en la reconversión laboral en un contexto de creciente automatización? ¿Qué tipo de áreas profesionales y de investigación requerimos para avanzar en ciberseguridad, desarrollo tecnológico, economía digital y alfabetización digital? Debemos definir esos temas a través de conversaciones públicas, con el sector privado, público, investigadores y sociedad civil, para definir cómo y desde dónde se puede regular, considerando una relación armónica y beneficiosa con las tecnologías inteligentes con base en la justicia social, la igualdad y su aporte al bien público.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad

Tendencias