Publicidad

Hugo Morales: “Inteligencia artificial funciona como un político que a veces te dice la verdad”

El periodista especializado en tecnología mencionó que la inteligencia artificial (IA) puede ser una disrupción en el aula y provocar un efecto similar al que produjo internet sobre las bibliotecas físicas. Según Morales, es vital conocer el tema del que se está hablando con la IA, ya que puede asegurar que algo es verdad, incluso cuando no lo es. El experto mencionó el caso de Tay, la IA de Microsoft que publicó comentarios racistas y enfatizó la importancia de regular esta tecnología para que represente a todas las minorías.


Esto ya no es ciencia ficción. Líderes tecnológicos de la talla de Steve Wozniak, Yuval Noah Harari o Elon Musk se han unido a una petición que busca paralizar temporalmente los grandes experimentos con inteligencia artificial (IA) por los riesgos que pueden entrañar para la sociedad. De hecho, más de mil personas han firmado ya una petición que busca que los laboratorios de IA detengan “de inmediato y durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.

Pese a la petición, uno que no da puntada sin hilo es Elon Musk, quien, tras solicitar dicha pausa, anunció su nueva empresa X.AI dedicada precisamente a la IA junto con otras herramientas extra. ¿Qué se esconde detrás de esta contradicción?

El periodista especializado en tecnología Hugo Morales abordó el tema en conversación con Mirna Schindler durante el programa Al Pan Pan de El Mostrador Radio. El experto mencionó los peligros y las oportunidades que conlleva el desarrollo de la IA, haciendo un símil con la política. A su juicio, estamos ante un sistema que “solo a veces te dice la verdad”.

La principal innovación, con amenazas y oportunidades, es ChatGPT, el chatbot que se especializa en el diálogo desarrollado en 2022 en San Francisco por OpenAI. Según Morales, su aplicación “podría llegar a ser una disrupción dentro del aula” y producir la misma tensión que se produjo con la aparición de internet en las bibliotecas físicas. En ese sentido, afirmó que lo más importante es la confianza.

“La inteligencia artificial es como un político, te responde con toda la seguridad del mundo, asegura que lo que está diciendo es verdad, pero solo a veces te dice la verdad. Entonces, uno no se puede confiar en lo que te dice la IA, a menos que sepas realmente de lo que estás hablando”, explicó el experto.

Tanto ChatGPT como la IA en general “se alimentan de toda la información de internet y da lo mismo si es buena o mala”, señaló Hugo Morales, junto con afirmar que se puede programar para usarse de mejor manera.

Morales hizo alusión a un experimento de Microsoft llamado Tay, la inteligencia artificial que prometía entablar conversaciones con sus seguidores en las redes sociales. Todo iba bien hasta que el programa publicó frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de insultos racistas.

Ante esto, el especialista en tecnología es categórico: “La inteligencia artificial se tiene que regular para que no se ignoren ciertas minorías y permita que todos se sientan representados”. Por ahora, concluye, la IA representa a un sector “muy occidental” de la población.

Publicidad

Tendencias