Publicidad
Las manos invisibles que guían la carrera de la IA

Las manos invisibles que guían la carrera de la IA

Publicidad
Joaquim Giannotti
Por : Joaquim Giannotti director del Núcleo de Ciencias Sociales y Artes U. Mayor.
Ver Más

Una búsqueda rigurosa de una IA responsable —una que trascienda el mero “lavado ético”— debe examinar minuciosamente todo el proceso de producción.


Gemini 3 de Google ha disipado rápidamente cualquier idea de que la carrera armamentística de la inteligencia artificial se esté desacelerando. Marca un hito significativo, demostrando una comprensión contextual, capacidades multimodales y precisión fáctica enormemente mejoradas en comparación con sus predecesores. Sin embargo, la mera velocidad de esta aceleración tecnológica exige una aceleración proporcional en nuestros marcos éticos.

Si bien los principios de IA declarados por Google proporcionan una base necesaria para promover una tecnología segura y beneficiosa, las garantías corporativas de alto nivel a menudo oscurecen la cruda realidad de la producción. Existe un aspecto crítico, a menudo deliberadamente ignorado, de la cadena de suministro de IA que amenaza la integridad de toda la empresa: las implicaciones morales y epistemológicas del “nivel humano”.

Esto implica la labor esencial, aunque a menudo considerada prescindible, de los anotadores humanos. Estos miles de trabajadores invisibles se encargan del aprendizaje por refuerzo a partir de la retroalimentación humana, esencialmente prestando su juicio para enseñar a los chatbots las respuestas correctas en ámbitos tan diversos como la medicina, la arquitectura y la astrofísica. 

Son las barreras diseñadas para evitar que los modelos generen resultados perjudiciales. Sin embargo, como revelan investigaciones recientes de The Guardian y otros, esta labor crucial se externaliza con frecuencia en condiciones precarias. Los anotadores suelen enfrentarse a intensas presiones de tiempo, reciben salarios crónicamente bajos y, en ocasiones, carecen de la experiencia específica necesaria para realizar evaluaciones objetivas.

Esto no se trata simplemente de un problema de derechos laborales; es una falla fundamental del propio producto de IA. Estas evaluaciones humanas son la base para alinear las respuestas del modelo. 

Si la información de entrada se ve comprometida por la fatiga, la falta de experiencia o incentivos económicos perversos, el resultado está necesariamente corrompido. Nos enfrentamos a un riesgo epistemológico inminente: ¿Cómo podemos confiar en el brillante resultado de una IA si no podemos confiar en el esfuerzo de los humanos que participan en su ciclo de desarrollo?

Una búsqueda rigurosa de una IA responsable —una que trascienda el mero “lavado ético”— debe examinar minuciosamente todo el proceso de producción. Debemos reconocer que las deficiencias en seguridad y precisión factual a menudo no son misteriosos “accidentes artificiales”, sino fallas muy humanas incentivadas por una carrera por la supremacía que prioriza la velocidad sobre el desarrollo sostenible.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad