
Ciencia e inteligencia artificial: tecnología versus conciencia
El crecimiento exponencial de la tecnología no será verdadero desarrollo hasta que la responsabilidad y la conciencia de su uso nos lleven a una ética representativa.
La inteligencia artificial (IA) ya se ha instalado en nuestras vidas cotidianas, mucho antes de que tengamos plena conciencia sobre qué es y cómo funciona.
Diversas disciplinas científicas han encontrado gran potencial en algunas ramas de la IA, como Machine Learning (ML) y Deep Learning (DL), herramientas desarrolladas sobre la base de algoritmos de aprendizaje automático inventados desde datos de entrenamiento.
Por ejemplo, en ecología la colección constante de información desde tecnologías de observación genera grandes volúmenes de datos temporales, que pueden ser manejados eficientemente por herramientas de ML y DL desarrollados sobre la base de un alcance y enfoque limitados a la pregunta de investigación.
En el caso de la ciencia antártica, existe un amplio despliegue de cámaras trampa destinadas al registro automático de cambios poblacionales en colonias de aves marinas, donde implementar métodos de conteo automatizado a través de herramientas de DL origina una oportunidad de complementar monitoreos de estatus y tendencia de poblaciones consumidoras de kril, información relevante para la toma de decisiones en torno a la pesquería.
Pero ¿qué pasa cuando, al pedir una tarea a la IA, esta la hace mal?
Entender el continuo desarrollo de la tecnología representa un desafío para todas las generaciones digitales. Pues, aunque existen generaciones de nativos digitales, la conciencia sobre el funcionamiento de las nuevas tecnologías es una brecha transversal que dificulta la ética y responsabilidad sobre su uso.
Por ello, antes de usar una IA se deben evaluar las condiciones de aplicación, prioridades, valores y brechas, con el fin de no perpetuar los sesgos que pueden estar presentes en su creación.
Además, la IA se construye sobre las ideas mayormente representadas, muchas veces omitiendo sectores subrepresentados, por ejemplo, aquellos con menos acceso a la red global, exponiendo respuestas sesgadas originadas sobre brechas y alta probabilidad.
Por otra parte, la IA no puede determinar la veracidad de lo que expone y en infinidad de ocasiones entrega resultados inesperados y sin sentido, con errores gramaticales, ideas absurdas o citas inexistentes, lo que se ha llamado “alucinaciones”.
A pesar de las dificultades antes expuestas, la IA y sus ramas actualmente se posicionan como superherramientas que aceleran y potencian el trabajo, redefiniendo los límites de la creación, pero que aún deben ser vistas como asistentes rápidos y creativos, pero sin juicio crítico y que, por lo tanto, requieren tiempo de supervisión para resguardar la calidad y seguridad del producto final.
El crecimiento exponencial de la tecnología no será verdadero desarrollo hasta que la responsabilidad y la conciencia de su uso nos lleven a una ética representativa.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.