Publicidad
IA generativa: ¿meticulosamente dañina para la ciencia? Opinión

IA generativa: ¿meticulosamente dañina para la ciencia?

Roberto Vera-Salazar
Por : Roberto Vera-Salazar Profesor Asociado Facultad de Ciencias Médicas Miembro del Comité de Ética Institucional Cei/Usach
Ver Más

Una encuesta realizada por Nature el año pasado arrojó que más del 30% de los investigadores encuestados en todo el mundo usó IA generativa para escribir artículos y alrededor del 15% dijo que la había utilizado para sus propias revisiones…


La revista Nature publicó una noticia en la cual se cuestiona si las herramientas de inteligencia artificial generativa estarían corrompiendo la revisión de artículos científicos realizada por pares (“Is ChatGPT corrupting peer review? Telltale words hint at AI use”). 

La comunidad científica parece considerar seriamente ese tipo de preguntas. Para Débora Weber-Wulff, por ejemplo, científica informática en Alemania: “… Las herramientas (de IA) a menudo generan información engañosa o inventada” y lo peor es que “… no podemos saber cuándo (esas herramientas) están alucinando y cuándo no”. El lector comprenderá fácilmente que producir ciencia con información engañosa o inventada y además sin posibilidad de distinguir cuál es cuál, se transforma en lo que usted quiera, excepto en ciencia.

Lo que denominamos revisión por pares (peer review en idioma inglés) corresponde a un procedimiento consistente en analizar críticamente un manuscrito científico por parte de un comité externo de expertos antes de que ese manuscrito se publique en revistas científicas. Pues bien, existe un amplio consenso en que esta manera de revisar trabajos entrega rigurosidad científica al contenido de todo aquello que se publica en el mundo. La misma, está siendo observada de forma crítica, pues, resulta frustrante (“shocking” menciona el artículo de Nature) que esa retroalimentación sea proporcionada por ChatBot y no por humanos. 

Los datos que sustentan esa crítica provienen, entre otras fuentes, de un estudio que lideró W. Liang, un alumno de doctorado en la Universidad de Stanford, cuyo reporte sugiere que el 17% de los informes de revisión por pares ha sido modificado sustancialmente por chatbots desde el lanzamiento de ChatGPT. Por otro lado, una encuesta realizada por Nature el año pasado arrojó que más del 30% de los investigadores encuestados en todo el mundo usó IA generativa para escribir artículos y alrededor del 15% dijo que la había utilizado para sus propias revisiones bibliográficas y para redactar las postulaciones a fondos de investigación.

El estudio de W. Liang también entrega datos acerca de los adjetivos que más se repiten en revisiones por pares después que se lanzara ChatGPT y destaca uno: “Realmente sorprendente”. Este año, desde el soporte bibliométrico de la University College London, mencionan que existe un aumento significativo en el uso de ciertos términos, incluidos “encomiable”, “meticuloso” e “intrincado”, desde que apareció ChatGPT2. Springer Nature (grupo editorial), por medio de su portavoz ha señalado que se solicita a los revisores pares que no carguen manuscritos en herramientas de inteligencia artificial generativa, indicando que estas todavía tienen “limitaciones considerables” y que las revisiones pueden incluir información confidencial o de propiedad exclusiva. Weber-Wulff además no cree que herramientas como ChatGPT deban usarse en ningún grado durante la revisión por colegas, pues a su juicio “la revisión por pares ha sido corrompida por los sistemas de inteligencia artificial”, declara taxativamente. 

Finalmente, parece que, por vez primera, “realmente sorprendente”, “encomiable”, “meticuloso”, no serían adjetivos deseables de leer en nuestras futuras respuestas de colegas revisores.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad

Tendencias