Publicidad
La IA: entre la eficiencia masiva y la integridad ética Opinión Crédito foto: freepik, imagen referencial

La IA: entre la eficiencia masiva y la integridad ética

Publicidad
Jacqueline Concha
Por : Jacqueline Concha directora de Innovación de la Universidad de Valparaíso
Ver Más

La integridad en la era de la IA ya no puede basarse en la prohibición, sino en la transparencia.


La inteligencia artificial (IA) ya no es ciencia ficción; es el motor invisible que está rediseñando la producción de conocimiento. Hoy, esta tecnología no solo asiste, sino que a menudo protagoniza la formulación de proyectos de investigación, la redacción de marcos teóricos y el diseño de propuestas para concursos públicos. Sin embargo, este avance nos sitúa ante un espejo incómodo: ¿estamos ante una era de eficiencia sin precedentes o frente a la erosión silenciosa de la integridad científica? Nos encontramos en un punto de inflexión donde la velocidad del algoritmo desafía la profundidad del pensamiento humano, obligándonos a redefinir qué significa, en última instancia, ser un creador.

Históricamente, el cine nos preparó para una rebelión de las máquinas marcada por el conflicto físico, como en las distopías de The Matrix o Terminator. En la obra el ser humano vive en una simulación perfecta construida por una inteligencia superior que replica la realidad para mantenernos dóciles. Hoy, la academia enfrenta su propia versión de la “Matrix”: no se trata de máquinas que nos esclavizan, sino de algoritmos que construyen realidades académicas tan perfectas y convincentes que se vuelven indistinguibles del pensamiento humano genuino. Al igual que en la película, el riesgo es habitar una red de conocimiento que parece real pero que no tiene “alma” ni origen humano; un simulacro de ciencia donde los proyectos son impecables en la forma, pero carecen de la chispa de la intuición y el riesgo que solo la conciencia puede aportar. La pregunta académica hoy es, en esencia, la misma que la de Neo: ¿podemos distinguir la construcción artificial de la verdad intelectual?

El primer efecto de esta transformación es, sin duda, cuantitativo. Así lo reconoce la Agencia Nacional de Investigación y Desarrollo (ANID) en convocatorias como el Concurso IDeA I+D 2026, donde se advierte que la inteligencia artificial ha incrementado de manera significativa el volumen de propuestas presentadas. Esto se explica porque la IA reduce las barreras tradicionales asociadas a la redacción, la síntesis de datos y la revisión bibliográfica. Como consecuencia, hoy ANID gestiona un flujo creciente de postulaciones relevantes, lo que plantea nuevos desafíos para los sistemas de evaluación y selección.

Como advierte Shen et al., 2025, en el estudio “Tackling the AI-Creativity paradox: ¿How educational innovation and knowledge unlocks positive-sum dynamics?” el exceso de automatización genera un riesgo de “mimetismo intelectual“. La IA, al alimentarse de patrones de éxito de bases de datos pasadas, tiende a replicar estructuras y enfoques que ya sabe que “funcionan” ante los pares evaluadores. Esto puede empujar a la academia hacia una estandarización peligrosa, donde la creatividad disruptiva, aquella que suele romper las reglas establecidas para generar nuevos paradigmas, desaparece en favor de una eficiencia algorítmica pulida pero vacía.

Sin embargo, el potencial positivo es innegable. La IA bien utilizada permite revisar y sintetizar volúmenes masivos de datos para encontrar el “patrón común” de la ciencia. El investigador ya no necesita invertir meses en la revisión manual de literatura; la IA puede detectar brechas de conocimiento que a un humano le tomaría un tiempo relevante en identificar. El valor real, por tanto, no está en que la IA escriba el proyecto, sino en usarla en forma adecuada y responsable con el propósito que proporcione un mapa preciso para que el humano formule la pregunta que la máquina aún no sabe imaginar.

En los espacios académicos se habla con una esperanza mal informada sobre los “detectores de IA“. Existe la creencia de que un software podrá separar el trigo de la paja. La realidad técnica, amparada por diversos estudios, es que los modelos de lenguaje actuales son tan sofisticados que pueden camuflar su rastro estadístico, haciendo que la detección automática sea intrínsecamente difícil e incierta. No hay detector infalible para una mente humana asistida por un buen prompt.

Esto nos obliga a desplazar el peso de la fiscalización hacia la responsabilidad declarativa del investigador. La integridad en la era de la IA ya no puede basarse en la prohibición, sino en la transparencia. Como plantea el estudio “The impact of AI capability on responsible innovation in high-tech SMEs from the perspective of the knowledge-based view”  sobre innovación responsable de Teng et al. (2026), el investigador tiene hoy el deber moral de reconocer explícitamente el uso de estas herramientas: qué se consultó, qué se redactó y qué se sintetizó mediante algoritmos. No se trata de una falta; es el nuevo estándar de honestidad científica. La transparencia es el único riel que garantiza que el progreso sea verdaderamente responsable y auditable.

Por otra parte, la gestión de la IA en la educación superior y el sistema científico no puede ser un esfuerzo solitario de los investigadores ni una imposición rígida y punitiva del Estado. Como revela el estudio de Zhu et al. (2026), titulado “Regulation and innovation: Unveiling the quadruple-helix-innovation ecosystem of generative AI”, estamos ante un desafío que requiere una composición precisa entre cuatro actores fundamentales. Este modelo de Cuádruple Hélice sugiere que la verdadera transparencia y el éxito en el uso de IA no se alcanzan por la vía de la sospecha permanente, sino que nacen de la intersección estratégica entre actores con responsabilidades diferenciadas y complementarias: un Gobierno que provea marcos legales y bases de concursos que incentiven la honestidad por sobre la detección punitiva; una academia que actúe como el faro ético y crítico que guía la formación de los nuevos investigadores; una industria comprometida con el desarrollo de herramientas que garanticen la trazabilidad de los datos y el respeto a la autoría; y una sociedad civil que demande que los fondos concursables premien soluciones reales orientadas al bienestar público, y no solo documentos técnicamente impecables escritos por máquinas.

Solo superando las respuestas parceladas lograremos orientaciones que sean tan innovadoras como las herramientas que pretenden guiar. La adopción de la IA es heterogénea entre disciplinas y trayectorias académicas, por lo que las reglas deben ser flexibles pero firmes en su base ética.

 

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad