Publicidad
Humanizar la IA, el siguiente paso lógico en la conversación acerca del futuro Opinión Archivo

Humanizar la IA, el siguiente paso lógico en la conversación acerca del futuro

Publicidad
Francisca Arenas R.
Por : Francisca Arenas R. Ingeniera Civil y MBA, Pontificia Universidad Católica de Chile, Corporate Governance, Institute of Directors (IoD), Reino Unido.
Ver Más

Chile ya decidió que la IA será un pilar de su competitividad. Lo que todavía está en juego es el tipo de liderazgo que la va a gobernar: uno que corra detrás de la tecnología, o uno que la ponga explícitamente al servicio de las personas.


En los próximos meses, muchos directorios y equipos ejecutivos van a sentarse en salas llenas para hablar de inteligencia artificial, productividad y futuro. Tres sondeos recientes con mesas directivas en Chile muestran que la IA, junto con la ciberseguridad y la protección de datos, aparece como una de las principales prioridades de los directorios para 2026, pero al mismo tiempo la gran mayoría de los directores declara tener casi nula expertise en el tema. Es decir, sabemos que la IA es estratégica e importante, pero todavía no sabemos cómo gobernarla.

En paralelo, casi todas las empresas tienen acceso a las mismas herramientas, como plataformas de IA generativa, suites de productividad con asistentes integrados, soluciones de analítica avanzada. La pregunta que casi nunca aparece en las presentaciones, pero que sí se escucha en los pasillos que es, si todos tenemos la misma tecnología, ¿dónde está la ventaja competitiva? La respuesta es incómoda pero simple: en la parte humana. No en el modelo, sino en cómo decidimos usarlo. No en la cantidad de datos, sino en el criterio con que los interpretamos. No en la automatización, sino en la calidad de las conversaciones que somos capaces de sostener alrededor de esa automatización.

Cuando hablamos de “humanizar la IA”, imaginamos interfaces amables, chatbots que nos llaman por nuestro nombre o avatares que sonríen. Pero la literatura dice algo distinto y es que la verdadera humanización no ocurre en la pantalla, sino que en el diseño de los sistemas y en la calidad de las decisiones que toman las personas que están detrás.

En las unidades de cuidados intensivos, por ejemplo, ya se habla de un cambio de paradigma hacia sistemas de IA centrados en el humano. Eso significa dejar de pensar en “el modelo” como protagonista y empezar a ver la IA como parte de un sistema socio‑técnico donde el médico sigue siendo el agente moral que decide. Los estudios muestran que, cuando la IA se diseña con los profesionales de salud, respetando su flujo de trabajo y manteniendo opciones claras de supervisión y corrección humana, los resultados clínicos mejoran sin erosionar la autonomía profesional. Esa es precisamente la conversación que falta en muchas empresas: no solo qué modelo elegir, sino cómo diseñar el sistema completo para que la última palabra siga siendo humana, con responsabilidades claras y criterios explícitos.

Si lo llevamos al mundo corporativo, la pregunta es directa: ¿estamos diseñando nuestra IA con la gente que la va a usar o solo con el proveedor que la vende?

Hay un segundo concepto que debería incomodar a cualquier líder, que es el riesgo del “humano disminuido”. Investigaciones recientes muestran que, mientras más delegamos memoria, síntesis o incluso juicio en herramientas de IA, más se atrofia nuestro músculo de pensamiento crítico. Un estudio en el Reino Unido encontró una correlación negativa significativa entre el uso frecuente de herramientas de IA y el desempeño en pruebas estandarizadas de razonamiento y argumentación, mediada por un fenómeno conocido como cognitive offloading que es la tendencia a descargar tareas cognitivas en la máquina en lugar de realizarlas nosotros mismos. El efecto es especialmente más fuerte en personas más jóvenes, justamente quienes hoy están entrando a nuestras organizaciones y que usarán IA de forma masiva en su trabajo diario.

Esto no es un problema abstracto. Una organización que fomenta el uso indiscriminado de IA sin diseñar cómo se protege el pensamiento crítico termina rodeada de profesionales cada vez más dependientes de la pantalla, menos capaces de cuestionar recomendaciones algorítmicas y más vulnerables a sesgos que nadie se detiene a revisar. Para un directorio, esto significa que si normalizamos el uso de IA sin crear espacios para seguir pensando por cuenta propia, empezamos a delegar criterio.

El tercer ángulo es más complejo: la IA que “parece humana”. La investigación sobre antropomorfismo muestra que, cuando un chatbot tiene un avatar más humano y responde con aparente empatía, aumenta nuestra disposición a colaborar y nuestra sensación de presencia social. Para marketing y servicio al cliente, esto puede ser muy valioso. Pero los mismos trabajos advierten del riesgo de que, si no hay un marco ético y un propósito claro, estamos abriendo la puerta al teatro algorítmico que es la simulación de empatía sin voluntad real de cambiar nada. Esto significa que podemos programar un asistente que diga “entiendo cómo te sientes” en el tono perfecto, pero si la organización detrás no está dispuesta a revisar una política injusta o cambiar una práctica abusiva, eso no es humanizar la IA; es maquillar con IA un problema humano. Y a la larga la gente se da cuenta.

Frente a este panorama, el mundo empresarial chileno no parte de cero. En espacios como ICARE ya se ha insistido en que la innovación y la competitividad del país dependen de poner a las personas en el centro, no solo la tecnología. Se ha hablado de reescribir el crecimiento con IA, de equilibrar data y humanidad en marketing, de construir culturas que sostengan la transformación digital más allá de la moda. Humanizar la IA es el siguiente paso lógico de esa conversación. Eso se traduce, para un directorio o un comité ejecutivo, en al menos tres decisiones que ninguna herramienta puede tomar por nosotros:

Primero, decidir con quién se diseña la IA. Si los pilotos y proyectos se cocinan solo entre TI, proveedores y consultores, la probabilidad de desconexión es altísima. En cambio, cuando se incorporan desde el inicio a quienes viven el proceso —ejecutivos comerciales que hablan a diario con clientes, analistas de riesgo que entienden las sutilezas de los datos, enfermeras y agentes de call center que sostienen la relación con las personas— la conversación cambia. Deja de ser “qué puede hacer el modelo” y pasa a ser “qué problema humano estamos tratando de resolver y qué queremos proteger en el camino”. Un piloto de IA en riesgo de crédito diseñado sin la voz del área comercial y de compliance probablemente optimizará números, pero fallará en lo que más importa: la calidad de la relación con el cliente y la confianza regulatoria.

Segundo, decidir qué no vamos a automatizar. No todo lo que es técnicamente automatizable es estratégicamente deseable. La literatura en educación y trabajo muestra que hay actividades que son “portadoras de humanidad”: la conversación difícil, el feedback honesto, la deliberación ética sobre casos complejos. Si esterilizamos esos espacios en nombre de la eficiencia, podemos ganar productividad en el corto plazo, pero perdemos algo mucho más difícil de recuperar: la confianza. Una organización verdaderamente avanzada en IA no es la que automatiza más decisiones, sino la que sabe trazar líneas rojas claras. Evaluaciones de desempeño, decisiones de desvinculación o la resolución de conflictos graves son ejemplos de conversaciones que ninguna IA debería reemplazar, aunque pueda ayudar con datos y escenarios.

Tercero, decidir qué tipo de líderes queremos cultivar en la era de la IA. Un líder que se limita a consumir recomendaciones algorítmicas sin cuestionarlas es, en el mejor de los casos, un operador sofisticado de software. Pero las organizaciones necesitan algo distinto: personas capaces de usar la IA como espejo, no como muleta; como amplificador de pensamiento crítico, no como sustituto. Eso implica, entre otras cosas, incluir en la agenda espacios de reflexión donde se revisan los sesgos de los modelos, se analizan sus límites y se contrastan las decisiones con el propósito declarado de la empresa. Por ejemplo, revisar trimestralmente decisiones relevantes tomadas con apoyo de IA para preguntar qué aprendimos, dónde el modelo se equivocó y qué haríamos distinto la próxima vez.

Chile ya decidió que la IA será un pilar de su competitividad. Lo que todavía está en juego es el tipo de liderazgo que la va a gobernar: uno que corra detrás de la tecnología, o uno que la ponga explícitamente al servicio de las personas.

Al final del día, la discusión sobre “humanizar la IA” no va a decidirse en un paper ni en un congreso, sino en el calendario semanal de quienes toman decisiones. Si la IA solo entra en la agenda como un tema de compras, de eficiencia o de riesgo regulatorio, vamos a seguir atrapados en la superficie. Si, en cambio, la usamos como excusa para hacernos mejores preguntas —sobre qué significa cuidar a nuestros equipos, qué entendemos por éxito, qué estamos dispuestos a no delegar jamás— entonces sí puede convertirse en una palanca de humanización real.

En un escenario donde la IA se va a estandarizar y las herramientas estarán disponibles para todos, la verdadera diferenciación no estará en quién tenga el modelo más avanzado, sino en quién se atreva a seguir mirando a los ojos mientras decide. La innovación que Chile necesita no es otra plataforma, es un nuevo estándar de liderazgo: uno que trate a la IA como lo que es —una herramienta poderosa— y reserve para las personas lo que ninguna máquina puede hacer por ellas: pensar con profundidad, sostener el conflicto y construir vínculos que valgan la pena defender.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en el Newsletter +Política de El Mostrador, súmate a nuestra comunidad para informado/a con noticias precisas, seguimiento detallado de políticas públicas y entrevistas con personajes que influyen.

Publicidad