Publicado 18/03/2026 20:01

Los humanos y la IA deben formar una alineación cognitiva para trabajar bien juntos, según un estudio

Archivo - Un ordenador con las siglas AI de Artificial Intelligence (Inteligencia Artificial), a 24 de octubre de 2025, en Barcelona, Cataluña (España). Según un estudio de la Universidad Internacional de La Rioja (UNIR), España se sitúa a la cabeza del d
Archivo - Un ordenador con las siglas AI de Artificial Intelligence (Inteligencia Artificial), a 24 de octubre de 2025, en Barcelona, Cataluña (España). Según un estudio de la Universidad Internacional de La Rioja (UNIR), España se sitúa a la cabeza del d - David Zorrakino - Europa Press - Archivo

MADRID, 18 Mar. (EUROPA PRESS) -

Las personas utilizan la experiencia, el juicio y las señales sociales, mientras que la IA utiliza patrones estadísticos aprendidos a partir de datos, ambas pueden complementarse, si se implementan correctamente según un trabajo de la Escuela de Negocios Stevens (Estados Unidos).

Hoy en día, a medida que la IA se integra en la vida diaria de muchas personas, humanos y máquinas deben aprender a trabajar bien juntos, según plantea la profesora adjunta Bei Yan de la Escuela de Negocios Stevens, en su nuevo artículo, titulado 'Sincronizando mentes y máquinas: la alineación cognitiva híbrida como mecanismo de coordinación emergente en la colaboración humano-IA', publicado en la revista 'Academy of Management'.

"Las empresas utilizan la IA junto con las personas, pero les resulta difícil trabajar bien juntas", explica. "Las personas piensan de manera diferente a la IA. Las personas utilizan la experiencia, el juicio y las señales sociales. La IA utiliza patrones estadísticos aprendidos a partir de datos".

Estas diferencias pueden ser complementarias, pero solo si están bien coordinadas, añade. Cuando no lo están, los usuarios pueden confiar excesivamente en los resultados de la IA, hacer un mal uso de los sistemas o perder tiempo corrigiéndolos o buscándoles soluciones alternativas. "En estos casos, la IA no reduce el esfuerzo, sino que genera fricción", reflexiona. "Esa falta de compatibilidad hace que el trabajo en equipo entre humanos e IA a menudo sea deficiente". Y a veces, directamente fracasa.

Al analizar los fallos de la IA, las empresas los atribuyen a dos problemas principales: o bien la tecnología no es lo suficientemente potente, o bien es demasiado potente para generar confianza. Sin embargo, Yan sugiere una razón diferente: las máquinas y las personas no están bien preparadas para trabajar juntas. "Los fallos de la IA se producen porque los humanos y las máquinas no están alineados en su comprensión de las tareas, los roles y las responsabilidades".

Al introducir la IA en el entorno laboral, las empresas tienden a dividir proactivamente las tareas entre humanos e IA, señala Yan. Esto solo funciona si las tareas son estables y predecibles, y no cambian con el tiempo. Pero esto no se cumple en la mayoría de los entornos laborales.

Yan pone como ejemplo los algoritmos de negociación de alta frecuencia, donde la IA se utiliza para monitorear rápidamente el mercado, detectando tendencias y oportunidades. Sin embargo, ciertos eventos inesperados, como una caída repentina del mercado, cambios importantes en las políticas o la publicación de datos de inflación, pueden distorsionar la comprensión que la IA tiene del mercado. "Los algoritmos se entrenan con reglas preestablecidas, por lo que la IA no está realmente diseñada para comprender este tipo de eventos, y estos pueden alterar todo el mercado e incluso provocar desplomes", afirma.

Yan argumenta que las colaboraciones eficaces entre humanos e IA deberían estructurarse de manera diferente. Deberían basarse en un proceso denominado *alineación cognitiva híbrida*: el desarrollo gradual de expectativas compartidas sobre la finalidad de la IA, su uso y cuándo debe prevalecer el juicio humano. "Esta alineación no se produce automáticamente al implementar un sistema", argumenta Yan. "En cambio, surge con el tiempo a medida que las personas aprenden cómo se comporta la IA, adaptan su interacción con ella y recalibran su confianza en función de la experiencia".

Por ejemplo, la IA se utiliza actualmente en el ámbito médico para analizar radiografías o tomografías computarizadas. Entrenada con millones de imágenes, suele ser más eficaz para identificar cáncer u otros problemas que los que un médico podría pasar por alto. Sin embargo, desconoce el historial médico de cada paciente o cómo responde a los medicamentos, por lo que, sin la intervención y supervisión humana, el análisis no será tan preciso.

De manera similar, en el ámbito de la atención al cliente, la IA se entrena con miles de interacciones previas y puede buscar en los documentos internos de la empresa sobre sus políticas a una velocidad récord, pero es posible que no comprenda el problema o las necesidades de ese cliente en particular. Sin capacitar al personal sobre cómo usar la IA correctamente, muchos de estos esfuerzos podrían no dar buenos resultados.

De esta forma, Yan plantea que las empresas deberían centrarse más en cómo se dividen las tareas y los roles entre personas y máquinas, y cómo esto podría cambiar con el tiempo. Es decir, la formación que enfatice cómo usar la IA y el tiempo para que los equipos se adapten son esenciales. Por ello, "tratar la IA como una solución "plug-and-play" suele ser contraproducente; tratarla como un nuevo colaborador da mejores resultados. Para los directivos, estas implicaciones son inmediatas", señala.

Los desarrolladores de IA también pueden aprender de este artículo. Los hallazgos del estudio resaltan la importancia de diseñar no solo el rendimiento, sino también la colaboración. "Los sistemas deben comunicar claramente sus capacidades y limitaciones, apoyar el aprendizaje del usuario a lo largo del tiempo y ayudarlo a establecer sólidas alianzas con ellos", finaliza.

"En última instancia, la promesa de la IA no reside en hacer que las máquinas sean más inteligentes de forma aislada, sino en mejorar la colaboración entre humanos e IA. La alineación, no la inteligencia pura, es lo que transforma la IA de una fuente de frustración en una fuente de valor".

Contador

Contenido patrocinado