IA generativa en el trabajo y la educación: entre la eficiencia y la desconexión cognitiva


La irrupción de herramientas de inteligencia artificial generativa, como los Modelos de Lenguaje Grande (LLM por sus siglas en inglés) como ChatGPT ha transformado profundamente la forma en que trabajamos, escribimos, investigamos y, en muchos casos, resolvemos problemas cotidianos. En el mejor de los casos, esta tecnología potencia nuestra productividad, agiliza tareas repetitivas y nos permite enfocarnos en aspectos más estratégicos o creativos. Véase aquí algunos datos sobre las ganancias de productividad derivadas del uso de IA.

Pero también hay una cara menos brillante: la comodidad que ofrece puede estar acostumbrándonos a no pensar.

Este fenómeno no es nuevo ni exclusivo de la inteligencia artificial generativa (IA gen). La historia de la tecnología está llena de ejemplos similares. Pensemos en algo tan cotidiano como los números de teléfono. Hubo una época en la que memorizábamos los más importantes y nuestro cerebro organizaba esa información con una lógica interna de nombre y valor. Con la llegada de los teléfonos móviles, delegamos esa función a la memoria del dispositivo. Hoy, muy pocos podrían recitar de memoria más de uno o dos números, y casi nadie lo ve como un problema.

La diferencia con los LLM es que no solo le estamos entregando tareas mecánicas, sino también procesos cognitivos más complejos. Hoy podemos ver cómo se entregan textos académicos, ensayos o informes generados por IA que presentan datos erróneos, referencias bibliográficas falsas y citas de autores inexistentes. Y lo más preocupante es que muchas veces quienes los firman ni siquiera son capaces de identificar los errores… o de explicarlos.

El problema es que existe evidencia que muestra que una mayor confianza en la IA se asocia con un menor esfuerzo de pensamiento crítico (LSE Impact Blog).

Un estudio reciente explora las consecuencias neuronales y conductuales de la escritura de ensayos asistida por LLM. Los participantes se dividieron en tres grupos: LLM, Motor de Búsqueda y Solo Cerebro (sin herramientas). Cada uno completó tres sesiones bajo la misma condición. En una cuarta sesión, los usuarios de LLM fueron reasignados al grupo Solo Cerebro (LLM a Cerebro), y los usuarios de Solo Cerebro fueron reasignados a la condición LLM (Cerebro a LLM).

Un total de 54 participantes tomaron parte en las Sesiones 1 a 3, con 18 completando la sesión 4. El grupo de investigadores utilizaron electroencefalografía (EEG) para evaluar la carga cognitiva durante la escritura de ensayos y analizaron los ensayos usando PLN, así como calificaron los ensayos con la ayuda de profesores humanos y un juez de IA. Entre los grupos, los NER, los patrones de n-gramas y la ontología de temas mostraron homogeneidad dentro del grupo.

Figura: Análisis EEG de función de transferencia directa dinámica (dDTF) de la banda alfa para los grupos: LLM, Motor de Búsqueda, Solo Cerebro, incluidos los valores p para mostrar la significancia desde moderadamente significativo (*) a altamente significativo (***).
Fuente: Nataliya Kosmyna et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, arXiv. 


El EEG reveló diferencias significativas en la conectividad cerebral: los participantes de Solo Cerebro exhibieron las redes más fuertes y distribuidas; los usuarios de Motor de Búsqueda mostraron una participación moderada; y los usuarios de LLM mostraron la conectividad más débil. La actividad cognitiva disminuyó en relación con el uso de herramientas externas. En la sesión 4, los participantes del programa LLM a Cerebro mostraron una conectividad alfa y beta reducida, lo que indica una baja participación. Los usuarios del programa Cerebro a LLM mostraron una mayor capacidad de memoria y activación de las áreas occipitoparietal y prefrontal, similar a la de los usuarios de Motores de Búsqueda.

La autodeclaración de propiedad de ensayos fue la más baja en el grupo LLM y la más alta en el grupo Solo Cerebro. Los usuarios del programa LLM también tuvieron dificultades para citar con precisión su propio trabajo. Si bien los LLM ofrecen una comodidad inmediata, los hallazgos de este estudio resaltan los posibles costos cognitivos. Durante cuatro meses, los usuarios del programa LLM obtuvieron un rendimiento consistentemente inferior a nivel neuronal, lingüístico y conductual. Estos resultados plantean inquietudes sobre las implicaciones educativas a largo plazo de la dependencia del LLM y subrayan la necesidad de una investigación más profunda sobre el papel de la IA en el aprendizaje.

Es importante destacar que la tecnología no es el enemigo, pero sí requiere una alfabetización crítica. La IA puede ser una herramienta poderosa, siempre que no olvidemos que su papel es asistencial, no sustitutivo del pensamiento humano.

Hasta aquí el post del día de hoy y recuerda que puedes seguirme en X y mantenerte informado de lo último de ciencia, tecnología e innovación en el mundo de la economía y las finanzas.

Cómo citar esta entrada del Blog:

Zorrilla-Salgador, J.P. (2025). IA generativa en el trabajo y la educación: entre la eficiencia y la desconexión cognitiva. Blog El Analista Económico-Financiero, 24/07/2025. Recuperado de [link post]

Comentarios

Entradas populares de este blog

¿Qué significan los números en el triángulo de reciclaje de los plásticos?

Las 10 economías más grandes de Asia

Historia de la Banca en México III: La privatización de la banca