La inteligencia artificial no se trata sólo de técnica
- Su irrupción en el ámbito educativo reconfigura relaciones de autoridad académica, acceso a la información y legitimidad del saber: Luis Josué Lugo, investigador del CEIICH
15 de abril 2026.-La inteligencia artificial (IA) puede producir texto y nuevas dinámicas, pero no reflexividad, responsabilidad y propuestas de cambio social que atraviesen horizontes epistémicos, aseguró Luis Josué Lugo Sánchez, del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH).
Al ofrecer la conferencia “Inteligencia artificial y producción del conocimiento académico: desafíos éticos de la IA”, señaló que esta tecnología tiene muchos límites, “como dice Juan Villoro, en su libro No soy robot: “No se preocupen que los cambios sociales no los va a hacer la inteligencia artificial, siempre han venido de seres humanos que están en contra de algo, que empiezan a organizarse y en esa organización se pueden construir otras alternativas”.
En ese contexto, Lugo Sánchez planteó que las universidades atraviesan una transformación profunda en las formas de producir conocimiento. No sólo cambian las herramientas, sino también quién lo produce, cómo se valida y, sobre todo, quién detenta el poder de definirlo.
Desde las ciencias sociales, dijo, esta discusión es central, pues la irrupción de la IA reconfigura relaciones de autoridad académica, acceso a la información y legitimidad del saber.
Uno de los ejemplos expuestos fue el desarrollo de plataformas como STORM IA, impulsada por la Universidad de Stanford, que permite a estudiantes generar textos extensos a partir de instrucciones breves. Detalló que, aunque no sustituye un artículo académico formal, sí representa un cambio en la manera de sintetizar información, leer críticamente y confrontar posturas distintas mediante agentes automatizados que cuestionan los contenidos generados.
Para el investigador esos desarrollos deben entenderse dentro de marcos teóricos más amplios, como el capitalismo de la vigilancia, el tecnofeudalismo o el capitalismo cognitivo. Estas perspectivas advierten que la IA no es neutral, sino que forma parte de estructuras donde grandes corporaciones concentran datos, conocimiento y ganancias, mientras los usuarios contribuyen de manera gratuita a su funcionamiento.
A la par, alertó sobre fenómenos como la “deuda cognitiva”, concepto estudiado desde las neurociencias que refiere a la dependencia excesiva de herramientas tecnológicas para realizar tareas intelectuales. Aunque en México el debate se simplificó en titulares como “los que usan IA se hacen más idiotas y los que no la usan son más inteligentes”, por ello, Lugo insistió en la necesidad de una lectura crítica de dicho estudio realizado en Massachusetts.
En el ámbito educativo, los retos son múltiples: desde el uso de IA para tareas escolares hasta la aparición de herramientas que “humanizan” textos o evaden detectores de plagio. Investigaciones recientes indican que ocho de cada 10 estudiantes y profesores de la Universidad usan está tecnología, pero hace falta conocer por qué: si es por curiosidad, para hacer investigación o para contar historias.
Incluso, adelantó que están realizando un estudio en el Sistema de Universidad Abierta, específicamente en la Facultad de Ciencias Políticas y Sociales, en el que detectaron que el 90.6 % de alumnos encuestados usan inteligencia artificial, la muestra incluye a 500 personas.
Riesgos
En el auditorio del Instituto de Ciencias Nucleares UNAM, en donde impartió la conferencia, Josué Lugo explicó que emergen riesgos relacionados con sesgos algorítmicos, opacidad en los modelos de datos, uso indebido de información personal y nuevas brechas digitales; a ello se suma el impacto en el empleo académico y la tentación de sustituir procesos educativos por automatización, lo que calificó como un “despropósito pedagógico”.
No obstante, el integrante del Programa Macrodatos, Inteligencia Artificial e Internet del CEIICH destacó que la IA también puede ser resignificada desde usos sociales y políticos. En este punto, mencionó el trabajo del Colectivo Luz de Esperanza, integrado por madres buscadoras que han empleado dicha herramienta para recrear imágenes de sus familiares desaparecidos y difundirlas en redes sociales, lo que les ha permitido visibilizar sus casos y, en algunos contextos, facilitar la localización de personas.
Para Lugo, lo anterior muestra que la tecnología puede “potenciar apropiaciones disruptivas, son usos no previstos de la tecnología que tengan una parte social y política por delante, y ahí el ejemplo son las madres buscadoras que la usan en un problema que no tendría que estar pasando en nuestro país: las desapariciones”.
Finalmente, hizo un llamado a las instituciones educativas a no adoptar posturas extremas, sino a construir marcos éticos situados en la interdisciplina, fomentar un pensamiento más amplio y promover un uso consciente de estas tecnologías.
“El problema de la inteligencia artificial no es sólo técnico, sino político, epistemológico y pedagógico”, concluyó.