Cómo las grandes empresas tecnológicas están colonizando silenciosamente la educación – Parte 2

Por John Moravec

(Ver Parte 1)

La inteligencia artificial como el capítulo más reciente de una larga historia de control

La inteligencia artificial se percibe como algo nuevo, pero los problemas que la rodean son familiares. Las escuelas han luchado durante mucho tiempo con nuevas tecnologías. Las calculadoras fueron vistas como atajos que perjudicarían el razonamiento. Los teléfonos móviles se presentaron como distracciones que destruirían la concentración. Incluso los libros impresos han sido, en distintos momentos, regulados mediante listas de títulos aprobados o retirados de las estanterías. En cada caso, las instituciones respondieron con una mezcla de miedo, restricción y eventual acomodación.

El patrón revela algo importante. Las escuelas tienden a abordar la tecnología como una cuestión de control más que de comprensión. El primer impulso es regular antes que preguntar qué tipo de cambio cognitivo o social representa la tecnología. Esta dinámica se repite ahora con la inteligencia artificial. Muchas políticas enfatizan la detección de conductas indebidas, la prohibición de ciertos usos o el monitoreo estrecho del comportamiento estudiantil. Estas respuestas abordan preocupaciones inmediatas, pero rara vez se involucran con los cambios subyacentes en epistemología, autoría y autoridad que trae la inteligencia artificial.

Esta tendencia al control en lugar de la indagación mantiene a la educación anclada a estructuras del pasado. El Manifesto 25 sostiene que los sistemas educativos dominantes responden a la incertidumbre global con mayor disciplina, expectativas estandarizadas y culturas rígidas de cumplimiento, buscando estabilidad mediante el miedo, el cumplimiento y el control.

La inteligencia artificial intensifica esta tensión. Las escuelas temen la copia, la desinformación y la erosión de la confianza. Al mismo tiempo, las empresas promocionan la inteligencia artificial como una solución a la escasez de mano de obra, la carga administrativa y la desconexión estudiantil. Los educadores sienten presión desde ambos lados: contener la inteligencia artificial para preservar la integridad, adoptarla para mejorar la eficiencia. Ninguno de estos impulsos aborda la pregunta más profunda sobre qué significa enseñar y aprender en un entorno moldeado por sistemas poderosos y opacos.

La educación requiere estructura. El desafío es advertir cuándo el control se convierte en un sustituto de la comprensión. La inteligencia artificial exige un enfoque más reflexivo. Invita a los educadores a examinar por qué repiten patrones restrictivos, qué temores expresan esos patrones y qué posibilidades ocultan.

La ilusión de “usar” la tecnología

A menudo asumimos que los docentes usan tecnología. Decimos que los educadores “usan” sistemas de gestión del aprendizaje, “usan” evaluaciones digitales y ahora “usan” herramientas de inteligencia artificial para planificar clases o evaluar trabajos. Este lenguaje implica agencia humana. Presenta al docente como operador y a la herramienta como instrumento.

Pero la realidad es más compleja. Las plataformas guían el comportamiento de maneras que se sienten naturales, pero están profundamente estructuradas. Las configuraciones predeterminadas influyen en lo que los docentes notan. Los motores de recomendación moldean lo que los estudiantes encuentran. Las capas de seguridad definen los límites del conocimiento aceptable. Los paneles de análisis determinan qué formas de evidencia parecen significativas. Los docentes operan estos sistemas, pero la arquitectura del sistema orienta sus elecciones.


La cadena de suministro de la IA y el recorrido de decisiones

Aquí es donde la colonización se vuelve visible. La influencia de las grandes tecnológicas ingresa a través de esas mismas configuraciones predeterminadas, ajustes y decisiones de diseño que limitan la agencia del educador mientras dan la impresión de control. La interfaz fomenta acciones particulares. La capa de seguridad restringe lo que cuenta como indagación legítima. El panel de análisis encuadra el progreso en términos específicos. Mucho antes de que alguien tome una decisión, la plataforma ya ha moldeado las condiciones de la práctica y el desempeño.

Douglas Rushkoff captura esta dinámica en su llamado a “programar o ser programado”. Programar, en su sentido, no se refiere solo a escribir código, sino a comprender cómo se comportan los sistemas y cómo moldean la acción humana. Sin esa comprensión, los usuarios se adaptan a los sistemas en lugar de darles forma.

La inteligencia artificial educativa ahora entrena a sus usuarios de maneras sutiles. Los módulos de “uso ético” instruyen a los docentes sobre cómo actuar. Delinean responsabilidades y riesgos, pero rara vez explican cómo la plataforma gestiona datos, establece límites o interpreta principios éticos. La carga se desplaza hacia abajo. Los docentes se convierten en ejecutores de la conducta estudiantil, aun cuando no pueden ver dentro de los sistemas que definen las reglas. Los estudiantes, a su vez, aprenden a confiar en los resultados porque la interfaz los presenta como estables y fluidos.

Algunas herramientas desafían esta orientación. Trampi.ar, por ejemplo, trata a la inteligencia artificial como un objeto de examen más que como una fuente de verdad. Los estudiantes reciben resultados de personajes lúdicos que combinan perspicacia con error. Su tarea no es aceptar la respuesta, sino inspeccionarla. Desarrollan habilidades al notar patrones de razonamiento, momentos de exceso de confianza y los desajustes sutiles que a menudo se esconden en una prosa fluida. La plataforma entrena el escepticismo y una alfabetización más profunda en lugar de la aceptación ciega de resultados generados por máquinas.

Esto ilustra un cambio en cómo deberíamos percibir la inteligencia artificial en educación. Cuando los estudiantes tratan a la inteligencia artificial como algo que debe ser interrogado, se vuelven menos susceptibles a su ilusión de autoridad. Desarrollan prácticas de cuestionamiento, verificación cruzada y resistencia a la coherencia superficial del texto generado por máquinas. Estas prácticas trascienden el aula. Forman parte de una alfabetización pública más amplia necesaria en un mundo donde la inteligencia artificial se convertirá en un generador rutinario de contenido y afirmaciones.

Visitas: 1

Comentar

¡Necesitas ser un miembro de RedDOLAC - Red de Docentes de América Latina y del Caribe - para añadir comentarios!

Participar en RedDOLAC - Red de Docentes de América Latina y del Caribe -

IFC-RedDOLAC

Campus Virtual RedDOLAC

CONTÁCTENOS

Convocatorias

Contáctenos

Anuncie sus Congresos o servicios Educativos en RedDOLAC

Consúltenos al correo: direccion@reddolac.org

Participe en la sostenibilidad de RedDOLAC

CONGRESOS

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

Anuncios docentes

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC
____________________________
Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

RedDOLAC

Organizaciones

Su constancia de RedDOLAC

© 2026   Creado por Henry Chero-Valdivieso.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio