"Nadie enseña a nadie, con humildad para aprender, tod@s aprendemos de tod@s"
Durante este mes reproducimos, dividido en tres partes, un artículo que el Dr. John Moravec publicó en diciembre de 2025 en su sitio web, Education Futures.
Cómo las grandes empresas tecnológicas están colonizando silenciosamente la educación
Por John Moravec
Los educadores enfrentan una creciente sensación de preocupación frente a la inteligencia artificial. Nuevas herramientas ingresan a las aulas más rápido de lo que las políticas pueden adaptarse. Las autoridades nacionales publican documentos de orientación que delinean principios para un uso seguro o ético. Las universidades agregan declaraciones en sus programas sobre transparencia y buena conducta. Las empresas ofrecen módulos de formación gratuitos que muestran a los docentes cómo integrar sus plataformas en los planes de clase. Estos esfuerzos tienen valor, pero se quedan en la superficie de un problema más profundo. La mayoría de las decisiones que dan forma a cómo funciona la inteligencia artificial ocurren lejos de quienes vivirán con sus consecuencias.
Cuando hablamos de “usar” inteligencia artificial en educación, a menudo pasamos por alto la realidad más amplia que enmarca su llegada. Las herramientas que ingresan a las aulas no son instrumentos simples. Provienen de un pequeño grupo de empresas que establecen las condiciones de acceso, definen las reglas de interacción y moldean cómo circula el conocimiento. La rápida expansión de estos sistemas está guiada, pero no por los educadores. Refleja las prioridades de empresas que se benefician cuando las instituciones adoptan sus plataformas como infraestructura predeterminada. Los educadores pueden recibir formación y módulos de seguridad, pero no participan en las decisiones que gobiernan el comportamiento de los modelos. Esta distancia crea una forma de dependencia que debilita el juicio profesional y desplaza el control fuera de la esfera pública.
Gran parte del diálogo actual trata a la inteligencia artificial como si perteneciera a la misma categoría que las calculadoras o los teléfonos móviles. Esta analogía beneficia a las grandes tecnológicas (las “BigTech”). Presenta la adopción como inevitable e inofensiva, y alienta a los educadores a centrarse en la gestión del aula en lugar de en las fuerzas estructurales que dan forma a las herramientas mismas. También oculta el hecho de que las tecnologías anteriores no incorporaban intereses económicos o políticos. La inteligencia artificial sí lo hace. Cuando recurrimos a analogías que aplanan estas diferencias, facilitamos que las empresas definan los términos bajo los cuales la educación se relacionará con ellas.
Exploro aquí esa brecha. Mi argumento es que la educación no puede cumplir con sus responsabilidades si aborda la inteligencia artificial solo como una cuestión de práctica y control en el aula. Los problemas más profundos se encuentran en la gobernanza, la capacidad institucional y la larga historia de cómo las escuelas responden a nuevas tecnologías. Para sostener este argumento, recurro a ejemplos del Índice Global de Preparación para los Futuros de la Educación (GEFRI), del Manifesto 25 y de Trampi.ar.
Abundancia de marcos y ausencia de agencia
La inteligencia artificial ingresa a la educación a través de un flujo constante de marcos y lineamientos. Estos delinean principios de transparencia y seguridad, y prometen ayudar a los docentes a gestionar el riesgo. Muchos provienen de instituciones creíbles, pero comparten una característica clave: se enfocan en el comportamiento de educadores y estudiantes, no en los sistemas que moldean sus decisiones. Como resultado, estos marcos normalizan la presencia de las grandes tecnológicas. Capacitan a los educadores para adaptarse a plataformas en lugar de cuestionar el poder que las sustenta.
Los marcos, por sí solos, no pueden compensar la realidad estructural de que docentes e instituciones no controlan los sistemas que se les pide “usar responsablemente”. Las guías éticas enfatizan el comportamiento individual antes que las prioridades de las organizaciones que construyen y despliegan la inteligencia artificial. Describen la práctica responsable como algo que se logra mediante vigilancia, documentación y revisión constante de resultados, mientras los sistemas mismos permanecen fuera del control institucional.
Este énfasis en el comportamiento del usuario señala un problema más profundo. Cuando la responsabilidad recae en el usuario pero el poder reside en el desarrollador, el marco se convierte en un contrato moral sin mecanismos de gobernanza compartida. Los educadores siguen reglas que no crearon. Navegan restricciones que no eligieron. Asumen el riesgo profesional asociado a sistemas que operan fuera de su campo de visión.
En ciclos tecnológicos anteriores, las escuelas regulaban las herramientas que permitían ingresar al aula y establecían los términos de su uso. Con la inteligencia artificial, el flujo se invierte. Las herramientas regulan a las escuelas. Los algoritmos determinan qué ven los estudiantes. Los filtros de contenido moldean lo que pueden preguntar. Los motores de recomendación fomentan formas particulares de indagación. Estos mecanismos operan de manera silenciosa, pero redefinen los límites de la enseñanza. El desplazamiento de la autoridad institucional hacia la autoridad de la plataforma introduce un desequilibrio estructural que muchos sistemas no están preparados para gestionar.
Este desequilibrio aparece en evaluaciones nacionales de preparación. GEFRI, por ejemplo, distingue infraestructura de innovación, capital humano, gobernanza y equidad. Muchos países obtienen puntajes altos en acceso a dispositivos y conectividad, pero más bajos en gobernanza, lo que señala una capacidad limitada para orientar y regular la tecnología en lugar de simplemente adoptarla. El resultado es un patrón en el que los sistemas educativos parecen preparados porque poseen los medios técnicos para usar nuevas herramientas, pero carecen de la profundidad institucional necesaria para guiarlas hacia objetivos públicos.
Los marcos ayudan a los educadores a usar la inteligencia artificial dentro de esos sistemas. No les otorgan influencia sobre cómo la inteligencia artificial evoluciona. Esta distinción importa porque la educación no es un entorno neutral. Es una institución pública encargada de apoyar el florecimiento humano, la vida cívica y la participación amplia en el conocimiento. Si los educadores solo reciben instrucciones sobre cómo actuar dentro del diseño de otros, la profesión pierde su capacidad de moldear cómo las tecnologías educativas sirven a la sociedad.
Bienvenido a
RedDOLAC - Red de Docentes de América Latina y del Caribe -
Anuncie sus Congresos o servicios Educativos en RedDOLAC
ANUNCIOS PARA DOCENTES
ANUNCIOS PARA DOCENTES
Iniciada por miguel angel gomez repiso en Tecnologías de Información y Comunicación ayer. 0 Respuestas 0 Me gustan
Iniciada por Math Class Help en Materiales y Recursos Educativos el lunes. 0 Respuestas 0 Me gustan
Iniciada por miguel angel gomez repiso en Temas Libres el domingo. 0 Respuestas 0 Me gustan
Iniciada por miguel angel gomez repiso en Temas Libres el domingo. 0 Respuestas 0 Me gustan
Iniciada por Forober en Tecnologías de Información y Comunicación 26 Feb. 0 Respuestas 0 Me gustan
Iniciada por Jesús Miguel Delgado Del Aguila en Artículos Científicos 20 Feb. 0 Respuestas 1 Me gusta
Iniciada por Henry Chero-Valdivieso en Tecnologías de Información y Comunicación 13 Feb. 0 Respuestas 0 Me gustan
Iniciada por Yanet Yovanny Jiminián Mata en Temas Libres 3 Feb. 0 Respuestas 0 Me gustan
Iniciada por Jesús Miguel Delgado Del Aguila en Artículos Científicos. Última respuesta de Juan Moisés de la Serna Tuya 2 Feb. 2 Respuestas 1 Me gusta
Iniciada por Jesús Miguel Delgado Del Aguila en Artículos Científicos 27 Ene. 0 Respuestas 1 Me gusta
© 2026 Creado por Henry Chero-Valdivieso.
Tecnología de
¡Necesitas ser un miembro de RedDOLAC - Red de Docentes de América Latina y del Caribe - para añadir comentarios!
Participar en RedDOLAC - Red de Docentes de América Latina y del Caribe -