Cómo las grandes empresas tecnológicas están colonizando silenciosamente la educación – Parte 1

Durante este mes reproducimos, dividido en tres partes, un artículo que el Dr. John Moravec publicó en diciembre de 2025 en su sitio web, Education Futures

Cómo las grandes empresas tecnológicas están colonizando silenciosamente la educación

Por John Moravec

Los educadores enfrentan una creciente sensación de preocupación frente a la inteligencia artificial. Nuevas herramientas ingresan a las aulas más rápido de lo que las políticas pueden adaptarse. Las autoridades nacionales publican documentos de orientación que delinean principios para un uso seguro o ético. Las universidades agregan declaraciones en sus programas sobre transparencia y buena conducta. Las empresas ofrecen módulos de formación gratuitos que muestran a los docentes cómo integrar sus plataformas en los planes de clase. Estos esfuerzos tienen valor, pero se quedan en la superficie de un problema más profundo. La mayoría de las decisiones que dan forma a cómo funciona la inteligencia artificial ocurren lejos de quienes vivirán con sus consecuencias.

Cuando hablamos de “usar” inteligencia artificial en educación, a menudo pasamos por alto la realidad más amplia que enmarca su llegada. Las herramientas que ingresan a las aulas no son instrumentos simples. Provienen de un pequeño grupo de empresas que establecen las condiciones de acceso, definen las reglas de interacción y moldean cómo circula el conocimiento. La rápida expansión de estos sistemas está guiada, pero no por los educadores. Refleja las prioridades de empresas que se benefician cuando las instituciones adoptan sus plataformas como infraestructura predeterminada. Los educadores pueden recibir formación y módulos de seguridad, pero no participan en las decisiones que gobiernan el comportamiento de los modelos. Esta distancia crea una forma de dependencia que debilita el juicio profesional y desplaza el control fuera de la esfera pública.

Gran parte del diálogo actual trata a la inteligencia artificial como si perteneciera a la misma categoría que las calculadoras o los teléfonos móviles. Esta analogía beneficia a las grandes tecnológicas (las “BigTech”). Presenta la adopción como inevitable e inofensiva, y alienta a los educadores a centrarse en la gestión del aula en lugar de en las fuerzas estructurales que dan forma a las herramientas mismas. También oculta el hecho de que las tecnologías anteriores no incorporaban intereses económicos o políticos. La inteligencia artificial sí lo hace. Cuando recurrimos a analogías que aplanan estas diferencias, facilitamos que las empresas definan los términos bajo los cuales la educación se relacionará con ellas.

Exploro aquí esa brecha. Mi argumento es que la educación no puede cumplir con sus responsabilidades si aborda la inteligencia artificial solo como una cuestión de práctica y control en el aula. Los problemas más profundos se encuentran en la gobernanza, la capacidad institucional y la larga historia de cómo las escuelas responden a nuevas tecnologías. Para sostener este argumento, recurro a ejemplos del Índice Global de Preparación para los Futuros de la Educación (GEFRI), del Manifesto 25 y de Trampi.ar.

Abundancia de marcos y ausencia de agencia

La inteligencia artificial ingresa a la educación a través de un flujo constante de marcos y lineamientos. Estos delinean principios de transparencia y seguridad, y prometen ayudar a los docentes a gestionar el riesgo. Muchos provienen de instituciones creíbles, pero comparten una característica clave: se enfocan en el comportamiento de educadores y estudiantes, no en los sistemas que moldean sus decisiones. Como resultado, estos marcos normalizan la presencia de las grandes tecnológicas. Capacitan a los educadores para adaptarse a plataformas en lugar de cuestionar el poder que las sustenta.

Los marcos, por sí solos, no pueden compensar la realidad estructural de que docentes e instituciones no controlan los sistemas que se les pide “usar responsablemente”. Las guías éticas enfatizan el comportamiento individual antes que las prioridades de las organizaciones que construyen y despliegan la inteligencia artificial. Describen la práctica responsable como algo que se logra mediante vigilancia, documentación y revisión constante de resultados, mientras los sistemas mismos permanecen fuera del control institucional.

Este énfasis en el comportamiento del usuario señala un problema más profundo. Cuando la responsabilidad recae en el usuario pero el poder reside en el desarrollador, el marco se convierte en un contrato moral sin mecanismos de gobernanza compartida. Los educadores siguen reglas que no crearon. Navegan restricciones que no eligieron. Asumen el riesgo profesional asociado a sistemas que operan fuera de su campo de visión.

En ciclos tecnológicos anteriores, las escuelas regulaban las herramientas que permitían ingresar al aula y establecían los términos de su uso. Con la inteligencia artificial, el flujo se invierte. Las herramientas regulan a las escuelas. Los algoritmos determinan qué ven los estudiantes. Los filtros de contenido moldean lo que pueden preguntar. Los motores de recomendación fomentan formas particulares de indagación. Estos mecanismos operan de manera silenciosa, pero redefinen los límites de la enseñanza. El desplazamiento de la autoridad institucional hacia la autoridad de la plataforma introduce un desequilibrio estructural que muchos sistemas no están preparados para gestionar.

Este desequilibrio aparece en evaluaciones nacionales de preparación. GEFRI, por ejemplo, distingue infraestructura de innovación, capital humano, gobernanza y equidad. Muchos países obtienen puntajes altos en acceso a dispositivos y conectividad, pero más bajos en gobernanza, lo que señala una capacidad limitada para orientar y regular la tecnología en lugar de simplemente adoptarla. El resultado es un patrón en el que los sistemas educativos parecen preparados porque poseen los medios técnicos para usar nuevas herramientas, pero carecen de la profundidad institucional necesaria para guiarlas hacia objetivos públicos.

Los marcos ayudan a los educadores a usar la inteligencia artificial dentro de esos sistemas. No les otorgan influencia sobre cómo la inteligencia artificial evoluciona. Esta distinción importa porque la educación no es un entorno neutral. Es una institución pública encargada de apoyar el florecimiento humano, la vida cívica y la participación amplia en el conocimiento. Si los educadores solo reciben instrucciones sobre cómo actuar dentro del diseño de otros, la profesión pierde su capacidad de moldear cómo las tecnologías educativas sirven a la sociedad.

Visitas: 0

Comentar

¡Necesitas ser un miembro de RedDOLAC - Red de Docentes de América Latina y del Caribe - para añadir comentarios!

Participar en RedDOLAC - Red de Docentes de América Latina y del Caribe -

IFC-RedDOLAC

Campus Virtual RedDOLAC

CONTÁCTENOS

Convocatorias

Contáctenos

Anuncie sus Congresos o servicios Educativos en RedDOLAC

Consúltenos al correo: direccion@reddolac.org

Participe en la sostenibilidad de RedDOLAC

CONGRESOS

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

Anuncios docentes

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC
____________________________
Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

Foro

Fisica

Iniciada por miguel angel gomez repiso en Tecnologías de Información y Comunicación ayer. 0 Respuestas

Estudios Historicos.

Iniciada por miguel angel gomez repiso en Temas Libres el domingo. 0 Respuestas

Historia.

Iniciada por miguel angel gomez repiso en Temas Libres el domingo. 0 Respuestas

Texto

Iniciada por Henry Chero-Valdivieso en Tecnologías de Información y Comunicación 13 Feb. 0 Respuestas

La mujer transformando la educación superior

Iniciada por Yanet Yovanny Jiminián Mata en Temas Libres 3 Feb. 0 Respuestas

RedDOLAC

Organizaciones

Su constancia de RedDOLAC

© 2026   Creado por Henry Chero-Valdivieso.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio