
John MoravecCómo las grandes empresas tecnológicas están colonizando silenciosamente la educación
Los educadores enfrentan una creciente sensación de preocupación frente a la inteligencia artificial. Nuevas herramientas ingresan a las aulas más rápido de lo que las políticas pueden adaptarse. Las autoridades nacionales publican documentos de orientación que delinean principios para un uso seguro o ético. Las universidades agregan declaraciones en sus programas sobre transparencia y buena conducta. Las empresas ofrecen módulos de formación gratuitos que muestran a los docentes cómo integrar sus plataformas en los planes de clase. Estos esfuerzos tienen valor, pero se quedan en la superficie de un problema más profundo. La mayoría de las decisiones que dan forma a cómo funciona la inteligencia artificial ocurren lejos de quienes vivirán con sus consecuencias.
Cuando hablamos de “usar” inteligencia artificial en educación, a menudo pasamos por alto la realidad más amplia que enmarca su llegada. Las herramientas que ingresan a las aulas no son instrumentos simples. Provienen de un pequeño grupo de empresas que establecen las condiciones de acceso, definen las reglas de interacción y moldean cómo circula el conocimiento. La rápida expansión de estos sistemas está guiada, pero no por los educadores. Refleja las prioridades de empresas que se benefician cuando las instituciones adoptan sus plataformas como infraestructura predeterminada. Los educadores pueden recibir formación y módulos de seguridad, pero no participan en las decisiones que gobiernan el comportamiento de los modelos. Esta distancia crea una forma de dependencia que debilita el juicio profesional y desplaza el control fuera de la esfera pública.
Gran parte del diálogo actual trata a la inteligencia artificial como si perteneciera a la misma categoría que las calculadoras o los teléfonos móviles. Esta analogía beneficia a las grandes tecnológicas (las “BigTech”). Presenta la adopción como inevitable e inofensiva, y alienta a los educadores a centrarse en la gestión del aula en lugar de en las fuerzas estructurales que dan forma a las herramientas mismas. También oculta el hecho de que las tecnologías anteriores no incorporaban intereses económicos o políticos. La inteligencia artificial sí lo hace. Cuando recurrimos a analogías que aplanan estas diferencias, facilitamos que las empresas definan los términos bajo los cuales la educación se relacionará con ellas.
Exploro aquí esa brecha. Mi argumento es que la educación no puede cumplir con sus responsabilidades si aborda la inteligencia artificial solo como una cuestión de práctica y control en el aula. Los problemas más profundos se encuentran en la gobernanza, la capacidad institucional y la larga historia de cómo las escuelas responden a nuevas tecnologías. Para sostener este argumento, recurro a ejemplos del Índice Global de Preparación para los Futuros de la Educación (GEFRI), del Manifesto 25 y de Trampi.ar.
Abundancia de marcos y ausencia de agencia
La inteligencia artificial ingresa a la educación a través de un flujo constante de marcos y lineamientos. Estos delinean principios de transparencia y seguridad, y prometen ayudar a los docentes a gestionar el riesgo. Muchos provienen de instituciones creíbles, pero comparten una característica clave: se enfocan en el comportamiento de educadores y estudiantes, no en los sistemas que moldean sus decisiones. Como resultado, estos marcos normalizan la presencia de las grandes tecnológicas. Capacitan a los educadores para adaptarse a plataformas en lugar de cuestionar el poder que las sustenta.
Los marcos, por sí solos, no pueden compensar la realidad estructural de que docentes e instituciones no controlan los sistemas que se les pide “usar responsablemente”. Las guías éticas enfatizan el comportamiento individual antes que las prioridades de las organizaciones que construyen y despliegan la inteligencia artificial. Describen la práctica responsable como algo que se logra mediante vigilancia, documentación y revisión constante de resultados, mientras los sistemas mismos permanecen fuera del control institucional.
Este énfasis en el comportamiento del usuario señala un problema más profundo. Cuando la responsabilidad recae en el usuario pero el poder reside en el desarrollador, el marco se convierte en un contrato moral sin mecanismos de gobernanza compartida. Los educadores siguen reglas que no crearon. Navegan restricciones que no eligieron. Asumen el riesgo profesional asociado a sistemas que operan fuera de su campo de visión.
En ciclos tecnológicos anteriores, las escuelas regulaban las herramientas que permitían ingresar al aula y establecían los términos de su uso. Con la inteligencia artificial, el flujo se invierte. Las herramientas regulan a las escuelas. Los algoritmos determinan qué ven los estudiantes. Los filtros de contenido moldean lo que pueden preguntar. Los motores de recomendación fomentan formas particulares de indagación. Estos mecanismos operan de manera silenciosa, pero redefinen los límites de la enseñanza. El desplazamiento de la autoridad institucional hacia la autoridad de la plataforma introduce un desequilibrio estructural que muchos sistemas no están preparados para gestionar.
Este desequilibrio aparece en evaluaciones nacionales de preparación. GEFRI, por ejemplo, distingue infraestructura de innovación, capital humano, gobernanza y equidad. Muchos países obtienen puntajes altos en acceso a dispositivos y conectividad, pero más bajos en gobernanza, lo que señala una capacidad limitada para orientar y regular la tecnología en lugar de simplemente adoptarla. El resultado es un patrón en el que los sistemas educativos parecen preparados porque poseen los medios técnicos para usar nuevas herramientas, pero carecen de la profundidad institucional necesaria para guiarlas hacia objetivos públicos.
Los marcos ayudan a los educadores a usar la inteligencia artificial dentro de esos sistemas. No les otorgan influencia sobre cómo la inteligencia artificial evoluciona. Esta distinción importa porque la educación no es un entorno neutral. Es una institución pública encargada de apoyar el florecimiento humano, la vida cívica y la participación amplia en el conocimiento. Si los educadores solo reciben instrucciones sobre cómo actuar dentro del diseño de otros, la profesión pierde su capacidad de moldear cómo las tecnologías educativas sirven a la sociedad.
La inteligencia artificial como el capítulo más reciente de una larga historia de control
La inteligencia artificial se percibe como algo nuevo, pero los problemas que la rodean son familiares. Las escuelas han luchado durante mucho tiempo con nuevas tecnologías. Las calculadoras fueron vistas como atajos que perjudicarían el razonamiento. Los teléfonos móviles se presentaron como distracciones que destruirían la concentración. Incluso los libros impresos han sido, en distintos momentos, regulados mediante listas de títulos aprobados o retirados de las estanterías. En cada caso, las instituciones respondieron con una mezcla de miedo, restricción y eventual acomodación.
El patrón revela algo importante. Las escuelas tienden a abordar la tecnología como una cuestión de control más que de comprensión. El primer impulso es regular antes que preguntar qué tipo de cambio cognitivo o social representa la tecnología. Esta dinámica se repite ahora con la inteligencia artificial. Muchas políticas enfatizan la detección de conductas indebidas, la prohibición de ciertos usos o el monitoreo estrecho del comportamiento estudiantil. Estas respuestas abordan preocupaciones inmediatas, pero rara vez se involucran con los cambios subyacentes en epistemología, autoría y autoridad que trae la inteligencia artificial.
Esta tendencia al control en lugar de la indagación mantiene a la educación anclada a estructuras del pasado. El Manifesto 25 sostiene que los sistemas educativos dominantes responden a la incertidumbre global con mayor disciplina, expectativas estandarizadas y culturas rígidas de cumplimiento, buscando estabilidad mediante el miedo, el cumplimiento y el control.
La inteligencia artificial intensifica esta tensión. Las escuelas temen la copia, la desinformación y la erosión de la confianza. Al mismo tiempo, las empresas promocionan la inteligencia artificial como una solución a la escasez de mano de obra, la carga administrativa y la desconexión estudiantil. Los educadores sienten presión desde ambos lados: contener la inteligencia artificial para preservar la integridad, adoptarla para mejorar la eficiencia. Ninguno de estos impulsos aborda la pregunta más profunda sobre qué significa enseñar y aprender en un entorno moldeado por sistemas poderosos y opacos.
La educación requiere estructura. El desafío es advertir cuándo el control se convierte en un sustituto de la comprensión. La inteligencia artificial exige un enfoque más reflexivo. Invita a los educadores a examinar por qué repiten patrones restrictivos, qué temores expresan esos patrones y qué posibilidades ocultan.
La ilusión de “usar” la tecnología
A menudo asumimos que los docentes usan tecnología. Decimos que los educadores “usan” sistemas de gestión del aprendizaje, “usan” evaluaciones digitales y ahora “usan” herramientas de inteligencia artificial para planificar clases o evaluar trabajos. Este lenguaje implica agencia humana. Presenta al docente como operador y a la herramienta como instrumento.
Pero la realidad es más compleja. Las plataformas guían el comportamiento de maneras que se sienten naturales, pero están profundamente estructuradas. Las configuraciones predeterminadas influyen en lo que los docentes notan. Los motores de recomendación moldean lo que los estudiantes encuentran. Las capas de seguridad definen los límites del conocimiento aceptable. Los paneles de análisis determinan qué formas de evidencia parecen significativas. Los docentes operan estos sistemas, pero la arquitectura del sistema orienta sus elecciones.
Aquí es donde la colonización se vuelve visible. La influencia de las grandes tecnológicas ingresa a través de esas mismas configuraciones predeterminadas, ajustes y decisiones de diseño que limitan la agencia del educador mientras dan la impresión de control. La interfaz fomenta acciones particulares. La capa de seguridad restringe lo que cuenta como indagación legítima. El panel de análisis encuadra el progreso en términos específicos. Mucho antes de que alguien tome una decisión, la plataforma ya ha moldeado las condiciones de la práctica y el desempeño.
Douglas Rushkoff captura esta dinámica en su llamado a “programar o ser programado”. Programar, en su sentido, no se refiere solo a escribir código, sino a comprender cómo se comportan los sistemas y cómo moldean la acción humana. Sin esa comprensión, los usuarios se adaptan a los sistemas en lugar de darles forma.
La inteligencia artificial educativa ahora entrena a sus usuarios de maneras sutiles. Los módulos de “uso ético” instruyen a los docentes sobre cómo actuar. Delinean responsabilidades y riesgos, pero rara vez explican cómo la plataforma gestiona datos, establece límites o interpreta principios éticos. La carga se desplaza hacia abajo. Los docentes se convierten en ejecutores de la conducta estudiantil, aun cuando no pueden ver dentro de los sistemas que definen las reglas. Los estudiantes, a su vez, aprenden a confiar en los resultados porque la interfaz los presenta como estables y fluidos.
Algunas herramientas desafían esta orientación. Trampi.ar, por ejemplo, trata a la inteligencia artificial como un objeto de examen más que como una fuente de verdad. Los estudiantes reciben resultados de personajes lúdicos que combinan perspicacia con error. Su tarea no es aceptar la respuesta, sino inspeccionarla. Desarrollan habilidades al notar patrones de razonamiento, momentos de exceso de confianza y los desajustes sutiles que a menudo se esconden en una prosa fluida. La plataforma entrena el escepticismo y una alfabetización más profunda en lugar de la aceptación ciega de resultados generados por máquinas.
Esto ilustra un cambio en cómo deberíamos percibir la inteligencia artificial en educación. Cuando los estudiantes tratan a la inteligencia artificial como algo que debe ser interrogado, se vuelven menos susceptibles a su ilusión de autoridad. Desarrollan prácticas de cuestionamiento, verificación cruzada y resistencia a la coherencia superficial del texto generado por máquinas. Estas prácticas trascienden el aula. Forman parte de una alfabetización pública más amplia necesaria en un mundo donde la inteligencia artificial se convertirá en un generador rutinario de contenido y afirmaciones.
Preparación sin soberanía
Los responsables de políticas suelen promover la “preparación” para la inteligencia artificial. Invierten en banda ancha, dispositivos y grandes plataformas digitales. Tratan el acceso como la barrera principal para participar en una economía tecnológica global. En este encuadre, la inteligencia artificial aparece como otra herramienta que las naciones deben desplegar para seguir siendo competitivas.
Sin embargo, la preparación no es lo mismo que el control. Un sistema puede contar con infraestructura robusta y aun así depender de tecnologías externas que no puede influir. Puede adoptar plataformas avanzadas mientras absorbe supuestos, valores y estructuras de gobernanza que se originan en otros contextos. La superficie se ve moderna, pero la capacidad de guiar la tecnología en el interés público sigue siendo limitada.
Estas brechas no equivalen a una pérdida formal de soberanía, pero crean condiciones en las que actores externos ganan influencia silenciosa. Cuando los sistemas públicos dependen de tecnologías que no pueden evaluar ni modificar de manera significativa, quedan sujetos a las prioridades y a los ciclos de actualización de las empresas que las proveen. La dependencia se convierte en el canal a través del cual emerge la colonización.
Las grandes tecnológicas explotan estas condiciones. Cuando las naciones dependen de infraestructura externa de inteligencia artificial, las empresas se convierten en socios no responsables en la gobernanza de la educación pública. Sus modelos moldean cómo los estudiantes buscan, escriben y formulan preguntas. Sus términos de servicio determinan qué datos salen de las aulas. Sus decisiones de producto influyen en currículos completos. Esto es colonización mediante dependencia: no impuesta por la fuerza, sino aceptada a través de la dependencia de sistemas privados como infraestructura pública.
El desafío no es rechazar herramientas externas. La colaboración global y la innovación compartida importan. El problema es cómo equilibrar la adopción con la capacidad de orientar. Los sistemas educativos necesitan la habilidad de cuestionar, negociar y exigir transparencia. Necesitan memoria institucional y experiencia profesional para evaluar nuevos sistemas antes de que se vuelvan arraigados. Sin este anclaje, la adopción de la inteligencia artificial puede acelerar la dependencia en lugar de fortalecer las instituciones públicas.
La responsabilidad mal ubicada tiene un costo social
Cuando la responsabilidad por el uso ético de la inteligencia artificial se deposita casi por completo en los individuos, la carga se vuelve insostenible. A los educadores se les pide monitorear la conducta estudiantil, asegurar el cumplimiento, gestionar riesgos de privacidad y revisar textos generados por inteligencia artificial en busca de precisión. Lo hacen en entornos donde tienen un control limitado sobre los sistemas mismos.
Este desequilibrio produce varios efectos. Los docentes experimentan una ansiedad creciente por conductas indebidas y confianza mal ubicada. Los estudiantes reciben señales mixtas sobre qué cuenta como aprendizaje legítimo. Las instituciones invierten tiempo en redactar políticas detalladas sobre inteligencia artificial, pero estos documentos a menudo desplazan el riesgo en lugar de abordar sus causas. Cuando algo sale mal, los individuos se sienten obligados a justificar sus decisiones incluso cuando el diseño de la plataforma moldeó esas decisiones.
El patrón se asemeja a una condición más amplia: los sistemas descargan la responsabilidad en los individuos mientras mantienen estructuras que resisten la transformación. Provistos de una ilusión de control, las personas se sienten responsables de resultados que no diseñaron y que nunca pueden influir por completo. Esta dinámica socava la agencia. Enmarca a la educación como un espacio de gestión de riesgos y cumplimiento más que como un lugar de indagación compartida y desarrollo con sentido.
Este patrón refleja una lógica colonial clásica. La responsabilidad fluye hacia abajo mientras la autoridad fluye hacia arriba. A los docentes se les pide salvaguardar la integridad y gestionar el riesgo, aun cuando no pueden influir en los sistemas que generan esos riesgos. Las grandes tecnológicas permanecen aisladas de la rendición de cuentas. Sus plataformas establecen las condiciones bajo las cuales las conductas indebidas se vuelven posibles, pero educadores y estudiantes cargan con las consecuencias.
Un enfoque más equilibrado alinearía la responsabilidad con la influencia real. Educadores y estudiantes deberían participar en las decisiones sobre qué herramientas adoptar, cómo evaluarlas y qué salvaguardas exigir. Las instituciones deberían demandar información clara de los proveedores sobre prácticas de datos, comportamiento de los modelos y limitaciones documentadas. Los responsables de políticas deberían crear mecanismos para auditorías independientes y supervisión comunitaria. Estas medidas desplazan la responsabilidad hacia arriba, hacia la gobernanza, en lugar de hacia abajo, hacia el cumplimiento individual.
Reequilibrar la relación entre educación y tecnología
Si la educación continúa aceptando un rol pasivo en la expansión de la inteligencia artificial, corre el riesgo de ceder su autonomía restante a sistemas construidos para prioridades corporativas más que públicas. La colonización en este contexto llega a través del consentimiento silencioso. Emerge mediante configuraciones predeterminadas, narrativas de inevitabilidad y la normalización constante del control externo. Los educadores pueden desarrollar más marcos, pero estarán siempre intentando ponerse al día con los cambios y perderán oportunidades para abordar el desequilibrio más profundo entre las instituciones que diseñan la inteligencia artificial y las instituciones que se espera que la absorban. En este espacio, las medidas de control se multiplican a expensas de la agencia y de la autoeficacia para aprender.
El trabajo que viene es institucional, cultural y político, además de requerir cambio técnico. Implica construir entornos donde docentes y estudiantes no sean solo cumplidores de reglas, sino co-diseñadores de su paisaje tecnológico. Implica reclamar tiempo, espacio y autoridad para la reflexión. Y requiere el coraje de cuestionar sistemas que prometen eficiencia pero debilitan la autonomía. Este trabajo comienza cuando los educadores se niegan a dejar que la inteligencia artificial defina los términos de su integración y, en cambio, colocan los valores de la educación en el centro de la conversación.

