Big Data en Educación

2,293 274 4MB

Spanish Pages 302 Year 2017

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Big Data en Educación

Table of contents :
Portadilla......Page 2
Créditos......Page 3
Nota de la editorial......Page 4
Contenido......Page 5
El autor......Page 7
Agradecimientos......Page 8
Prólogo a esta edición española......Page 10
Prefacio......Page 13
El libro......Page 17
CAPÍTULO 1. Introducción......Page 20
CAPÍTULO 1. Introducción. Las máquinas de aprender, los datos digitales y el futuro de la educación......Page 22
CAPÍTULO 2. La conceptualización de los datos digitales......Page 46
CAPÍTULO 2. La conceptualización de los datos digitales. Minería, analítica e imaginarios de los datos......Page 48
CAPÍTULO 3. El software, el código y los algoritmos......Page 72
CAPÍTULO 3. El software, el código y los algoritmos. Programación, automatización y gobierno de la vida cotidiana......Page 74
CAPÍTULO 4. La gobernanza digital de la educación......Page 91
CAPÍTULO 4. La gobernanza digital de la educación. Analítica, performatividad y responsabilidad políticas......Page 93
CAPÍTULO 5. La vida social de la ciencia de datos educativos......Page 126
CAPÍTULO 5. La vida social de la ciencia de datos educativos. Analítica del aprendizaje, minería de datos educativos y plataformas metrológicas......Page 128
CAPÍTULO 6. El complejo CompPsi......Page 157
CAPÍTULO 6. El complejo CompPsi. Aprendizaje no cognitivo, mejora psicológica y cambio conductual......Page 159
CAPÍTULO 7. El recableado del cerebro......Page 186
CAPÍTULO 7. El recableado del cerebro. Inteligencia artificial, sistemas cognitivos y neuroeducación......Page 188
CAPÍTULO 8. Las culturas del hacer y codificar......Page 215
CAPÍTULO 8. Las culturas del hacer y codificar. Ciudadanos digitales, del “hazlo tú mismo” y aprendices de analistas de datos......Page 217
CAPÍTULO 9. Conclusión......Page 238
CAPÍTULO 9. Conclusión. Pedagogías públicas programables del software y los big data......Page 240
Bibliografía......Page 251
Índice de materias y nombres......Page 269
Contraportada......Page 284

Citation preview

Ben WILLIAMSON

Big data en Educación El futuro digital del aprendizaje, la política y la práctica

Fundada en 1920

Nuestra Señora del Rosario, 14, bajo 28701 San Sebastián de los Reyes – Madrid - ESPAÑA [email protected] – www.edmorata.es

2

Título original de la obra: Big Data in Education. The digital future of learning, policy and practice © 2017 Ben Williamson All Rights Reserved. Authorised translation from the English language edition published by SAGE Publications Ltd. London EC1Y 1SP.

Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar, escanear o hacer copias digitales de algún fragmento de esta obra. Todas las direcciones de Internet que se dan en este libro son válidas en el momento en que fueron consultadas. Sin embargo, debido a la naturaleza dinámica de la red, algunas direcciones o páginas pueden haber cambiado o no existir. El autor y la editorial sienten los inconvenientes que esto pueda acarrear a los lectores pero, no asumen ninguna responsabilidad por tales cambios.

© EDICIONES MORATA, S. L. (2018) Nuestra Sra. del Rosario, 14, bajo 28701 San Sebastián de los Reyes (Madrid) [email protected] Derechos reservados ISBNebook: 978-84-7112-890-4 Compuesto por: M. C. Casco Simancas Diseño de cubierta: Sheila Tong. Reproducida con autorización

3

Nota de la editorial En Ediciones Morata estamos comprometidos con la innovación y tenemos el compromiso de ofrecer cada vez mayor número de títulos de nuestro catálogo en formato digital. Consideramos fundamental ofrecerle un producto de calidad y que su experiencia de lectura sea agradable así como que el proceso de compra sea sencillo. Una vez pulse al enlace que acompaña este correo, podrá descargar el libro en todos los dispositivos que desee, imprimirlo y usarlo sin ningún tipo de limitación. Confiamos en que de esta manera disfrutará del contenido tanto como nosotros durante su preparación. Por eso le pedimos que sea responsable, somos una editorial independiente que lleva desde 1920 en el sector y busca poder continuar su tarea en un futuro. Para ello dependemos de que gente como usted respete nuestros contenidos y haga un buen uso de los mismos. Bienvenido a nuestro universo digital, ¡ayúdenos a construirlo juntos! Si quiere hacernos alguna sugerencia o comentario, [email protected] o por teléfono en el 91 4480926

4

estaremos

encantados

de

atenderle

en

El autor Agradecimientos Prólogo a esta edición española Prefacio El libro CAPÍTULO 1. Introducción. Las máquinas de aprender, los datos digitales y el futuro de la educación CAPÍTULO 2. La conceptualización de los datos digitales. Minería, analítica e imaginarios de los datos CAPÍTULO 3. El software, el código y los algoritmos. Programación, automatización y gobierno de la vida cotidiana CAPÍTULO 4. La gobernanza digital de la educación. Analítica, performatividad y responsabilidad políticas CAPÍTULO 5. La vida social de la ciencia de datos educativos. Analítica del aprendizaje, minería de datos educativos y plataformas metrológicas CAPÍTULO 6. El complejo CompPsi. Aprendizaje no cognitivo, mejora psicológica y cambio conductual CAPÍTULO 7. El recableado del cerebro. Inteligencia artificial, sistemas cognitivos y neuroeducación CAPÍTULO 8. Las culturas del hacer y codificar. Ciudadanos digitales, del “hazlo tú mismo” y aprendices de analistas de datos CAPÍTULO 9. Conclusión. Pedagogías públicas programables del software y los big

5

data Bibliografía Índice de materias y nombres

6

BEN WILLIAMSON es profesor numerario de la Facultad de Ciencias Sociales de la Universidad de Stirling, en Reino Unido. Sus estudios versan sobre política educativa y tecnología digital, con especial interés por la intervención de las redes de expertos técnicos, comerciales, filántropos y científicos en la gobernanza educativa basada en datos. Anteriormente ha publicado sus estudios en diversas revistas de educación, sociología y política, mantiene un blog educativo en https://codeactsineducation.wordpress.com/, y su cuenta de Twitter es @BenPatrickWill.

7

Este libro surgió de una serie de seminarios financiados por el Economic and Social Research Council (referencia de la subvención ES/L001160/1) que organicé y dirigí entre 2013 y 2015. El objetivo de “Actos de Codificación en Educación: aprender a través del código, aprender a codificar” era propiciar un diálogo crítico e interdisciplinar sobre el papel del software, la codificación, los algoritmos y los datos digitales entre investigadores de la educación, pedagogos, científicos sociales y diversas organizaciones interesadas en las tecnologías de la educación. Los seminarios demostraron ser el catalizador de un programa de estudio y redacción que finalmente culminó en este libro. Deseo dar las gracias a varios colegas por su participación en Actos de Codificación en Educación: Richard Edwards, Tara Fenwick, Sian Bayne, Jeremy Knox, Sarah Doyle, Lyndsay Grant y Alison Oldfield. Muchos de los brillantes oradores que invitamos a exponer su trabajo en Actos de Codificación contribuyeron a sentar las bases del material desarrollado en este libro: gracias a todos los participantes. Parte del material de este libro se ha beneficiado también de la colaboración directa con Carlo Perrotta, Deborah Lupton, Jessica Pykett, Selena Nemorin, Jen Ross, John Morgan y Bethan Mitchell. En los tres años en que he estado trabajando en este libro, mis hijos Cormac y Carys han empezado la educación primaria. Las escuelas, evidentemente, llevan muchos años empleando sistemas numéricos en su trabajo con el alumnado, pero como padre ha sido fascinante ser testigo de la actividad con datos que hoy tiene lugar a diario en los centros educativos. Gran parte de esa actividad conserva el formato de lápiz y papel, pero Cormac y Carys han comenzado la escuela cuando la recogida, el análisis y la presentación de datos están cada vez más digitalizados. Como padres, hoy podemos monitorizar desde casa cómo les va a nuestros hijos en la escuela —desde los puntos de vista académico, social, emocional y conductual— mediante exquisitas herramientas nuevas basadas en la red. Los datos se están convirtiendo incluso en motivo de orgullo

8

para los estudiantes, pero también pasan a formar parte de grandes bases de datos ubicadas muy lejos en potentes servidores en la nube. Se incorpora a los jóvenes a extensas redes de hardware y software gestionadas por empresas tecnológicas comerciales y promovidas por las últimas prioridades políticas. Cormac y Carys, este libro es para vosotros, y es fruto de mi inquietud ante vuestras versiones digitales en la sombra que se forman a través de los datos que acarreáis en vuestro andar educativo. Esta es la razón de que a mamá y a papá nos guste tanto sacaros a los bosques, los lagos y las montañas de Escocia. Gracias, como siempre, a Vanessa por llevarnos a donde sea: tú conduces y yo sigo el mapa.

9

¿Fue el “big data” solo una pieza efímera de la historia social y técnica? Desde la publicación original en inglés de Big Data in Education: The Digital Future of Learning, Policy and Practice, el fenómeno del “big data” ha sido superado por el resurgimiento del lenguaje, las ideas y las tecnologías de la Inteligencia Artificial (IA). Aunque la IA tiene una larga y turbulenta historia en informática y cibernética, hoy los expertos proclaman que la IA se está haciendo posible gracias a los avances en el aprendizaje automático, las redes neuronales, el diseño de algoritmos y el análisis de las tiendas de datos digitales en constante crecimiento. La más fuerte inteligencia artificial con conciencia propia puede seguir siendo ciencia ficción, sin embargo, la IA más débil o estrecha ya se está infiltrando en la vida cotidiana en forma de tecnologías inteligentes que pueden aprender de los datos que procesan y que actúan cada vez más sin requerir supervisión humana. El éxito de Google con DeepMind’AlphaGo para aprender y dominar el juego de Go en 2017, y luego enseñar a los humanos expertos nuevos movimientos en el antiguo juego, demuestra considerables avances técnicos en inteligencia artificial que han entusiasmado tanto a los científicos informáticos como a las empresas de tecnología comercial. Si bien el entusiasmo por la IA podría sugerir que los grandes datos han tenido su momento, estos conceptos son parte de los mismos desarrollos contemporáneos en máquinas de aprendizaje basadas en algoritmos basadas en datos. El algoritmo de aprendizaje se ha convertido en una nueva fuente de experiencia no humana que parece ejercer una autoridad cada vez mayor sobre una amplia gama de actividades en los próximos años. Como muestra la explosión de la IA, los avances técnicos en datos digitales se están moviendo rápidamente y las innovaciones en datos educativos se están moviendo a la misma velocidad. En este libro, me enfoco en el concepto central de un “imaginario” de big data en educación. Este imaginario de datos educativos es una visión cada vez más

10

popular del futuro de la educación que anima las actividades de los desarrolladores de tecnología educativa, grupos de expertos, consultoras, filántropos de la tecnología adinerada, profesores y políticos. Se basa en suposiciones sobre el análisis de datos de alta velocidad o “en tiempo real”, la objetividad de los algoritmos, la posibilidad de capturar una gran diversidad de actividades de aprendizaje, el potencial para predecir o anticipar eventos futuros y la posibilidad de utilizar datos para dar forma al futuro a través de intervenciones específicas. Cuando comencé a escribir el libro, la idea de un imaginario me pareció apropiada porque gran parte del entusiasmo por los macrodatos en la educación parecía descansar en aspiraciones, ambiciones, esperanzas y exageraciones, en lugar de fundamentarse en la capacidad real o las posibilidades de los sistemas técnicos. Eso ahora está cambiando. Muchos de los desarrollos de big data cubiertos en los siguientes capítulos están comenzando a alcanzar su madurez. Los análisis de aprendizaje, por ejemplo, están penetrando los sistemas de educación superior en todo el mundo. Están proliferando nuevos mercados de aplicaciones para docentes y de productos para el procesamiento de datos en línea. Compañías como Pearson e IBM están experimentando con asistentes de inteligencia artificial para el aprendizaje que pueden integrarse en el software digital. Las organizaciones de pruebas internacionales como la OCDE realizan rutinas de evaluación en línea basadas en computadoras para acelerar los circuitos de prueba, análisis e informe de resultados. Otros nuevos desarrollos en el análisis de datos educativos están abriendo posibilidades más controvertidas. Los sistemas de reconocimiento facial para la seguridad escolar se han convertido en realidad; esto plantea serias preocupaciones sobre la vigilancia y la privacidad. Aspectos de aprendizaje tales como los estados psicológicos o incluso la actividad neuronal incluso se están haciendo visibles con los avances en la computación afectiva, la biometría y la neurotecnología. Si bien las primeras grandes olas de innovación de big data en la educación se centraron en la evaluación continua y el seguimiento académico, la próxima ola de desarrollos está diseñada para extraer datos mucho más íntimos de los cuerpos de los estudiantes, rostros e incluso cerebros. Big Data en Educación es el registro de un período de desarrollo social y técnico que continúa avanzando a un ritmo considerable. Además de la velocidad de este desarrollo, los datos digitales en educación también se están expandiendo geográficamente. La mayoría de los ejemplos descritos en este libro son del contexto angloamericano. Esto no debe sorprenderlos pues muchos análisis de datos, aprendizaje automático e inteligencia artificial se originan en laboratorios de I + D de EE. UU. y del Reino Unido, especialmente en Silicon Valley, y ed-tech se han beneficiado sustancialmente del financiamiento de la empresas de capital riesgo de EE. UU. Pero los horizontes geográficos de los datos digitales en educación se han expandido rápidamente al sudeste de Asia, África y América Latina también, con China continental en particular avanzando rápidamente en su sector de tecnología educativa, como lo demuestra la aparición en 2018 del informe Learning Analytics for the Global Sur1.

11

Como se indica en el informe, la difusión de datos digitales en todo el mundo plantea nuevos y apremiantes problemas relacionados con el contexto cultural, la desigualdad y las formas de educación, enseñanza y aprendizaje específicas a nivel local. Cuando un análisis de aprendizaje o un sistema de IA diseñado en California entra en contacto con el Sur Global, trae consigo las suposiciones de los diseñadores sobre cómo se debe organizar la educación, cómo se debe hacer una política basada en la evidencia, cómo se debe practicar la enseñanza, y cómo el aprendizaje debe ser conceptualizado. Específicamente en América Latina, una región marcada por desigualdades educativas significativas, se considera que el análisis del aprendizaje es una fuente potencial de información rica en datos sobre el desempeño del estudiante, el compromiso y el riesgo de deserción escolar. Pero estos análisis también presentan desafíos éticos complejos, como la privacidad y la protección de datos, la seguridad y la responsabilidad. También requieren una infraestructura técnica y estándares de interoperabilidad que son caros de construir y difíciles de coordinar. A medida que regiones como América Latina, el sudeste de Asia y China continental adopten tecnologías y prácticas de datos educativos, los educadores, investigadores y legisladores deberán abordar estos desafíos con urgencia. Se requieren nuevos tipos de alfabetización de datos para que los datos educativos se utilicen de manera informada y ética. Big Data en Educación pretende ser una introducción crítica a desarrollos contemporáneos complejos en educación basada en datos que se aceleran rápidamente como parte de una era emergente de inteligencia artificial, análisis y poder algorítmico. Stirling, 23 de julio de 2018

1 Véase http://dl4d.org/portfolio-items/learning-analytics-for-the-global-south/

12

Los big data, la minería de datos, la analítica, el aprendizaje automático o de máquina y la inteligencia artificial (IA) se han convertido en algunas de las novedades técnicas y los conceptos más importantes de los últimos años. Las empresas de mayor éxito son hoy las que pueden ofrecer un servicio digital atractivo y, a la vez, incitar al usuario a proporcionar datos que después se puedan explotar mediante complejas tecnologías de análisis. Los algoritmos de busca de Google dan acceso a la información al tiempo que siguen los hábitos online del usuario. Facebook recoge datos sobre los usuarios para monitorizar y mejorar la adaptación a sus horarios y el suministro de noticias. Amazon, Netflix y Spotify analizan la información del usuario para hacer recomendaciones automáticas sobre medios que puedan gustarle. Y dispositivos ponibles1 como los relojes inteligentes recogen información sobre la salud y la forma física y proponen al usuario opciones sanas de modo de vida. Igualmente, existen softwares de inteligencia empresarial que ayudan a tomar mejores decisiones estratégicas en los negocios. Nos pasamos la vida entre hardware y software digitales, generamos constantemente información que se puede emplear para determinar adónde vamos, qué nos gusta, cómo nos sentimos, qué consumimos, etc. Una consecuencia es que podemos ser observados por organizaciones que pueden acceder a nuestros datos. Las agencias del Estado pretenden acceder a las redes de los medios sociales para identificar y seguir la actividad online de los ciudadanos. Las fuerzas policiales experimentan con tecnologías analíticas predictivas que pueden calcular dónde y cuándo es más previsible que se cometa un delito, y quién es más probable que lo cometa. Facebook experimenta con sus usuarios manipulando el suministro de noticias para cambiar su estado de ánimo. Incluso las batallas electorales se libran hoy mediante propaganda informática que se extiende por las redes de los medios sociales mediante los algoritmos de tendencia y los detallados perfiles de las conductas, las preferencias y los gustos de los usuarios. Nos guste o no, ahí está nuestra versión personal basada en datos, esparcida por diferentes bases de datos como puntos de información en torrentes masivos de big data. Los procesos de la minería de datos, los algoritmos y la analítica se aplican cada vez más

13

para conocernos y comprendernos personalmente, y también para conocer y entender las ciudades, las comunidades y las sociedades a las que pertenecemos. Y a medida que la innovación tecnológica aplicada al propio aprendizaje de las máquinas2 y la inteligencia artificial hace más inteligentes a las tecnologías, surgen nuevos tipos de máquinas diseñadas para interactuar con nosotros mediante la recolección y el análisis de datos sobre lo que hacemos en tiempo real para averiguar nuestras circunstancias, y adaptarse para atender a nuestras necesidades e intereses. El incremento de la cobertura mediática sobre los medios sociales, la vigilancia online por parte del Estado y la propaganda computacional, ha despertado la conciencia pública de todas estas actividades. Algunos de estos temas se han convertido en materia de la cultura popular. El programa Humans de la televisión británica, por ejemplo, escenifica las preocupaciones actuales sobre la robótica, la automatización y la inteligencia artificial, con un reparto de “humanos sintéticos” sometidos al “aprendizaje automático” para poder sobrevivir en el mundo humano. La versión cinematográfica de la novela satírica El círculo, de Dave Eggers, sobre una empresa de medios sociales que se propone perfeccionar los conocimientos mediante una vigilancia ininterrumpida, ha cobrado un importante prestigio. La serie de televisión australiana The Code muestra un turbio mundo de agencias estatales de big data y agencias privadas de vigilancia. Por último, la película Margin Call cuenta lo ocurrido con la crisis económica cuando modelos informáticos y algoritmos arriesgados desarrollados para procesar grandes datos económicos comenzaron a operar fuera del control de sus creadores. El código, los datos, los algoritmos, la inteligencia artificial y el aprendizaje automático, lejos de ser asuntos meramente técnicos, están hoy firmemente integrados en la sociedad y la cultura, en la economía y en la política. Los big data han pasado a formar parte fundamental también del panorama educativo. Las mismas máquinas de aprendizaje que comparten con nosotros nuestra vida en los medios sociales, en los teléfonos inteligentes y en la Red, cobran especial importancia cuando empiezan a llenar el campo educativo. Según muchos de los entusiastas que conoceremos en este libro, los macrodatos nos pueden ayudar a aprender más, a mayor velocidad y mejor. Las aplicaciones y los servicios que procesan los big data pueden ayudar al alumno de los centros no universitarios y universitarios facilitándole retroalimentación sobre la medida de su progreso, y recomendándole lo que pueda hacer para mejorar. Pueden ayudar a los legisladores a determinar el rendimiento institucional y del sistema, y a generar ideas para la futura intervención política. La inteligencia de datos puede ayudar a los profesores a revisar y evaluar los programas mediante el seguimiento de la participación y los logros de los estudiantes, y a los líderes de los centros y las universidades a revisar y evaluar a la vez el rendimiento de la institución y de los profesores. A medida que el diseño las vaya haciendo cada vez más inteligentes, receptivas y adaptativas gracias a su aprendizaje a partir de los datos, se dice, las máquinas se integrarán en todos los ámbitos de la educación, desde la política hasta las

14

prácticas educativas. “Big data” se ha convertido en un término polémico que diferentes grupos utilizan en sentidos diversos. La definición técnica simple es que los big data ofrecen una enorme cantidad de información, extremadamente diversa, reunida a una velocidad extraordinaria. En vez de trabajar con una definición técnica estricta de big data, el término se puede entender mejor como un fenómeno social emergente y como un concepto de enorme fuerza que ha cobrado una importancia enorme en los últimos años. Los macrodatos son también inseparables de los programas de software, los algoritmos y la analítica necesarios para reunirlos y gestionarlos, todo lo cual requiere la actuación de diversos tipos de expertos. Quien quiera especializarse en la minería de datos, la analítica y el aprendizaje automático, cuenta hoy con todo un mercado de libros de texto, manuales, conferencias y cursos de formación. Detrás de los big data están las personas: no solo especialistas en datos, sino programadores de software y diseñadores de algoritmos, además de agentes políticos, científicos y economistas cuyo objetivo es desarrollar y utilizar sistemas de macrodatos para sus diversos fines. Y los big data tienen que ver también con las personas que los forman, cuyas vidas se registran individualmente y a gran escala. En otras palabras, los macrodatos son simultáneamente técnicos y sociales. Técnicos porque son producto de programas y procesos informáticos, sociales porque los producen y usan operativos humanos que trabajan en empresas concretas y se generan a partir de la vida cotidiana de las personas de todo el planeta. Como fuente de conocimiento, los macrodatos tienen también el poder de cambiar lo que sabemos de la sociedad y cómo lo sabemos, así como a las personas y a las instituciones que viven en ella. Los big data incitan con fuerza a contemplar el futuro. Parece que el acceso a enormes cantidades de información genera el potencial de un mejor conocimiento de los comportamientos, las instituciones y hasta de la sociedad entera. De modo que el mejor conocimiento impulsado por los macrodatos se puede emplear para catalizar innovaciones o intervenciones nuevas en todos los ámbitos, desde el empresarial y el del entretenimiento, al del gobierno y el de los servicios públicos. El campo de la educación emerge como enclave fundamental para la producción de visiones del futuro impulsado por los datos. Este libro ilustra cómo las visiones de la educación han estado animadas por ideas clave relacionadas con los big data. Como concepto y como conjunto de posibilidades técnicas, los big data atraen por igual la imaginación de las empresas, los laboratorios de ideas, las fundaciones filantrópicas y benéficas, los políticos y los legisladores, que ven en ellos una nueva reserva potencialmente ilimitada de ideas sobre el funcionamiento de las entidades y los sistemas educativos, sobre el rendimiento de los profesores, y sobre los logros de los estudiantes. Para sus defensores, las ideas potenciales que la inteligencia de datos genera se pueden emplear para diseñar nuevos cursos, nuevos recursos, nuevas políticas y nuevas prácticas. Incluso se puede disponer de máquinas de aprendizaje basadas en la

15

inteligencia artificial que pueden actuar de asistentes digitales tanto del profesor como del alumno, determinando inteligentemente en cualquier actividad educativa unos patrones que puedan servir después para ofrecer una retroalimentación inmediata que mejore esa actividad o, tal vez, hasta la automatice. En educación, los big data son tanto un recurso imaginativo que hay que explotar en busca de posibilidades futuras como una realidad técnica emergente. Sin embargo, como demuestra este libro, imaginar el futuro de la educación con los big data significa poner en marcha avances reales que van a afectar a los procesos educativos de todo el mundo.

1 Del inglés wearable devices, o wearable technology cuya traducción más habitual es dispositivos ponibles o tecnología ponible que hace referencia a los relojes, pulseras, etc, inteligentes. (N. del E.) 2 También llamado aprendizaje automático, del inglés machine learning es el subcampo de las ciencias de la computación y una rama de la inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. (N. del E.)

16

En el primer capítulo explico cómo la educación se está “digitalizando” y “dataficando” progresivamente. A través de la digitalización, cada vez son más los aspectos de la educación —desde los primeros años de primaria y secundaria, hasta la enseñanza superior y el aprendizaje a lo largo de la vida— que se gestionan a través de programas informáticos escritos en código y cuyo funcionamiento depende de algoritmos. El proceso de datificación implica diversas formas de información sobre la enseñanza impartida con datos digitales que se pueden leer en máquinas, unos datos que después se pueden someter a complejas formas de procesado, cálculo, análisis, interpretación, visualización y difusión. En el capítulo se detalla cómo la digitalización y la dataficación se refuerzan mutuamente, y cómo han empezado a estimular la imaginación y la visión de poderosos actores sociales. Con la adopción del concepto de “imaginarios sociotécnicos”, en el Capítulo 1 analizo cómo las visiones del futuro “deseable” para la educación basada en datos digitales se proyectan y cobran forma en la actualidad. En el Capítulo 2 se ofrece un mapa conceptual e histórico para la comprensión de los big data. Se demuestra que el interés por los datos se ha convertido en elemento fundamental de la actividad de las empresas, las ciudades, los gobiernos, los laboratorios de ideas y la propia práctica de las ciencias sociales. La tesis principal del capítulo es la necesidad de interpretar críticamente los big data. No son un simple reflejo estadístico exacto del mundo social como pretenden algunos científicos de datos, sino una fuente primordial de poder social que, a través de los expertos técnicos que recogen, limpian y calculan los datos, interviene activamente en cómo se conocen y ven los mundos actuales y en la actuación sobre ellos. Pero los macrodatos no pueden existir por sí solos; para su recolección y análisis requieren un enorme complejo de software, códigos, algoritmos e infraestructuras. En el Capítulo 3 se detalla la función del software en la organización de los big data para explicar cómo los códigos y los algoritmos intervienen en la organización de las instituciones, los espacios y la vida cotidiana, todos ellos impulsados por los datos. En los capítulos siguientes se ofrecen análisis minuciosos de cómo los imaginarios

17

sociotécnicos de los datos digitales se desarrollan y difunden en contextos del mundo real. El Capítulo 4 se centra en las formas en las que la política educativa se materializa cada vez más mediante instrumentos digitales que posibilitan que los datos políticos fluyan por todo el sistema de forma continua e inmediata. La analítica del aprendizaje y las herramientas de minería de datos educativos, de las que se ocupa el Capítulo 5, permiten el seguimiento, la monitorización y la predicción en tiempo real de las actividades, las conductas y los sentimientos de cada alumno y alumna1 dentro del aparato pedagógico del aula. Con la atención puesta en el campo emergente de la “ciencia de datos educativos”, en el capítulo se explican con detalle las diferentes formas actuales de minería y analítica de datos, desde la analítica administrativa y académica a nivel institucional, hasta la analítica del aprendizaje granular e individualizado retroalimentadora dentro de la propia aula física. A continuación, el Capítulo 6 se centra en las tecnologías educativas diseñadas para recoger datos sobre el cuerpo, las emociones y el comportamiento del alumno. Subraya la fabricación de nuevos tipos de dispositivos de “computación afectiva” para generar una corriente continua de información sobre los movimientos y los sentimientos del alumno, y el uso de nuevos dispositivos de gestión de la conducta para recoger y visualizar información sobre el comportamiento de las personas. Los avances actuales de los “sistemas de base cognitiva”, la “inteligencia artificial”, el “aprendizaje automático” y las “redes neuronales” prometen producir tecnologías educativas cada vez más “inteligentes”, capaces de adaptarse y responder al estudiante; este es el tema del Capítulo 7. La aportación específica de este capítulo será comprender las interdependencias de las tecnologías de los big data y la neurociencia en los planes para el futuro diseño de aulas cognitivas donde personas y máquinas actúen juntas como sistemas simbióticos. El Capítulo 8 se centra en la idea de que los propios jóvenes pueden aprender a escribir códigos informáticos y realizar análisis de datos digitales. El capítulo documenta cómo “aprender a codificar” y las iniciativas de “digitalización” forman parte de un esfuerzo concertado entre el Estado, el sector de la tecnología comercial y la sociedad civil para hacer al ciudadano partícipe de un futuro digitalizado e impulsado por los datos. En la Conclusión se destaca un importante contexto para futuros trabajos en este campo: el creciente fenómeno de personas que descubren el mundo a través de los medios sociales, y las consecuencias de tal realidad para la vida colectiva en la medida que estos medios filtran, disponen y personalizan el acceso a la información a partir del perfil de datos del usuario.

18

1 Siempre deseamos evitar el sexismo verbal, pero también queremos alejarnos de la reiteración que supone llenar todo el libro de referencias a ambos sexos. Así pues, a veces se incluyen expresiones como “niños y niñas”, “alumnos y alumnas” y otras veces se utiliza el masculino en general o algún genérico como profesorado y alumnado. (N. del E.)

19

20

21

En octubre de 2015, más de 1.000 jóvenes desarrolladores de software y hackers asistían al HackingEDU, un hackatón de tres días celebrado en el Centro de Eventos de San Mateo, en San Francisco, con el objetivo de resolver problemas educativos. Puesto en marcha originariamente en la Cumbre de Google de 2014, el HackingEDU anual, el “mayor hackatón educativo del mundo”, tiene como objetivo ayudar a desarrolladores de software y programadores, la mayoría de ellos estudiantes universitarios, a “revolucionar la industria educativa” mientras compiten por más de 100.000 dólares en premios (HUNCKLER, 2015). Con talleres de expertos, debates y conferenciantes invitados, HackingEDU 2015 contó con la ayuda de importantes compañías tecnológicas, entre ellas IBM, Google, Uber, Paypal y Automatic, y de prósperas empresas de tecnología educativa como Chegg y EdModo. En el evento se insistió en formas de usar las tecnologías para “sacudir” y “revolucionar” la enseñanza, de modo similar a como “Uber revolucionó la industria del transporte a partir de una idea muy sencilla: pulsar un botón y disponer de transporte”, como lo definía el coordinador de colaboradores (UBER, 2015). Algunos de los proyectos tecnológicos elaborados durante HackingEDU 2015 llevaban títulos como Learnization, CereBro, PocketHelp, QuizPrep, BrainWars y StudyTracker, casi todos basados en una mezcla de tecnologías de datos digitales y bases de datos, y creados por jóvenes diseñadores que utilizaban toda una diversidad de lenguajes de programación, programas de software y dispositivos de hardware. En otros sitios de San Francisco, todos los años se desarrollan muchos otros proyectos vanguardistas de tecnología educativa con la ayuda de programas “incubadora” o “aceleradores”. Las incubadoras normalmente ayudan a los emprendedores y las nuevas

22

empresas emergentes1 a probar y validar ideas, y los aceleradores convierten productos en negocios escalables, a menudo a través de la inversión directa de capital, y ofrecen al emprendedor servicios legales, económicos y de tecnología de la información, además de asesoramiento, espacio para trabajar y acceso a educadores, empresarios, socios y posibles inversores (GOMES, 2015). Por ejemplo, IMAGINE K2 es una “empresa emergente con un programa acelerado centrado en la tecnología educativa”: Nuestro objetivo es mejorar las probabilidades de éxito de su empresa. Para ello, trabajamos con una combinación de asesoría estratégica y mentorización, una serie de conferenciantes y seminarios que ayudan a los fundadores a tomar mejores decisiones, redes de valor añadido de emprendedores y educadores, y una financiación inicial de 100.000 dólares… Las empresas empiezan a recibir ayuda de IMAGINE K12 de forma inmediata después de su aceptación, incluidos 20.000 dólares de financiación… Todas las empresas emergentes aceptadas deben trasladarse a Silicon Valley para seguir un programa intensivo de cuatro meses. (IMAGINE K12, 2015) La incubadora EdTech y los programas aceleradores como IMAGINE K12 ofrecen el espacio, la ayuda y la inversión necesarios para que los programadores diseñen tecnologías educativas, y en última instancia actúan de mecanismos que pueden hacer realidad los sueños “revolucionarios” de los participantes en competiciones como HackingEDU. En particular, IMAGINE K12 se ha fusionado con otro programa acelerador, Y Combinator, una organización creada por el multimillonario fundador de PayPal, Peter Thiel, importante contribuyente y portavoz en la campaña presidencial de Donald Trump de 2016. Destacado defensor de la tecnología educativa, Thiel ha ayudado y financiado a muchas empresas y startups que se ocupan de “revolucionar” la enseñanza mediante aplicaciones de software basadas en datos (LEVY, 2016). Para las nuevas empresas que consiguen superar el período de incubación y aceleración, inversores emprendedores de Silicon Valley llevan financiando desde más o menos 2010 proyectos de tecnología educativa con un entusiasmo económico sin precedentes (EdSurge, 2016). Con webs de apoyo político e inversión empresarial para la creciente tecnología educativa, los sectores gubernamental y privado imaginan y persiguen un nuevo futuro digital para la educación, con importantes consecuencias para el aprendizaje, la política y la práctica. HackingEDU es un evento importante con el que iniciar este libro por una serie de razones. Sitúa la educación tal como hoy existe como un sistema incierto y quebrado que hay que revolucionar. Propone que la solución está en manos de los desarrolladores de software y hackers que sepan escribir código. Señala que la disponibilidad de cantidades ingentes de datos educativos se puede emplear para generar ideas sobre los problemas de la enseñanza y para encontrar soluciones. Y también demuestra que las empresas tecnológicas del sector privado han comenzado a fijar la atención en la educación y en su propio papel para resolver los problemas de esta. Incubadoras y aceleradores como

23

IMAGINE K12 e Y Combinator pueden incorporarse a la experiencia empresarial para convertir productos nuevos en empresas emergentes de éxito, para que los programadores afinen el código y los algoritmos necesarios de modo que el producto de esas empresas funcione, y para conseguir la inversión necesaria para ponerlo en práctica. La promesa parece sencilla. Se toma el modelo de Uber, la aplicación móvil que ha transformado el servicio de taxi gracias a la recogida de datos de sus millones de usuarios, y luego se traduce este modelo en plantilla para la reforma educativa. Se financia, incuba y acelera hasta que alcance el rendimiento óptimo. Todo lo que se necesita para revolucionar la educación del futuro son unos pocos millones de líneas de código de software y enormes cantidades de datos digitales.

La digitalización y dataficación de la educación El propósito de este libro es entender y detallar cómo los datos digitales y el código y los algoritmos que componen el software se mezclan con determinadas agendas políticas, intereses comerciales, ambiciones empresariales, objetivos filantrópicos, formas de experiencia científica y conocimientos profesionales, para crear nuevas formas de entender e imaginar la educación e intervenir en ella. Hoy la educación es un enclave fundamental en que proliferan y ganan credibilidad los big data y las técnicas algorítmicas de la minería y el análisis de datos. Sin embargo, el incremento cuantitativo de los datos, propiciado por los avances recientes y los efectos cualitativos que estos datos empiezan a tener en la educación, han pasado en gran medida desapercibidos, en medio de intereses y preocupaciones de perfil mucho más alto, sobre la minería de datos que las empresas de medios sociales practican con sus propios usuarios, con una publicidad online basada en los datos del consumidor, y las formas de vigilancia basada en datos que practican los gobiernos (VAN DIJCK, 2013). Con la disponibilidad de datos digitales en diversas áreas de la vida pública y privada “se ha propagado espectacularmente un nuevo aparato de medición”, a la vez que “una serie de cambios culturales en los que la medición se considera altamente deseable” (BEER, 2016a, pág. 3). La educación, en cambio, parece algo más “corriente”: Después de la enorme atención ya prestada a las empresas de medios sociales y a las agencias estatales y de seguridad, hoy, a medida que la minería de datos se hace algo más normal, hemos de atender a actores más corrientes. (KENNEDY, 2016, pág. 7) Este libro afronta el reto de investigar las tecnologías, las organizaciones y las prácticas de los datos digitales que progresivamente pasan a formar parte de muchos aspectos de la educación. Se está desarrollando un vasto aparato de medición que puede servir de base de los sistemas educativos nacionales, las instituciones y las actuaciones de las personas que las ocupan.

24

El objetivo de evaluar o medir la enseñanza tiene una larga historia que se remonta al siglo XIX (LAWN, 2013), pero hoy, con las nuevas tecnologías de recolección, análisis y retroalimentación de datos desarrolladas y difundidas por todo el sistema, ese objetivo amplía su alcance y mejora en precisión (BENEITO-MONTAGUT, 2017; SELWYN, 2015). Asimismo, hace muchos años que los centros no universitarios y universitarios utilizan programas de aprendizaje electrónico en sus procesos pedagógicos y docentes (SELWYN, 2011), pero estos recursos, incrementados con los big data y la analítica, hoy pueden adaptarse a sus usuarios y “replicar” a los educadores (MAYER-SCHÖNBERGER y CUKIER, 2014). El software y los macrodatos se están convirtiendo en elementos integrales del modo de gestionar la instituciones educativas, la aplicación de las prácticas de los educadores, la elaboración de las políticas educativas, la experiencia de la enseñanza y el aprendizaje, y el modo de llevar a cabo la investigación educativa. La presencia de los datos y los programas digitales en la educación aumentan con la masiva inversión económica y política en las tecnologías educativas, y con el gran crecimiento de la recolección y el análisis de datos en los procesos legislativos, la extensión de las tecnologías de medición del rendimiento a la gestión de las instituciones docentes, y la rápida expansión de las metodologías digitales en la investigación educativa. Muchas de las formas de funcionamiento de las aulas y los departamentos educativos, de las decisiones de los dirigentes, y la interpretación de datos por parte de los investigadores, sencillamente, y en medida considerable, no se producirían tal como hoy se supone sin la presencia de la codificación de software y el procesamiento de datos digitales que esa presencia activa. Así pues, para apreciar en toda su magnitud cómo se generan los datos digitales y los efectos materiales que se producen en la enseñanza, es fundamental contemplar los datos, y el código y los algoritmos del software que los procesan, en relación con una diversidad de otros factores que enmarcan su uso. Las agendas políticas relativas a la política y la gobernanza educativas, los intereses comerciales por el mercado de la tecnología educativa, los objetivos de las organizaciones filantrópicas y benéficas de ayuda a sistemas pedagógicos alternativos, la biología y la neurociencia, así como los conocimientos prácticos de los profesionales de la enseñanza, se suman a nuevos tipos de prácticas de datos y tecnologías digitales. Es decir, la activación de los datos digitales en la educación se produce en relación con diversas prácticas, formas de pensar, ambiciones, objetivos y aspiraciones que en conjunto deciden el uso que se vaya a hacer de los datos, definen la tareas y los proyectos con los que aquellos se utilizan, y codeterminan los resultados de cualquier forma de análisis de datos educativos. La función y las consecuencias de los datos digitales en la educación no se pueden entender sin apreciar sus relaciones con otros elementos tradicionales de la educación: las políticas, los mecanismos de rendición de cuentas, los imperativos comerciales, los objetivos de organizaciones benéficas, los conocimientos científicos y la práctica profesional. En este sentido, el tema de este libro es el proceso mixto de la “dataficación” y la

25

“digitalización” de la enseñanza. Dicho de modo sencillo, la “dataficación” se refiere al paso de diferentes aspectos de la educación (por ejemplo, la calificación de los exámenes, los informes de la inspección educativa, o los datos “clickstream” (sobre la interacción del usuario con una determinada web) relativos a un programa online, a datos digitales. La conversión de la información sobre la educación en datos digitales permite que esa información se pueda incluir en bases de datos, donde se puede medir, hacer cálculos sobre ella, y así pasarla a gráficos, tablas y otras formas de presentación gráfica. La “digitalización” se refiere a la traducción de diferentes prácticas educativas a código de software, cuya muestra más visible son las formas en que aspectos de la enseñanza y el aprendizaje se digitalizan como productos de software de aprendizaje electrónico. Diversos aspectos de la educación, desde la política, el liderazgo, la gestión y administración, hasta la práctica en el aula, la pedagogía y la evaluación, hoy se someten cada vez más al proceso de digitalización, con el diseño de código de software y algoritmos para aumentar y reelaborar las tareas y los procesos diarios de todo el sector educativo. La dataficación y la digitalización se ayudan y complementan de muy diversas formas. Por ejemplo, cuando un determinado programa de aprendizaje electrónico se codifica en forma digital, lo más habitual es que se diseñe de manera que pueda generar información sobre las formas en que se utiliza (visible, por ejemplo, en los archivos de registro que muestran cómo el usuario ha interactuado con el programa). Después, esta información se puede usar, como datos digitales analizables, para que los fabricantes de software puedan conocer mejor el uso que se hace de su producto, unos datos que a continuación se pueden emplear como ayuda para la escritura de un código mejor (un parche de software, o la mejora o actualización del programa) o la programación de productos de software completamente nuevos. Otro ejemplo: cuando millones de estudiantes de todo el mundo realizan un mismo test global, sus actividades en última instancia contribuyen a la creación de una ingente base de datos de resultados de esa prueba. Interpretar las vastas reservas de datos de este tipo de bases solo es posible mediante un software codificado de modo que permita determinados tipos de análisis e interpretaciones. El programa en cuestión no tiene que ser necesariamente atractivo —la dataficación de la educación depende en buena media de la codificación digital empleada para elaborar programas corrientes como las hojas de cálculo y los paquetes de análisis estadístico— pero no hay duda que agrada mucho más si ofrece formas muy gráficas de visualizar los datos y si, además, es asequible y de uso fácil. Con las tecnologías y los datos educativos, los procesos de digitalización y dataficación se apoyan y refuerzan mutuamente. En resumen, actualmente gran parte de la educación está influida y determinada por la producción de líneas de código con las que funciona el software digital, y por la generación de datos digitales que permiten reunir información sobre la educación, calcularla y comunicarla con productos de software. ¿Es importante que así sea? Sí, muy

26

importante, porque la codificación de los productos de software para uso en la educación, o la aplicación de dispositivos codificados que pueden procesar datos digitales educativos, están empezando a transformar las políticas, las pedagogías y otras prácticas educativas de formas que hasta hoy han sido objeto de muy escasa atención crítica. Con el desarrollo de nuevos tipos de software para uso en contextos educativos que dependen tanto del código de software como de los datos digitales, se empiezan a ver nuevas formas de influencia sobre las escuelas e institutos, las universidades, los dirigentes educativos, el profesorado, el alumnado, los legisladores y los padres y madres. Las escuelas se están convirtiendo en centros de producción de datos, responsables de registrar y auditar permanentemente todos y cada uno de los aspectos de su actuación (FINN, 2016). A sus dirigentes se les exige que actúen sobre sus datos para mejorar las instituciones que gestionan (LEWIS y HARDY, 2016), sirviéndose a menudo de la ayuda de “sistemas de gestión del aprendizaje” para las tareas administrativas (SELWYN y col., 2017). Los alumnos se están convirtiendo en objeto de paquetes de minería y analítica de datos cada vez más omnipresentes y que, incorporados a las tecnologías y los programas de aprendizaje electrónico, pueden rastrear todos los movimientos digitales del alumno, determinar su progreso educativo e incluso prever sus resultados previsibles (SUOTOOTERO y BENEITO-MONTAGUT, 2016). En las universidades, los estudiantes experimentan el uso aún mayor de herramientas online que miden su progreso (LOSH, 2014), de modo que sus trabajos entran en inmensas bases de datos globales para detectar posibles plagios (INTRONA, 2016). Al mismo tiempo, a los gestores universitarios se les exige emplear complejos sistemas de medición del rendimiento y tableros de datos institucionales para facilitar la planificación y la toma de decisiones (WOLF y col., 2016). Hasta a centros de educación infantil y de 0-3 se les exige cada vez más que reúnan datos sobre el desarrollo de los niños con los que después se podrá trabajar a nivel nacional e internacional (ROBERTS-HOLMES, 2105; MOSS y col., 2016), una realidad que se refleja en el creciente uso de tecnologías de analítica en la educación de adultos y el aprendizaje profesional (FENWICK y EDWARDS, 2016). Más allá de los espacios de aprendizaje, se exhorta con creciente insistencia a los legisladores a que desarrollen políticas a partir de datos o “basadas en la evidencia”, formuladas en respuesta a las ideas derivadas de los datos digitales (SELLAR, 2015a), incluidos los datos de la inspección educativa expuestos en los “tableros de datos” de las instituciones (OZGA, 2016). También se fomenta que los padres actúen de analistas de datos que se sirven de webs digitales de “comparación de escuelas” para tomar decisiones debidamente informadas sobre los centros en los que quieran matricular a sus hijos (P IATTOEVA, 2015). Para los profesores, ha surgido una nueva industria en la “analítica del talento” educativo o la “analítica del mercado laboral” (BENEITOMONTAGUT, 2017), con productos de software totalmente automáticos como TeacherMatch que sirven de plataformas de “gestión avanzada del talento educativo”, plataformas para la contratación, evaluación y desarrollo profesional y la “inversión de

27

talento” de los profesores, utilizando algoritmos de concordancia entre centros y profesores, exactamente igual que cualquier servicio de citas a través de los medios sociales. Muchas organizaciones comerciales están cambiando su modelo de negocio y sus prácticas para intervenir en la educación, por ejemplo, Google con sus Google Apps para Educación de servicios gratuitos en nube para los centros educativos (LINDH y NOLIN, 2016). Además, “edu-empresas” comerciales ya existentes como Pearson —editora global de libros de texto— pasan a convertirse en importantes proveedores de software educativo y recolectores de datos sobre educación (HOGAN y col., 2015). Las herramientas comerciales para la obtención, el procesado y análisis de datos se abren paso también en el campo de la investigación, la producción de conocimientos y la generación de teorías educativas, de modo que se reconfigura la idea que hoy se tiene de la educación (COPE y KALANTZIS, 2016). Y, por último, un número cada vez mayor de “agentes de datos” del sector privado comienzan a reunir datos relativos a la educación, los tratan y suman con herramientas de analítica, y se los venden de nuevo a los “accionistas” de la educación (BENEITO-MONTAGUT, 2017). En el ámbito educativo, la reciente aceleración del software de procesamiento de datos no solo afecta a las personas y las organizaciones, sino también al currículo, la didáctica y la evaluación. Se cuestiona la propia idea de un currículo que recoge los conocimientos que hay que enseñar, con el desarrollo de nuevos tipos de programas “adaptativos” de aprendizaje que pueden semi automatizar el reparto y la “personalización” de los contenidos de acuerdo con el perfil de datos individual del alumno (BULGER, 2016). La didáctica se asigna a máquinas automáticas como los “robots profesor” y los “tutores cognitivos”: programas informáticos diseñados para interactuar con el estudiante, de cuyo aprendizaje realizan un análisis permanente y en tiempo real, y a cuyas circunstancias se adaptan (BAYNE, 2015). Y la idea de evaluación como algo fijo se sustituye por una analítica de evaluación inmediata y las pruebas adaptativas informatizadas, que evalúan automáticamente a cada estudiante sobre la marcha y se adaptan a sus respuestas en tiempo real (T HOMPSON, 2016). Incluso se cuestiona lo que se entienda por “aprender”, con la recolección de series de datos tan grandes que los entusiastas piensan que revelan nuevas verdades sobre los procesos de aprendizaje que antes los investigadores de la educación que trabajan en marcos disciplinares como la psicología, la sociología y la filosofía no podían detectar (BEHRENS, 2013). Muchos de estos avances e innovaciones en los programas y datos digitales de la educación deben su existencia a la propia tecnología, pero también son producto de las muchas declaraciones, la actividad promocional y el marketing imaginativo basado en la idea de que las soluciones técnicas tienen la capacidad de transformar la educación para el futuro. Empresas con productos que vender, negocios de capital riesgo que han de asegurar la inversión, laboratorios de nuevas ideas que han de fomentarlas, y legisladores con problemas que resolver y políticos con agendas que fijar, se han convertido todos en

28

defensores de la educación impulsada por los datos. Evidentemente, hay que ser como mínimo cautos sobre gran parte del supuesto potencial transformador y revolucionario de muchos de los nuevos avances, cuando no sencillamente escépticos —y, desde luego, un poco reticentes—. Pero la cuestión que quiero subrayar es que lo que hoy estamos viendo son signos de una nueva forma de concebir la educación como institución social dataficada y digitalizada. En este espacio trabajan organizaciones de mucho poder, organizaciones con una visión persuasiva e influyente compartida sobre el futuro de la educación. Es fácil no tomarse muy en serio las declaraciones, pretensiones y todo el bombo y platillo que rodean a los nuevos avances como la analítica del aprendizaje y los tutores cognitivos informatizados. Pero no lo es tanto desdeñar este avances y las afirmaciones que los cimientan cuando se ve que algunas de las empresas más ricas y poderosas del mundo dedican muchos de sus recursos a la investigación y al desarrollo, cuando se leen informes de influyentes laboratorios de ideas que defienden y patrocinan esos avances, cuando se descubre que se invierten enormes sumas de capital y de fondos filantrópicos para hacerlos realidad. Está surgiendo una visión compartida de la digitalización y dataficación de la educación. Diferentes ideas y actores se han juntado para producir recursos colectivos imaginativos que se pueden usar para estimular la investigación y el desarrollo (I+D), convencer a los políticos, generar inversión y fomentar nuevas prácticas (JASANOFF, 2015). Hace mucho tiempo, por supuesto, que la educación invita a imaginar el futuro. Un “mito dominante del futuro de la educación” de los últimos años es el que “emerge de una concepción instrumental de la educación como destinada principalmente a servir a la economía formal” (FACER, 2011, pág. 8). Las visiones de la educación impulsada por los datos complican este mito dominante del futuro. Las fantasías económicas del desarrollo de capital humano persisten, pero están siendo complementadas y ampliadas por sueños de nuevas formas de gobernanza y ciudadanía, nuevas aspiraciones científicas de optimización psicológica y mejora cognitiva, y nuevos objetivos comerciales que buscan integrar las tecnologías y las prácticas del sector privado en la enseñanza pública. Además, los mitos y las visiones imaginativas se pueden convertir en realidades materiales si se les da forma técnica y se insertan en los contextos sociales. Los avances expuestos en los capítulos que siguen son parte de un nuevo imaginario emergente del futuro digital de la educación dirigida por los datos que parece ser el aconsejable, y que muchas organizaciones y personas parecen convenir en que se puede y debe alcanzar aplicando hoy los avances tecnológicos. Los procesos gemelos de digitalización y dataficación son la base de este libro, pero las prácticas de codificación de las tecnologías educativas de diversos tipos y de dataficación de la educación mediante diferentes técnicas, son también contextualmente independientes y cuentan con el estímulo de un recurso de especial fuerza que entiende la educación como una institución social masivamente impulsada por los datos y apoyada por el software. La diferencia que los

29

datos digitales marcan en la educación es resultado de los muy diversos esfuerzos de programadores, gestores de proyectos, empresas, programas aceleradores de startups, legisladores y políticos, laboratorios de ideas y de innovación, líderes educativos y los propios educadores: las prácticas materiales de todos ellos determinadas por una visión imaginada de un futuro digitalizado y dataficado que progresivamente se ha ido haciendo omnipresente, convincente y al parecer deseable.

La dataficación de la educación Por “dataficación” se entiende la transformación de muchos aspectos de la educación en información cuantificable que se puede incorporar a bases de datos con el fin de aplicar diferentes técnicas de medición y cálculo. La dataficación tiene una larga historia que se detalla con mayor amplitud en el Capítulo 2. Recientes avances como la creación de laboratorios y centros de datos para la minería y el análisis de datos educativos, los programas adaptativos de aprendizaje y los tutores informatizados, dependen de la obtención permanente de ingentes cantidades de datos. Hace décadas que se obtienen datos educativos a gran escala con la suma de los resultados de exámenes o con la información sobre el censo escolar. El cambio decisivo que se produce con los big data es que hoy se obtienen de forma inmediata, o casi inmediata, y directa mientras los estudiantes interactúan con sistemas de software. Es decir, históricamente los conjuntos de datos a gran escala se han obtenido sobre todo a través de evaluaciones y actuaciones de recogida de datos al margen de los ritmos normales del aula; los big data se sacan del interior de la maquinaria didáctica del propio proceso de enseñanza y aprendizaje, a partir de millones de puntos de datos que se generan cuando el estudiante cliquea en contenidos y vínculos, trabaja con materiales educativos digitales, interactúa online con otros estudiantes, y cuelga sus respuestas a los distintos problemas. Los contenidos de cursos digitales, los cursos online, los libros de texto electrónicos, las simulaciones digitales y más, son el interfaz primario para la producción de macrodatos educativos, un interfaz detrás del cual hay una compleja estructura secundaria de recogida de datos, almacenamiento de la información, procesado algorítmico y capacidad de analítica y visualización de los datos. En todas estas novedades subyace una serie de visiones estimulantes o imaginarios de dataficación de extraordinaria fuerza. Los autores de Learning from Big Data: The Future of Education (MAYER-SCHÖNBERGER y CUKIER, 2014) imaginan que los macrodatos “reconfigurarán el aprendizaje” a través de la “dataficación del proceso de aprendizaje” de tres importantes formas: (1) mediante la retroalimentación en tiempo real sobre los cursos online y los libros de texto electrónicos capaces de “aprender” del uso que se hace de ellos y “replicar” al profesor, (2) la individualización y personalización de la experiencia educativa a través de sistemas adaptativos de aprendizaje que permiten adecuar los materiales a las necesidades personales de cada estudiante mediante el

30

análisis automatizado y en tiempo real, y (3) predicciones probabilísticas generadas mediante analíticas de datos que permiten reunir datos a partir de las acciones del estudiante, aprender de ellos, y generar previsiones sobre los probables resultados futuros del estudiante. Los autores imaginan la escuela como una “plataforma de datos” donde la dataficación en tiempo real de la persona pasa a ser “la piedra angular de un ecosistema de big data”, y en la que “los materiales educativos se customizarán” algorítmicamente y “se mejorarán” permanentemente (MAYER-SCHÖNBERGER y CUKIER, 2014). En la enseñanza superior ya son muchas las actividades que parten de los grandes datos, como el uso generalizado de sistemas de gestión del aprendizaje y programas online como los MOOC (acrónimo en inglés de Massive Online Open Courses, cursos online masivos y abiertos) (KNOX, 2016). Pero también los centros no universitarios están en el objetivo de la dataficación. El Center for Data Innovation, un laboratorio de ideas2 estadounidense, ha elaborado un informe en el que defiende la idea de un “sistema educativo impulsado por los datos” para esos centros. “La mayoría de los centros educativos de Estados Unidos no saben utilizar los datos para transformar y mejorar la educación, pese a que un mejor uso de ellos tiene el potencial de mejorar significativamente la forma de enseñar a los niños y de administrar los centros”, dice su autor. (NEW, 2016, pág. 1). El Center for Data Innovation, en cambio, sostiene que el sistema de educación basada en datos debe conseguir cuatro objetivos: Personalización: los educadores, en vez de seguir utilizando un sistema similar al de producción en masa, adaptan dinámicamente la enseñanza a los puntos fuertes y débiles de cada estudiante. Aprendizaje basado en la evidencia: profesores y administradores, en lugar de por decidir por intuición, tradición o por determinadas tendencias, conocen el modo de actuar en el aula y en el centro informados por una gran cantidad de datos sobre las necesidades individuales y comunes de los alumnos, unos datos obtenidos de sus propios alumnos y también de centros similares de todo el país. Eficiencia de la escuela: Educadores y administradores, para una asignación óptima de los recursos, se sirven de fructíferas ideas sacadas de los datos para analizar las relaciones entre los logros del alumno, la actuación del profesor y las decisiones administrativas. Innovación continua: investigadores, educadores, padres, legisladores, desarrolladores de tecnologías y otros pueden elaborar productos y servicios educativos de gran valor y amplia disponibilidad para descubrir nuevas ideas, tomar decisiones más informadas, y mejorar continuamente el sistema educativo. (NEW, 2016, pág. 2.) Estos objetivos de los sistemas educativos impulsados por los datos captan con precisión el imaginario dominante relativo a la obtención y uso de datos en los centros educativos. La “personalización” tal vez se ha convertido en la principal palabra clave de ese tipo de educación, con el énfasis en sistemas y procesos que se pueden adaptar de

31

forma inteligente a cada alumno. El uso de la evidencia para establecer comparaciones entre instituciones y sistemas tiene una larga tradición en la política educativa, pero con la digitalización se puede llevar a cabo de forma mucho más fácil y rápida. Alcanzar la eficiencia es primordial para las escuelas, con las actuales herramientas de gestión del rendimiento para conseguir que estudiantes, profesores y administradores produzcan resultados medibles. Y a medida que se va disponiendo de cantidades progresivamente mayores de datos —como masas de datos educativos— se buscan nuevos socios y nuevas ideas para atender los objetivos de diversos grupos de interés, por ejemplo, los planes de mejora de los legisladores o los planes de desarrollo de nuevos productos de las empresas. Para conseguir que las escuelas se “datafiquen” hay que proponerse estos objetivos de personalización, aprendizaje basado en la evidencia, la eficiencia y la innovación continua. ¿Qué aspecto tienen en la práctica tales objetivos y visiones? Las “escuelas startup” de Silicon Valley son ejemplos tentadores de cómo pudiera ser la dataficación de los centros educativos en el futuro próximo de la educación. Las escuelas startup son instituciones educativas nuevas diseñadas como alternativas al modelo de escuela pública general, y tienen su origen en la cultura del emprendimiento tecnológico de Silicon Valley, el corazón técnico-económico de la industria tecnológica global. Un caso destacado es ALTSCHOOL, fundada en 2013 por Max Ventilla, emprendedor del sector de la tecnología y antiguo ejecutivo de Google. ALTSCHOOL “prepara a los alumnos para el futuro mediante experiencias de aprendizaje personalizado en el seno de comunidades de microescuela”, y su objetivo es “contribuir a reinventar la educación desde la base” (ALTSCHOOL, 2015a). En un perfil reciente de su fundador se decía que “cuando Ventilla dejó Google para poner en marcha ALTSCHOOL, en la primavera de 2013, no tenía experiencia como profesor ni como administrador educativo. Pero sí poseía amplios conocimientos de la redes, y entendía el tipo de conocimientos que se pueden obtener de los big data” (MEAD, 2016). Después de crear en San Francisco cuatro centros como una “comunidad colaborativa de microescuelas”, ALTSCHOOL se extendió después a Brooklyn y Palo Alto, con más planes a largo plazo de nuevas escuelas y sociedades en todo Estados Unidos. Desde entonces se ha contratado a ejecutivos de Google, Uber y otras empresas emergentes de éxito de Silicon Valley, muchos de ellos con experiencia en proyectos de big data. El encargado de tecnología de ALTSCHOOL, antiguo ingeniero responsable de la página de inicio de Google.com y de los resultados de las búsquedas, decía que estaba “muy motivado para aprovechar los diez años de experiencia con Google para que la plataforma ALTSCHOOL crezca y progrese” (ALTSCHOOL, 2015a). La “plataforma” de ALTSCHOOL se define como “un sistema operativo central para la educación”, diseñado de acuerdo con “modelos posibilitados por la tecnología” que están transformando otras industrias e instituciones, como Uber y Airbnb (ALTSCHOOL, 2015b). Los modelos a los que alude son los de la dataficación de otros sectores. Airbnb

32

representa la dataficación del alojamiento. Uber ha dataficado por completo los servicios de taxi. ALTSCHOOL está programada para que funcione según el mismo modelo, o sistema operativo, de estos sectores dataficados. Depende, pues, de una compleja plataforma de analítica de datos. Con su juego de herramientas tecnológicas pretende “hacer realidad la enseñanza personalizada”, para cuyo propósito ayuda a los profesores a “desarrollar Planes de Aprendizaje Personalizado que configuren el progreso del alumno”: También creamos plataformas para una administración eficiente del aula, de modo que el profesor disponga de más tiempo de calidad para la interacción directa con el alumno… Para asegurar que siempre aprendamos de lo que ocurre fuera del aula, construimos herramientas tecnológicas que fomenten la colaboración de profesores, padres y alumnos… Nuestro sistema de enseñanza basada en proyectos realmente cobra vida cuando cuenta con el apoyo de herramientas de aprendizaje cuidadosamente escogidas. Monitorizamos a cada alumno en el uso de la tecnología para el aprendizaje, y le ayudamos a moverse con soltura por el actual terreno de la información”. (ALT SCHOOL, 2016) La plataforma de datos por la que se rige ALTSCHOOL no es un simple sistema técnico: se ha construido para contribuir a una determinada visión de la enseñanza “personalizada” en torno a cada alumno. La personalización es su ideal, la personalización que se ha conseguido con éxito en las actividades de los medios sociales de muchas empresas de Silicon Valley. Por ejemplo, los resultados de la búsqueda de Google se personalizan automáticamente para cada usuario a partir de su historial de búsquedas. El timeline de Facebook se personaliza a partir de los gráficos de amigos que elabora sobre las conexiones de redes sociales del usuario. En el principio de la personalización se basan las recomendaciones que se hacen al usuario, sobre los artículos que debería comprar, los memes que conviene que comparta, etc. La cultura y la técnica de la personalización del ámbito de los medios sociales comerciales entran en la escuela a través de espacios como ALTSCHOOL, y se integran en sus plataformas de datos como complemento secundario de la visión cultural principal de la educación que proyecta. ALTSCHOOL, en definitiva, equilibra y ensambla toda una diversidad de recursos que entrelazan sin problema ideales tecnológicos y conceptos educativos. Más allá de las semejanzas técnicas y culturales con las prioridades de dataficación de la industria tecnológica, la escuela startup también goza de los beneficios económicos de la cultura startup de Silicon Valley. En su fundación, ALTSCHOOL recaudó originariamente 33 millones de dólares en fondos de capital riesgo, además de otros 100 millones en inversiones en 2015, incluidas las donaciones de Mark Zuckerberg de Facebook y la empresa de capital riesgo Anderson Horowitz (ALTSCHOOL 2015b). Así pues, ALTSCHOOL está dirigida, gestionada y financiada completamente a partir de los discursos y las

33

prácticas materiales de la cultura startup de Silicon Valley. El modelo de su sistema operativo es la analítica de datos de los medios sociales. Se financia casi exclusivamente a través de capital riesgo y de la filantropía tecnológica. Su equipo de ingeniería y diseño aplica su experiencia en medios sociales sobre tableros de datos, listas de reproducción algorítmicas, sistemas de recomendación adaptativa y desarrollo de aplicaciones, a la producción de nuevos dispositivos y plataformas edtec personalizadas. El prototipo de dataficación de la enseñanza que representa ALTSCHOOL, y otros modelos de escuela startup, no es un simple logro técnico, sino el producto de un modelo de inversión económica para las startups de Silicon Valley que se ha ensayado en otros sectores, se ha trasplantado a la educación, y parece que está a punto de ser ampliada como solución competitiva de mercado al problema de la escuela tradicional. Los visionarios de la tecnología y los emprendedores imaginativos como Max Ventilla se están convirtiendo en reformadores de alto nivel de la educación, que utilizan su experiencia técnica en desarrollo de programas y analítica de datos, unida a la experiencia empresarial emprendedora necesaria para generar inversión, como sólidos recursos para atraer a otros a sus ideas educativas. Como bien demuestra ALTSCHOOL, los big data no son una simple realidad técnica. Al contrario, son la “manifestación de un complejo fenómeno sociotécnico que se asienta en la interacción de factores tecnológicos, científicos y culturales”: Si la dimensión tecnológica alude a los avances no solo en el hardware y el software, sino también en la infraestructura, y la dimensión científica comprende tanto las técnicas de minería como las destrezas analíticas, la dimensión cultural se refiere a (a) el uso omnipresente de las TIC en la sociedad actual y (b) la creciente importancia y autoridad de la información cuantificada en muchos ámbitos de la vida cotidiana. (RIEDER y SIMON, 2016, pág. 2, cursiva del original) En los capítulos que siguen, la dataficación de la educación se aborda como posible materialización de futuras visiones, tecnologías y técnicas científicas cualificadas, y también de ambiciones políticas, comerciales y filantrópicas, todas ellas mezcladas en sistemas sociotécnicos híbridos para la medición y la gestión dirigidas por datos.

La digitalización de la educación La dataficación de la educación requiere que los entornos de aprendizaje estén altamente instrumentalizados para reunir información (COPE y KALANTZIS, 2015). Esto significa que el entorno de aprendizaje se ha de ir mediando digitalmente, o digitalizando, como demuestra el “sistema operativo” técnico de ALTSCHOOL. El uso del término “digitalización” se refiere al “proceso de pasar la información de unidades analógicas a unidades independientes de datos que se puedan mover, agrupar y analizar con mayor

34

facilidad” (GREGORY y col., 2017, pág. xviii) usando tecnologías informáticas. Con la digitalización de la educación en información que se pueda procesar con el ordenador, el software y el código que aplica pasan a influir de forma significativa en la organización de la educación. El código de software se ha convertido en un sistema para regular muchos de los procesos y prácticas de la educación, la enseñanza y el aprendizaje. Como se verá con mayor detalle en el Capítulo 3, es importante reconocer desde el principio que el código es tanto un producto —el resultado final del trabajo de los programadores, que trabajan en condiciones materiales reales, con sus propios valores y culturas profesionales, y unas prácticas de codificación determinadas por planes y objetivos empresariales— como una fuerza productiva del mundo (KITCHIN y DODGE, 2011). Decir que el código es “productivo” significa declarar las formas en que el código se programa para realizar tareas que después lleva a cabo (o, para emplear el término informático específico, “ejecuta”). El código ordena a un programa de software que “haga algo” en el ordenador y en este sentido básico se puede considerar productivo. Pero también es productivo porque escribir el código para ejecutar un determinado tipo de tarea también altera de forma decisiva la naturaleza de la tarea que se ordena que se ejecute (MACKENZIE, 2006). En este libro me centro en cómo la conversión de las cosas educativas en código revierte después en cambiar la educación. Sin embargo, pensar en el código solo en términos técnicos, como guion para impartir órdenes al software escrito en determinados lenguajes de programación, sería engañoso. Es verdad que el funcionamiento de los programas de aprendizaje electrónico, las políticas de las bases de datos y los programas de gestión de centros educativos dependen de las líneas de código. Pero, como señalábamos antes, este mismo código ha de ser escrito, o producido. Los programadores han de elaborarlo, utilizando determinados tipos de lenguajes de programación y repositorios de código. Estos programadores trabajan de acuerdo con los planes empresariales, los programas de gestión de proyectos y los objetivos de sus empleadores. Tales planes empresariales son la manifestación operativa de poderosas visiones del futuro. El código producido para hacer que funcionen los programas informáticos depende también de la inversión económica, los programas de financiación y las prioridades financieras. Todo ello trasciende de la mera asignación de salarios a los programadores, y depende del trabajo de emprendedores en capital riesgo para empresas emergentes de software, de que los políticos ofrezcan incentivos fiscales a las compañías tecnológicas, y de las donaciones de filántropos para financiar nuevas innovaciones técnicas. En otras palabras, los programas de software que hoy gestionan gran parte de la educación son también producto de empresas y programas políticos imaginativos. Un caso ilustrativo de cómo los imaginarios digitales, el software, la economía y la política se entretejen en la actual transformación de la educación es el de Edtech UK. Esta organización es “un nuevo cuerpo estratégico creado para contribuir a acelerar el crecimiento del sector de la tecnología educativa del Reino Unido en Gran Bretaña y en

35

todo el globo”: El nuevo cuerpo es una “puerta principal” para la industria, la inversión y el gobierno, y una voz que convoca a todo el sector de la tecnología de la educación y el aprendizaje, incluidos educadores, startups, empresas de alto potencial y de rápido crecimiento, grandes corporaciones, inversores, reguladores y legisladores. El objetivo de Edtech UK es contribuir a las ayudas al sector, su conocimiento y su desarrollo, con el foco puesto en la creación de más puestos de trabajo, el desarrollo de nuevas destrezas, la determinación de lo que funciona y el impulso del crecimiento económico. Su atención estará en lo global desde el principio, con un ambicioso programa de trabajo para llevar las mejores compañías de tecnología educativa británicas al mundo y ser la plataforma que invite a las mejores organizaciones de enseñanza y de aprendizaje del mundo a que vengan y crezcan en el Reino Unido. (Edtech UK, 2015) Edtech UK fue creado por la Education Foundation, que se define como “el primer laboratorio de ideas educativas independiente y transectorial del Reino Unido” y “tiene tres objetivos prioritarios: la reforma, la tecnología y la innovación educativas”. Desde 2011 dirige una “incubadora edtec” para las nuevas empresas de tecnología educativa, trabaja con Facebook en una guía para educadores, participa en el desarrollo de políticas a nivel nacional, por ejemplo con la organización de la primera Cumbre sobre la Reforma Educativa de Gran Bretaña en colaboración con el Departamento de Educación y la Secretaría de Estado de Educación, desarrolla una red de asociaciones corporativas con Facebook, IBM, Pearson, HP, Randstad Education, Cambridge University Press, McKinsey, Skype, Sony, Google y Samsung, organiza mesas redondas, conferencias, seminarios y eventos mediáticos sobre temas de tecnología educativa en el Reino Unido y en Estados Unidos. El propio Edtech es un proyecto “incubado” de la Education Foundation, y fue puesto en marcha por Boris Johnson, por entonces alcalde de Londres, con la ayuda del Ministerio de Business, Innovation and Skillsy el de Trade and Industry, y la de una coalición privada de organizaciones del sector tecnológico. En su actividad, Edtech UK aúna las aspiraciones políticas y la capacidad económica, la experiencia técnica y una visión del futuro de la tecnología educativa. Cuenta con un sólido apoyo político, sigue el modelo de los grupos de presión económicos, y muestra un discurso híbrido de inversión, capital riesgo, innovación y potencial, y crecimiento económico. En su folleto corporativo destinado a atraer startups de tecnología educativa a Londres promete extraordinarios beneficios. Habla de un “mercado amplio y rentable” para la tecnología educativa, de los beneficios de la regulación de la “adquisición flexible” que da autonomía a los centros para escoger a sus proveedores de tecnología, de la proximidad de empresas de tecnología educativa como Pearson y Knewton, y la presencia de “talento, capital riesgo, espacio para co-working, ayudas del gobierno, fuentes de financiación y eventos” para las primeras fases de las empresas, además, dice,

36

de los incentivos de un “sector tecnológico educativo que en 2015 gastó 67.800 millones de dólares y con un mercado del “aprendizaje electrónico” por valor de 165.000 millones, en condiciones para alcanzar los 243.800 millones en 2022” (EDUCATION FOUNDATION, 2015). El trabajo de los programadores para producir tecnologías educativas solo es posible en las condiciones políticas, económicas y comerciales de Edtech UK. Edtech UK es un claro ejemplo de cómo la digitalización de la educación —con las ayudas a las nuevas startups de tecnología educativa— depende de los flujos económicos que determinan las líneas de información de las cuentas bancarias y del establecimiento de líneas de conexión políticas, tanto como de las líneas de código que realmente hacen que el software funcione. Como lo conceptualiza LYNCH (2015) en The Hidden Role of Software in Education, actualmente funciona un nuevo “espacio de software” hecho de código, algoritmos y datos producidos por actores comerciales, programadores y analistas, junto al “espacio económico” de la legislación y la gobernanza educativas, de modo que influye en el “espacio de la práctica” de la enseñanza y el aprendizaje. Edtech UK es la representación emblemática de la unión e interrelación de las visiones del futuro, el software, la economía y la política para incidir en los espacios de la práctica educativa. Digitalizar la educación no es una mera cuestión de traducir las prácticas educativas a productos de software, sino de las muchas formas en que se produce la codificación, de acuerdo con determinados valores, prioridades y objetivos, y con las aspiraciones específicas para el futuro de la educación.

La imaginación y la materialidad digitales de la educación Los ejemplos de ALTSCHOOL, Edtech UK, el Center for Data Innovationy HackingEDU que hemos visto hasta ahora dan cierta idea de las supuestas posibilidades de la dataficación y la digitalización relacionadas con la educación. El objetivo de este libro no es ni celebrar de forma acrítica estos avances ni desacreditarlos. Al contrario, mi intención es considerar cómo los procesos gemelos de dataficación y digitalización emergen, y a la vez se refuerzan, de una determinada forma de reimaginar el futuro de la educación. En cierto modo, esta nueva imagen de la enseñanza del futuro es evidente en el énfasis de ALTSCHOOL en el aprendizaje personalizado apoyado por plataformas de analítica de datos, y la participación de Edtech UK en el objetivo de fomentar un futuro mercado de las tecnologías educativas mediante redes empresariales y políticas. ¿Cómo interpretar el trabajo de imaginación en que se asientan todos estos diversos enfoques emergentes? Para proceder a este tipo de análisis, utilizo el concepto de “imaginarios sociotécnicos” del campo de los estudios sobre ciencia y tecnología. Por imaginarios sociotécnicos se entiende “visiones de futuros deseables aceptadas colectivamente, asentadas institucionalmente y aplicadas públicamente, animadas por ideas compartidas de formas

37

de vida social y de orden social alcanzables gracias a los avances de la ciencia y la tecnología, unos avances que ellas mismas propician” (JASANOFF, 2015, pág. 4). Los imaginarios sociotécnicos no son meras fantasías de ciencia ficción: constituyen las visiones y los valores que catalizan el diseño de los proyectos tecnológicos. Los imaginarios del futuro en que se sueña en los laboratorios de ciencias, los departamentos técnicos de I+D, las empresas y los despachos de los emprendedores se convierten a veces, gracias a esfuerzos colectivos, en objetivos estables y compartidos que se emplean para el diseño y la producción de tecnologías e innovaciones científicas concretas, unos avances que después producen o materializan de modo incremental el futuro deseado. A través de los imaginarios sociotécnicos, se fusionan en la práctica las ideas científicas transformadoras, los objetos tecnológicos y las normas sociales, y todos ellos contribuyen a mantener órdenes sociales o crear otros nuevos en las culturas, las instituciones y las rutinas. Por lo tanto, los imaginarios sociotécnicos son producto de actos de imaginación específicamente políticos, porque actúan como poderosas visiones normativas y con aspiraciones, o formas deseadas de orden social. Se ha tomado el concepto de imaginarios sociotécnicos para comprender las visiones y los valores en que se asientan avances digitales como los medios sociales y los motores de búsqueda. La capacidad de imaginar el futuro se está convirtiendo en un elemento de extraordinaria fuerza de la vida social y política, en particular porque inculca las visiones y los proyectos tecnológicos de las empresas mediáticas globales (MAGER, 2016). Entidades como Google y Facebook, Apple y Amazon, se pueden entender como productoras dominantes de imaginarios sociotécnicos, cuyas aspiraciones, por consiguiente, pasan a formar parte de cómo se acepten, implementen y asuman en la vida diaria las visiones del futuro colectivas y públicamente compartidas. Como una variación de la expresión “imaginario sociotécnico”, MAGER (2015, pág. 56) habla de “imaginarios algorítmicos” que emergen de “una cultura económica e innovadora muy específica” asociada a las empresas tecnológicas de Silicon Valley, y que privilegia a “las ideas tecno-eufóricas” de sus creadores “de las tecnologías de Internet como fuerza impulsora del progreso económico y social”. La producción de tales futuros imaginarios deseables es a la vez social y técnica, de ahí que se la adjetive de “sociotécnica”. Es decir, tales futuros los producen determinados grupos sociales en contextos sociales específicos, y además se proyectan a través del diseño de ciertos tipos de tecnología —o expresan una visión de determinados futuros en los que se imaginan estas tecnologías como elementos—. Para abrir los imaginarios sociotécnicos se requieren estudios sobre “los medios con que los imaginarios enmarcan y representan futuros alternativos, unen el pasado con el futuro, posibilitan o limitan actuaciones en el espacio, y establecen formas de pensar sobre mundos posibles” (JASANOFF, 2015, pág. 24). En términos un tanto diferentes, la imaginación de proyectos de “futuro digital” proyecta un tipo de “mitología” (un conjunto de ideas e ideales) que anima, motiva e impulsa el avance tecnológico, pero siempre cuenta con mucha más

38

oposición y se lleva a cabo de forma más desordenada, y nunca como ese algo simple y directo o idealizado que se imagina que es (DOURISH y BELL, 2011). En este sentido, los imaginarios actúan de modelos o diagramas a los que ciertos actores confían adecuar la realidad, y sirven de “destilaciones de prácticas” para configurar conductas y tecnologías para la visualización y el gobierno de determinados modos de vida y formas de orden social (HUXLEY, 2007, pág. 194). Los imaginarios sociotécnicos estimulan los proyectos técnicos y la organización social, y ofrecen modelos para el diseño y la disposición de determinados espacios y lugares. Con esta idea, la organización de las sociedades depende de recursos imaginativos, lenguajes y técnicas prácticas compartidos que se junten en la materialidad de “espacios fabricados” —es decir, espacios que se han “realizado” de la forma en que se han imaginado— (ROSE, 1999a, pág. 33). En otras palabras, los imaginarios sociotécnicos a menudo se aplican y materializan a través de prácticas lingüísticas y específicas, de forma que entretejen la visión subyacente en el tejido de la sociedad. Así pues, los imaginarios sociotécnicos, aunque “puedan tener su origen en las visiones de personas individuales o pequeños colectivos”, pueden cobrar ímpetu “mediante manifiestos ejercicios de poder o actos sostenidos de construcción de coaliciones” para entrar en “los ensamblajes de la materialidad, el sentido y la ética que constituyen formas robustas de vida social” (JASANOFF, 2015, pág. 4). Los espacios fabricados, pues, son el resultado de imaginarios que se han realizado o materializado a través de determinados actos técnicos, discursivos y prácticos. Los nuevos proyectos y enclaves educativos como ALTSCHOOL se pueden entender como producto material fabricado de un determinado imaginario sociotécnico de la educación, que ha sido alumbrado como nuevo espacio fabricado de educación con medios discursivos y materiales, como forma de hacer realidad un futuro cuyos defensores y patrocinadores consideran deseable y posible de alcanzar. En otras palabras, la propia ALTSCHOOL actúa como modelo imaginario para los futuros espacios de educación que pretende fabricar en la realidad con la puesta en marcha de sus plataformas técnicas, y que defiende discursivamente con referencias a determinados tipos de pensamiento educativo progresista. Además, ALTSCHOOL se puede entender como una prolongación de Silicon Valley que traslada la particular cultura y los espacios de innovación de este al sector educativo. ALTSCHOOL representa el imaginario sociotécnico de Silicon Valley reubicado en la materialidad del aula. Dadas sus aspiraciones de escalar su modelo a otros enclaves, se entiende que ALTSCHOOL funcione como el producto material de un imaginario sociotécnico que define cómo podría ser, o quizás cómo debería ser, la educación del futuro, y que podría configurar y delimitar las prácticas cotidianas de todos los que la integran. En este sentido, los actuales imaginarios sociotécnicos y mitologías de la educación, en los que la dataficación y la digitalización desempeñarán un papel importante, ya se están convirtiendo en la realidad viva de la educación —con las consiguientes confusión y posible oposición— y hay que analizarlas

39

críticamente por los efectos materiales que puedan provocar.

El estudio de la digitalización y la dataficación de la educación Si los espacios imaginarios se convierten en zonas materiales en las que habitar, pueden generar consecuencias reales para quienes los experimenten. Para comprender las consecuencias materiales de los imaginarios sociotécnicos emergentes, es importante observar detenidamente el software que haga operativos esos espacios. Por consiguiente, los estudios sobre la digitalización y la dataficación de la educación requieren ciertos enfoques conceptuales y metodológicos nuevos. El concepto de ciencia, tecnología y sociedad (CTS) de los imaginarios sociotécnicos puede ayudar a entender las visiones del futuro que animan y catalizan el actual y activo avance técnico, pero también se necesitan métodos y conceptos que capten sus consecuencias y efectos materiales, sean reales o potenciales. El campo emergente de la sociología digital ha empezado a estudiar cómo las tecnologías, el software y los datos digitales se están integrando en todo tipo de actividades, instituciones, relaciones y procesos culturales (ORTON-JOHNSON y P RIOR, 2013): Para algunos teóricos, la propia idea de “cultura” o “sociedad” no se puede entender plenamente sin el reconocimiento de que los dispositivos de software y hardware informáticos no solo cimientan sino que componen activamente la identidad propia, la personificación, la vida social, las relaciones sociales y las instituciones sociales. (LUPTON, 2015a, pág. 2) Para los sociólogos digitales, la digitalización tiene importantes implicaciones para nuestra forma de conocer, estudiar y entender el mundo social, lo cual exige enfoques interdisciplinares basados en una historia más extensa de estudios sobre Internet, de los medios y la cultura, de la ciencia, la tecnología y la vigilancia, y la ciencia social computacional (DANIELS y col., 2016; HALFORD y col., 2013). Así pues, la sociología digital se ocupa de cómo “los nuevos medios digitales, los datos que producen y los actores implicados en la recolección, la interpretación y el análisis de estos datos” hoy estructuran y determinan cada vez más el mundo social (LUPTON, 2015a, pág. 17-18). Su objetivo es entender, por ejemplo, por qué la vida cotidiana de la gente está hoy progresivamente mediatizada por transacciones digitales rutinarias con gobiernos, organizaciones comerciales e instituciones públicas, cómo se vive el espacio a través de los dispositivos ponibles inteligentes, cómo los medios sociales han pasado a formar parte de las redes sociales, y cómo aprendemos sobre el mundo a través de formas mediáticas digitales. Muchas de las principales preocupaciones de los sociólogos, como la identidad, las relaciones y desigualdades de poder, las redes sociales, las estructuras y las instituciones sociales, hoy deben ser consideradas desde la perspectiva de la actual digitalización y dataficación curso de muchos aspectos de la sociedad.

40

Los “estudios de software” emergen como una orientación interdisciplinar de los estudios informáticos, e incluyen estudios de los campos de las artes, la filosofía, las humanidades, la geografía, los estudios culturales y las ciencias sociales. Los estudios de software suelen insistir en dos puntos fundamentales. Se centran en el software, los programas y las culturas sociales que producen efectos en la vida social desde una perspectiva social, científica y cultural crítica, y en el trabajo social y material que contribuye a esta producción. Los estudios de software pretenden participar de “las cosas del software” y: ver detrás de la pantalla, a través de las muchas capas de software, lógica, visualización y órdenes, hasta los electrones que merodean por el microcircuito, para pasar después a las formaciones políticas, culturales y conceptuales del software, salir de nuevo a los cables que conectan con el mundo, donde el software migra y modifica todo lo que toca. (FULLER, 2008, pág. 1) Es un evidente elevado orden metodológico, que requiere experiencia en los tecnicismos del software, los procesos políticos y culturales que intervienen en su producción, y las consecuencias sociales de su extensión a prácticas altamente diversas de los ámbitos del trabajo, el ocio, la cultura, la economía, las relaciones sociales, etc. Con el fin de establecer una serie de parámetros metodológicos para este tipo de estudios, KITCHIN y DODGE (2011, pág. 246) han elaborado un útil “manifiesto para los estudios de software”: En vez de centrarse puramente en lo técnico, lo fusionan con lo filosófico para suscitar preguntas sobre qué es el software, cómo nace… cómo funciona en el mundo, cómo el mundo actúa en él, por qué influye en la vida cotidiana, la ética de su trabajo, y los discursos en que se asienta. Los estudios de software tratan de abrir con su palanca las cajas negras de los algoritmos, los archivos ejecutables, las estructuras [de las bases de datos] y los protocolos de información, para entender el software como un nuevo medio que aumenta y automatiza a la sociedad. En su manifiesto, insisten de modo particular en la necesidad de una investigación crítica sobre las formas en que el código emerge, cómo actúa, y cómo seduce y disciplina. En cuanto a su emergencia, urgen a fijarse mucho más en los conocimientos, las prácticas, los materiales y los mercados que intervienen en la producción de código, y en los contextos político, económico y social en que se enmarca tal producción. Estos teóricos proponen minuciosos estudios etnográficos sobre cómo los desarrolladores producen el código, y la vida de los proyectos de software, para entender cómo se crea el software y cómo se aplica en contextos específicos. KITCHIN y DODGE apuntan a que los estudios sobre el software podrían ocuparse de las formas que actúa el código. Con ello se refieren a analizar en detalle “las formas

41

contextuales en que el código reconfigura las prácticas referentes a la industria, los transportes, el consumo, la gobernanza, la educación, el entretenimiento y la salud”, así como “la producción de conocimientos, la práctica creativa y los procesos de innovación”, y estudiar de qué formas el código “marca una diferencia” para estos espacios y contextos por la capacidad que les da de realizar nuevos tipos de trabajo (KITCHIN y DODGE, 2011, pág. 249). Argumentan también que el código seduce y disciplina debido en gran medida a que ofrece a las personas beneficios reales en términos de conveniencia, eficiencia, productividad y creatividad, al tiempo que también impone formas más ubicuas de vigilancia y gestión. En particular, KITCHIN y DODGE señalan que el software cuenta con la ayuda de discursos de mucha fuerza y coherencia, como los de la seguridad, el empoderamiento, la productividad, la fiabilidad y la ventaja económica, unos discursos que convencen a las personas para aceptar voluntariamente ese software. En este sentido, el software y el código están abiertos al análisis documental y discursivo. Los “estudios críticos sobre datos” son otro campo emergente de investigación interdisciplinar que se ocupa de la dataficación de muchos aspectos de la sociedad. En un número especial sobre el tema de los estudios críticos sobre datos, se presentaba el campo como un “intento formal de poner nombre a los estudios que se ocupan de todas las formas de ciencia de datos potencialmente despolitizada, y de determinar cómo se generan y conservan los datos, y cómo impregnan todas las formas de vida y ejercen el poder sobre ellas” (ILIADIS y RUSSO, 2016, pág. 2). ILIADIS y RUSSO (2016, pág. 5) subrayan además la identificación de los problemas de los datos sociales y el diseño de marcos críticos para abordarlos. Los estudios críticos sobre datos son una serie de sistemas de análisis crítico de diversas formas de datos digitales —incluidos los big data, los datos abiertos y las infraestructuras de datos— y también las diversas prácticas de la ciencia de datos como disciplina social, profesional y técnica, y como tales han calado en geógrafos, sociólogos, filósofos e investigadores de la investigación. En una de las primeras publicaciones en detallar los estudios críticos sobre datos, los geógrafos DALTON y T HATCHER (2014) fijaban siete compromisos definitorios de este campo: (1) situar los regímenes de los datos en el contexto temporal y espacial, (2) revelar los datos como inherentemente políticos y exponer los intereses a los que sirven, (3) desvelar la relación compleja y no determinista entre los datos y la sociedad, (4) ilustrar cómo los datos nunca son brutos sino que siempre se generan de forma intencionada, (5) exponer la falacia de que los datos pueden hablar por sí mismos y que los big data exhaustivos reemplazarán a los datos de muestra y menor escala, (6) analizar la forma de utilizar los regímenes de los datos de forma socialmente progresista, y (7) estudiar cómo interviene la academia en los regímenes de los datos y las oportunidades que tal intervención genera. En otro artículo, KITCHIN y LAURIAULT (2014) resumen los conceptos y métodos de los estudios críticos sobre datos, con el objetivo de incitar a los investigadores a que

42

desvelen los complejos “ensamblajes” que producen, divulgan, comparten/venden y utilizan los datos de diversas formas. Los ensamblajes de datos, como ellos los definen, están compuestos de sistemas técnicos de recolección, procesado y análisis de datos, pero también de los diversos aparatos sociales, económicos, culturales y políticos en que se enmarca el funcionamiento de esos sistemas. En este sentido amplio, un ensamblaje de datos incluye: (1) determinados modos de pensar, teorías e ideologías, (2) formas de conocimiento como manuales y libros de texto, (3) aspectos económicos como modelos de negocio, inversión y filantropía, (4) la economía política determinada por los gobiernos, (5) la materialidad de ordenadores, redes, bases de datos y paquetes de software para la analítica, (6) prácticas, técnicas y conductas cualificadas específicas de los científicos de datos, (7) organizaciones e instituciones que reúnan, gestionen o utilicen los datos, (8) determinados enclaves, ubicaciones y espacios, y (9) los mercados para los datos, los productos derivados de estos, sus analistas y su software. Abordar los estudios críticos sobre datos desde la perspectiva de los ensamblajes de datos sociotécnicos es rentable para el estudio de la producción y el uso de datos educativos. Este libro ofrece una serie de análisis de los big data en el momento de su entrada en las complejidades de la educación y la reformulación de la enseñanza, el aprendizaje, la evaluación, la gobernanza y los propios estudios sobre educación. Para el campo de la investigación educativa, los macrodatos son un fenómeno nuevo y emergente cuyo conocimiento es aún limitado (BENEITO-MONTAGUT, 2017). En los capítulos que siguen, aúno la atención a los imaginarios sociotécnicos con la sociología digital, los estudios de software y los estudios críticos sobre datos, como estrategia metodológica para llevar a cabo una serie de análisis críticos de los efectos que producen en la educación los ensamblajes en que intervienen el código de software, los algoritmos y los datos digitales. No quiero decir con esto que los actuales sistemas de investigación, descripción y explicación educativas sean irrelevantes. Al contrario, parte de mi objetivo es demostrar que la investigación educativa se puede ampliar de forma productiva con la participación en el software y los datos desde una perspectiva crítica. Los estudios de política educativa, por ejemplo, ya han empezado a adoptar paquetes de software e infraestructuras de datos que permiten reunir información política, así como prácticas para penetrar en los usos políticos. En los capítulos siguientes me propongo comprender de qué modo han llegado a la existencia algunas de estas tecnologías de software que hoy irrumpen en la educación e indagar en los imaginarios que las animan, estudiar cómo estas tecnologías actúan en contextos y espacios específicos y cómo reconfiguran determinadas prácticas, y analizar cómo cuentan con la ayuda y el estímulo de ciertos discursos que emanan de diversos sectores, públicos, privados y filantrópicos.

Las máquinas de aprender 43

Al trabajar con los conceptos de imaginarios sociotécnicos y los enfoques críticos del software y los datos, quiero demostrar que las potentes visiones del futuro se están convirtiendo rápidamente en los artefactos comunes que hacen posible la digitalización y dataficación de la enseñanza. Una expresión útil para definir estos artefactos de digitalización y dataficación educativas es el de “máquinas de aprender”. Tomo la expresión de Michael FOUCAULT. En su tan influyente obra sobre los regímenes disciplinarios, FOUCAULT (1991) delimitaba algunas de las formas en que los centros educativos funcionan para supervisar y disciplinar a los alumnos, en particular mediante técnicas como los horarios, la disposición en filas en el aula y el agrupamiento por edad, rendimiento, conducta, conocimientos y capacidad. Todas juntas, decía FOUCAULT (1991, pág. 147), estas técnicas “hacían que el espacio educativo funcionara como una máquina de aprender, pero también como una máquina para supervisar, jerarquizar y recompensar… de acuerdo con el progreso, el mérito, el carácter, la aplicación y el aseo del alumno y la fortuna de los padres”. Explicaba con detalle cómo el funcionamiento de las aulas se basaba en distribuir a los alumnos en categorías, clasificaciones y niveles a partir de constantes evaluaciones de sus cualidades, edad, desarrollo, rendimiento y conducta. Mediante técnicas de ordenación y clasificación de los alumnos en diversas categorías, decía FOUCAULT, “el aula formaba una única gran tabla, con muchas entradas distintas”, y señalaba que las aulas son “espacios mixtos”, “reales” en la medida en que se componen de edificios, dependencias y mobiliario, pero también “ideales, porque se proyectan por encima de esta disposición de caracterizaciones, evaluaciones y jerarquías” (1991, pág. 148). La caracterización y tabulación de las instituciones educativas, sus espacios, procesos e individuos, tal vez sea el objetivo ideal —o el imaginario dominante— de los big data de la educación. En este sentido, lo que FOUCAULT denominaba máquinas de aprender adquiere hoy, en la era de los macrodatos educativos, un nuevo tono. Las máquinas de aprender que hoy se imaginan y construyen están compuestas de tecnologías informáticas que pueden reunir y procesar datos sobre el aprendizaje, intervenir en las prácticas, los procesos y las instituciones de aprendizaje, y “aprender” de los datos que procesan, y se pueden considerar técnicas de poder, instrumentos para el control de la actividad, las conductas y los cuerpos, y los procesos de generación de conocimiento. Son máquinas de aprender inteligentes, la forma material y operativa del imaginario sociotécnico de los big data de la educación. A través de la inteligencia de datos, las escuelas, los institutos, las universidades y otros contextos de aprendizaje informales, se están convirtiendo en “máquinas de aprender”, en las que cada alumno, cada nivel y cada momento, debidamente aunados, pasan a “ser utilizados permanentemente en el proceso general de la enseñanza” mediante un “sistema preciso de mando” que funciona “de acuerdo con un código predispuesto más o menos artificial” (FOUCAULT, 1991, págs. 165-166). Las máquinas de aprender inteligentes asociadas a la digitalización y la dataficación de la educación son producto de líneas de código, en sentido técnico, que

44

también propician determinados códigos de conducta. El software digital posibilita la observación constante de las instituciones, las prácticas y las personas, y la conversión de estas observaciones en datos, unos datos que después pueden usar las máquinas de aprender para generar ideas, producir inteligencia “procesable”, y hasta recomendar intervenciones activas. El imaginario sociotécnico ideal de los big data en la educación hoy se materializa y activa mediante máquinas de aprender inteligentes, hechas de código de software y datos, y que se pueden integrar en espacios educativos reales.

1 Startups en inglés, que utilizaremos también aunque demos preferencia a la recomendación de la FUNDEU. (N. del E.) 2 Think tank en inglés, utilizaremos preferentemente “laboratorio de ideas” o “centro de pensamiento” siguiendo la recomendación de la FUNDEU. (N. del E.)

45

46

47

Los datos digitales son hoy un elemento fundamental de la actividad de las empresas, los gobiernos, las compañías mediáticas, los laboratorios de ideas, las ciudades y la innovación científica, y también de la vida cotidiana de millones de personas de todo el mundo. Entidades comerciales como supermercados, minoristas online, instituciones financieras, empresas de entretenimiento, medios sociales y transporte, y muchas más, dependen de la recolección de vastas cantidades de datos de sus clientes y usuarios para optimizar la gestión de su actividad. En el universo de las grandes empresas de la Red, Amazon, Netflix y Spotify disponen de suficientes datos individuales y colectivos de sus clientes para prever sus preferencias y hacer recomendaciones individualizadas y microdirigidas (BEER, 2013). Google y Microsoft reúnen datos de cada clic del usuario, y los utilizan para elaborar perfiles detallados sobre sus gustos, preferencias e intereses, unos perfiles que después se pueden usar para customizar y personalizar el contenido que reciben los usuarios —y también venderlos a terceras partes para una publicidad dirigida — y configurar sutilmente su experiencia mediática social general (VAN DIJCK, 2013). Incluso Disney World se ha convertido en una operación comercial basada en los datos masivos: entrega a todos sus visitantes una pulsera especialmente diseñada (las MagicBands) que transmite constantemente información sobre la ubicación del cliente en el parque, lo que elige en sus restaurantes, las colas que guarda para las diversas atracciones, los espectáculos que ve: todo lo que hace. Después, los ingenieros de Disney pueden analizar estos datos en los laboratorios especializados de Disney Research para generar ideas sobre cómo obtener el máximo beneficio del parque y sus atracciones. Esta “DataLand” reimagina un “parque temático como una ciudad experimental” en la que la

48

“vigilancia de los datos” forma parte del “experimento más grande y diverso del mundo en el ámbito de los datos recogidos de los dispositivos ponibles” (BOGOST, 2014). Los gobiernos intentan hacer lo mismo que Disney World pero con sus ciudadanos. A través de la información personal contenida en el código de barras de nuestro pasaporte, más los detalles biométricos obtenidos por el escáner del iris del ojo en cualquier aeropuerto, los gobiernos pueden disponer de un considerable registro de nuestros viajes. Cuando tramitamos una declaración de impuestos online, o accedemos a cualquier otro servicio digital online del gobierno, este puede seguir nuestras interacciones con el Estado, ya que, según dicen, “muchos de los departamentos y agencias del gobierno, incluso la mayoría de ellos ‘son’ sus sistemas de información y su presencia digital: la única parte de ellos con la que muchos ciudadanos van a interactuar” (DUNLEAVY y MARGETSS, 2015). La propia política experimenta un “giro analítico” caracterizado por el mayor uso de “métodos basados en la ciencia experimental de los datos para estudiar grandes sumas de información conductual de registros públicos del votante y entornos mediáticos digitales, con el objetivo de organizar y movilizar segmentos clave del electorado para que voten y compartan en público y en privado su decisión con otros votantes” (CHADWICK y STROMER-GALLEY, 2016, pág. 284). Cuando Edward Snowden, el delator de la National Security Agency (NSA) de Estados Unidos, filtró archivos a los medios en 2014, se puso en evidencia que algunas poderosas agencias gubernamentales habían abierto puertas traseras para acceder a los sitios de los medios sociales, y a través de ellos obtener información sobre millones de personas durante sus actividades online diarias. Tal realidad genera mucha inquietud por la vigilancia y la invasión de la privacidad por parte de agentes tanto comerciales como del Estado (LYON, 2014). También los laboratorios de ideas recurren gradualmente a los datos digitales como medio para tomar el pulso al público y sobre esta base recomendar políticas e intervenciones gubernamentales (MILLER, 2014). El periodismo está viviendo una transformación, como periodismo digital y periodismo de datos, y una crisis generalizada, con las fuentes tradicionales de noticias amenazadas por las historias populistas virales de los medios sociales y los bulos y falsas informaciones de la Red (ALBRIGHT, 2016a). El resultado es una situación en que el interés por los “hechos” y la “verdad” es usurpado por el de los clics, la medición de participaciones y la publicidad generadora de ingresos vía digital. A su vez, la “política de la posverdad” exacerba esta realidad, con unos políticos y sus asesores que tejen sin miramientos historias que tengan muchas probabilidades de circular por las redes sociales y afectar emocionalmente a la población (VINER, 2016). De modo que, aunque la minería de datos puede servir para obtener información política o periodística sobre el estado de ánimo de la gente y eventos importantes, los medios sociales, la conjunción de los bulos y la política de la posverdad también están reconfigurando de modo radical la exposición de la gente a la información. Al mismo tiempo, los datos obtenidos de los clics y enlaces de los usuarios se emplean para personalizar más aún su experiencia en torno a sus

49

intereses y visiones del mundo, en vez de proponerles perspectivas que los contrarresten. Otro recurso a la minería de datos para obtener información se puede encontrar en muchas técnicas de gobernanza municipal y gestión urbana. Es el caso en particular de las “ciudades inteligentes”, espacios urbanos emergentes dotados de dispositivos sensores, equipos de vigilancia y capacidad de recolección de datos para seguir y monitorizar a las personas a través de sus teléfonos inteligentes. La vieja ciudad de cemento, cristal y acero esconde hoy un inmenso submundo de ordenadores y software. Unidos a través de Internet, estos dispositivos se adhieren a un sistema nervioso que da soporte a la vida de miles de millones de personas en un mundo de urbes inmensas que no dejan de crecer… La renovación digital de nuestro legado urbano está dando lugar a un nuevo tipo de ciudad: la “ciudad inteligente”. (T OWNSEND, 2013, pág. XII) En estas ciudades donde “las máquinas dirigen el mundo en nuestro nombre”, los gestores urbanos pueden hacer diagnósticos de la ciudad en tiempo real —utilizando los resultados de datos digitales para asignar recursos, dirigir el tráfico y los transportes, y controlar el uso de energía— e incluso monitorizar la información que se cuelga en medios sociales como Facebook y Twitter para hacerse una idea sobre el sentir público acerca de determinados enclaves, servicios y eventos municipales. Parece que la ciudad se está haciendo inteligente, incluso una “ciudad sintiente”, gracias a los datos que reúne y a su consiguiente actuación para conseguir la mejor gestión (SHEPARD, 2011). En este y otros sentidos, los big data están transformando la vida cotidiana de la gente. Una realidad quizás más evidente para quienes usan el teléfono móvil u otros dispositivos ponibles inteligentes de control de la forma física y la salud para monitorizar su ejercicio físico. El movimiento del Yo cuantificado (Quantified Self) se ha convertido en un fenómeno global, con dispositivos como las pulseras Fitbit, los relojes de Apple y otros artilugios dotados de sensores para seguir el movimiento de quien los lleva, registrar sus patrones de sueño, monitorizar su vida sexual, informar de sus sentimientos, calcular su ingesta y consumo de calorías, y mucho más (LUPON, 2016). Y, algo todavía más común, a través de la interacción con los medios sociales, nos estamos convirtiendo a la vez en consumidores de datos producidos por otros, y productores de datos, a través de las actualizaciones de perfiles, posts, imágenes, vídeos, comentarios, likes, recomendaciones, etc. (BEER, 2013). Con el auge de la Internet de las Cosas (Internet of Things, IoT) —objetos con conexión a Internet, como los frigoríficos inteligentes, los termostatos inteligentes y hasta cepillos de dientes inteligentes, capaces de monitorizar el propio uso que se hace de ellos — el entorno material cotidiano adquiere cada vez mayor vida, con la interacción y comunicación mutuas, y sin intervención humana, de los datos, edificios, oficinas, hogares y dispositivos particulares (T HRIFT, 2014). En este contexto de intensa interacción entre las personas y cosas inteligentes, los datos nos cambian la vida a medida

50

que pasamos a formar parte de vastas redes de movimientos de datos: “Del mismo modo que hablamos de ‘ciudades sintientes’, también nos podemos referir al ‘ciudadano sintiente’: un nodo de emisión de datos digitales en la Internet de las Cosas” (MICHAEL y LUPTON, 2015, pág. 6). Cuando usamos la Red, todos quedamos ensombrecidos por nuestra “copia en datos”, una versión nuestra formada a partir del rastro digital de nuestras actividades (HAGGERY y ERICSON, 2001; RALEY, 2013). Con la progresiva importancia de asistentes como Google Now, Siri de Apple y M de Facebook, hoy se va formando una inmensa base de datos de cada usuario individual, con información suficiente sobre nosotros para que pensemos que los sistemas, en nuestras posteriores mutuas interacciones, son inteligentes y sintientes. Aunque pueda parecer extraño, se olvida en gran medida el papel que los datos digitales desempeñan en la educación. Es posible que la aparición de nuevos avances como la minería de datos educativos no resulten de inmediato tan espectaculares como los laboratorios de datos de Disney World, tan poderosos como los servicios digitales del Estado, tan receptivos como la ciudades inteligentes, ni tan omnipresentes como la Internet de las Cosas, pero en realidad tienen idéntica importancia. De hecho, muchas organizaciones ya proponen que las instituciones educativas se podrían gestionar como espacios digitales dirigidos por datos, siguiendo exactamente el modelo del mismo tipo de imaginarios que propician la dataficación de Disney, el crecimiento del gobierno digital, la inteligencia de las ciudades y la interconexión de las cosas, en redes altamente receptivas que progresivamente saben más, sienten más y son más conscientes de sí mismas. En este sentido, ya existen programas para reformular la educación en las ciudades inteligentes, tecnologías de aprendizaje adaptativo que responden a sus usuarios de forma que parece sintiente, y dispositivos ponibles para seguir y monitorizar el progreso académico del estudiante, sus movimientos y emociones. En los próximos capítulos expondremos todos estos avances y debatiremos sobre ellos, pero antes es necesario comprender parte de la complejidad y diversidad de lo que entendemos al hablar de datos digitales y big data.

Qué son los datos Las tecnologías de datos digitales han aumentado significativamente su alcance e influencia en los últimos años. El concepto de datos en relación con las tecnologías digitales es obviamente un producto del siglo XX, pero el uso del término es mucho más antiguo. En inglés, la palabra data se remonta al siglo XVII, una base conceptual que más tarde desempeñaría un importante papel en la apertura del espacio para posteriores innovaciones en la estadística y la tecnología de la información (ROSENBERG, 2013). La raíz etimológica de “dato” está en datum (plural data), el participio del verbo latino dare, que significa “dar”. En este sentido etimológico, “dato” significa algo que es dado o se da por supuesto; los datos son los elementos brutos que se pueden abstraer, medir y

51

registrar a partir de fenómenos diversos, y convertir después en pruebas o hechos. Como tal, el concepto de datos estuvo ligado a los intentos de los siglos XVII y XVIII de alejarse de las afirmaciones del conocimiento teológico basadas en las escrituras, y dirigirse a las pruebas y los hechos científicos, y el supuesto de que los datos eran significativos cualesquiera que fueran el contexto, el medio, el formato, la lengua o quien los produjera (KITCHIN, 2014a). Desde la perspectiva del siglo XVIII, “los datos preceden al hecho: son el punto de partida de lo que sabemos, lo que somos y cómo nos comunicamos”, y a menudo se percibían como transparentes, evidentes por sí mismos, neutrales y objetivos, “la materia fundamental de la propia verdad” (GITELMAN y JACKSON, 2013, págs. 2-3). Sin embargo, cuando hoy hablamos de “datos” normalmente nos referimos a esos elementos que se “dan” por supuestos o se seleccionan, no esas unidades que la naturaleza proporciona al científico. KITCHIN (2014, pág. 3) sostiene que, en vez de “datos” deberíamos hablar con mejor precisión de “captos” o capturados, una palabra que, aunque induciría a la confusión, refleja muy bien que: Los datos recogidos a través de la medición siempre son una selección entre todos los datos disponibles: lo que hemos decidido tomar de todo lo que potencialmente se podría dar. Como tales, los datos son inherentemente parciales, selectivos y representativos, y los criterios que se empleen para captarlos tienen sus consecuencias. En este sentido, los datos se deben entender como productos sociales: como unidades de medición que se han tomado de un fenómeno de acuerdo con las convenciones por las que han sido generadas. En otras palabras, hay que emplearse mucho en la generación de datos, que nunca son simple materia “prima” que, una vez descubierta, sustente la producción de pruebas o información (BOWKER, 2008). Al contrario, “los datos exigen nuestra participación. Nos necesitan” (GITELMAN y JACKSON, 2013, pág. 6). En otras palabras, los datos no vienen dados, sino que se toman o seleccionan de acuerdo con diversos factores sociales como el conocimiento experto, las convenciones profesionales y las prácticas de quienes diseñan las tecnologías y trabajan con ellas, las organizaciones e instituciones donde se recogen, calculan y comunican los datos, los ámbitos políticos, económicos y comerciales que determinan las condiciones para el uso de los datos, la disponibilidad material de dispositivos para generar datos, y las estructuras legales y éticas, los estándares técnicos, las leyes y regulaciones que rigen en todas las fases de la producción y el uso de los datos. En otras palabras, los datos “no existen independientemente de las ideas, las técnicas, las tecnologías, los sistemas, las personas y los contextos” (KITCHIN, 2014a, pág. 24).

La primera ola de big data La disposición sociotécnica de muchos aspectos del mundo actual depende hoy cada vez más de diversos sistemas de base de datos, y de los procesos de ordenación, elección, recuento y clasificación que estas bases aplican (MACKENZIE, 2012). Es

52

evidente que las tecnologías de bases de datos digitales son un invento del siglo XX, pero sus raíces genealógicas son muy largas. La recolección de datos y el análisis estadístico a gran escala tienen una larga historia en los sectores gubernamental, comercial y académico, por ejemplo, en los censos nacionales, los programas de fidelización del cliente, y la producción de grandes bases de datos de conocimientos científicos (BOWKER, 2008). El propio concepto aún más nuevo de “big data” tiene un pasado fragmentado vinculado a complejas historias de informatización, financiación militar, comercialización, programas de investigación académica y formas cambiantes de regulación gubernamental, además de estar construido sobre modos históricos de indagación como la física social, el análisis espacial y otras formas anteriores de análisis computacional y estadístico de los datos sociales (BARNES y WILSON, 2014; RIEDER y SIMON, 2016). Por lo tanto, se puede considerar que el interés actual por los macrodatos es la continuación de la “avalancha de cifras impresas” relacionadas con el auge de la estadística y otros procesos nuevos de producción y clasificación de conocimientos de mediados del siglo XIX, como las oficinas del censo, los museos y bibliotecas, y en especial las prácticas burocráticas de recolección de datos sociales como el registro de índices de enfermedad, mortalidad, pobreza, delincuencia, etc. (HACKING, 1990). El uso de las estadísticas y formas de medición ha sido durante siglos parte integral del propósito de los gobiernos de entender y controlar a la gente, lo cual sitúa en tiempos anteriores y anticipa el actual entusiasmo por los datos a gran escala y los macrodatos digitales: El conocimiento de las cosas que componen la propia realidad del Estado… se llama “estadística”. Por su raíz etimológica, la estadística es el conocimiento del Estado, de las fuerzas y los recursos que caracterizan al Estado en un momento dado… [La estadística] es una serie de conocimientos que describen la realidad del propio Estado. (FOUCAULT , 2007, pág. 274) Así pues, las primeras técnicas estadísticas que empezaron a aparecer en el siglo XVII y después proliferaron en la revolución de las “cifras impresas” del siglo XIX, ofrecían a los gobiernos conocimientos sobre la población, su cantidad, su riqueza, su natalidad, su salud y mortalidad, su comercio y sus impuestos, sus recursos militares, etc., todo lo cual podía determinar los contenidos del conocimiento gubernamental. El conocimiento estadístico de la población, por tanto, se podía entender como fuente primordial de poder del Estado, un poder con el que “la maquinaria del gobierno podía operar desde centros de cálculo” (ROSE, 1999a, pág. 213). Estas formas estadísticas analógicas de los “datos sociales” anticiparon el auge del interés político, comercial y académico por el concepto y las prácticas de los macrodatos de hace ya más de un siglo (BEER, 2016a). La avalancha de números analógicos del siglo XIX fue la “primera ola de big data”, generada cuando, “después del caos debido al cambio radical en el mundo sociotécnico” que siguió a la revolución industrial, “las personas pasaron a ser objeto de cuantificación” (AMBROSE, 2015, pág. 218), un hecho

53

que tuvo implicaciones importantes para la organización, el control y la gobernanza sociales. En el siglo XIX, la recolección de datos sociales tenía un objetivo: conocer y controlar a la población en un momento de importante cambio social, lo cual derivó en nuevas formas de entender a las personas, los grupos y las poblaciones, e influyó en las formas posibles de actuar sobre todos ellos mediante nuevas instituciones sociales (ROBERTSON y T RAVAGLIA, 2015). Por entonces, ya era habitual tratar los datos como el resultado de una investigación o un experimento, y no como una unidad o un fenómeno dado de antemano. Evidentemente, muchas de las prácticas burocráticas y estadísticas analógicas del pasado siguen hoy. Por ejemplo, muchos departamentos gubernamentales reúnen de forma rutinaria datos administrativos sobre el ciudadano, por ejemplo, el registro de nacimiento, pagos a la seguridad social, estudios, impuestos y fallecimiento. Estos datos forman un cronograma administrativo de cada individuo de la población, unos datos que después se pueden juntar y analizar para elaborar minuciosos informes sobre tendencias y comportamientos sociales. En Reino Unido, el Administrative Data Research Network controla el acceso a estos datos, y los junta para generar un cuadro estadístico de la sociedad que se pueda utilizar para influir en la política futura del gobierno. La ambición de utilizar grandes conjuntos de datos para conocer mejor las conductas societales e individuales está en la base de los nuevos esfuerzos de extracción y explotación del aluvión digital de macrodatos.

Los big data digitales Si la llamada “primera ola de big data” iba asociada a la práctica estadística del siglo XIX, la “segunda ola de big data” del siglo XX (AMBROSE, 2015) depende mucho más de las tecnologías digitales y las consiguientes prácticas sobre los datos. En la actualidad, los datos que se pueden reunir y almacenar no son solo de carácter estadístico, cuantitativo y numérico, sino también cualitativo y no numérico, por ejemplo, los datos de texto, imágenes, vídeo y sonido. Los big data son posibles gracias al descomunal incremento de la banda ancha en las telecomunicaciones y del flujo de información, que conectan sistemas de almacenaje de datos y posibilitan grandes reservas de información, servidores de red y granjas de servidores, y mejores capacidades computacionales digitales para interpretar los datos (HILBERT, 2016; KITCHIN, 2014a). En otras palabras, los datos son posibles gracias a la disponibilidad material de determinados dispositivos, sin los cuales nunca se podrían reunir, almacenar, analizar ni interpretar. En este sentido y como cualquier forma de datos, los macrodatos digitales nunca son “brutos”, porque primero hay que captarlos y después traducirlos a características cuantificables y codificables que las máquinas puedan interpretar, de modo que se puedan identificar, clasificar, ordenar y distribuir mediante algoritmos de procesamiento de datos, ellos mismos dependientes del hardware material (BOWKER, 2008).

54

En los últimos años, “big data” se ha convertido en una expresión popular y un concepto exageradamente publicitario, sin embargo, sorprende lo difícil que es definir con claridad qué son esos big data. En términos técnicos, “big data” se refiere a gigantescos conjuntos de datos (a escala de petabytes, exabytes y zettabytes), de tipo y naturaleza muy diferentes, datos que se generan continuamente a gran velocidad y en tiempo casi real, son de alcance exhaustivo (permiten capturar poblaciones enteras, o “n = todos”, y no muestras seleccionadas), poseen muy minuciosas unidades individuales de indexación, se pueden combinar con otras redes de conjuntos de datos, y son lo bastante flexibles y escalables para poder añadir nuevos campos y aumentar de tamaño con rapidez (BOYD y CRAWFORD, 2013; MAYER-SCHÖNBERGER y CUKIER, 2013; KITCHIN, 2014, 2014b). KITCHIN y MCARDLE (2015) señalan que la exhaustividad y la velocidad son tal vez los dos rasgos fundamentales de los sistemas de big data. Estas cualidades de los macrodatos contrastan con sistemas anteriores de recolección y análisis que operaban con datos obtenidos de forma estrechamente controlada mediante técnicas de muestreo que limitaban su alcance, variedad, temporalidad y tamaño (KITCHIN y MCARDLE, 2015). Sin embargo, los big data no son un mero fenómeno material, sino un concepto de extraordinaria fuerza y una larga historia que va unida a anteriores formas de recolección de datos sociales y gestión de la población: Cuando hablamos de Big Data debemos tener presente que su historia va unida a determinadas formas de pensar. Después, debemos considerar cómo este pensamiento se materializa en el desarrollo de ciertas estructuras y en la industria de la analítica de datos. Esto significa entender los Big Data como el entretejido de un fenómeno y un concepto. Los propios macrodatos, con su capacidad de monitorizar las vidas mediante formas archivadas y clasificadas de datos individualizados, se pueden situar, pues, en el linaje genealógico del Estado moderno. (BEER, 2016b, pág. 1) En consecuencia, no siempre está claro qué constituye big data en la práctica. La controvertida definición de big data queda patente en la pregunta: “¿Qué hace que los big data sean big data?” que plantean KITCHIN y MCARDLE (2015), quienes señalan que muchos sistemas definidos como big data a menudo no cumplen los criterios definicionales que la literatura sobre el tema ofrece (por ejemplo, de cantidad ingente, extraordinariamente diversos, recabados en tiempo real, con la posibilidad de ampliarlos a escala y relacionarlos con otros conjuntos de datos, exhaustivos más que muestras, y minuciosamente detallados”. En cambio, los big data se han hecho “imprecisos en su estructura ontológica y su definición”, “tratados a menudo como una entidad amorfa carente de claridad conceptual”, y “aunque se han realizado ciertos trabajos rudimentarios para identificar el ‘género’ de los big data… no ha habido intento alguno de separar sus diversas ‘especies’ y sus atributos definitorios” (Ibid., 2015, págs. 4-5). En otras palabras, es posible que existan muchos tipos de big data de naturaleza y

55

características distintas.

La analítica de datos, la minería de datos y el aprendizaje automático Sea cual sea la definición que se formule de los big data, todos los datos digitales han de ser procesados y analizados para poderlos interpretar. HILBERT (2016, pág. 139) señala incluso que “el nombre completo de los big data es “analítica de los big data”, ya que, “con independencia de que la escala sea de peta, exa o zettabytes, la característica fundamental del cambio paradigmático es que el tratamiento analítico de los datos está sistemáticamente en la base de la toma inteligente de decisiones”. A partir de métodos y modelos consolidados, en los últimos años se han desarrollado nuevas tecnologías de analítica de datos y minería de datos, para detectar, clasificar y deducir relaciones y patrones de grandes series de datos, utilizando avances en la gestión y almacenamiento de la información, el manejo de datos, el modelado de algoritmos, la inteligencia artificial y los sistemas expertos. El procesado y análisis de datos abundantes, diversos, exhaustivos y desordenados es hoy posible gracias a técnicas informáticas de gran capacidad enraizadas “en los estudios sobre inteligencia artificial y sistemas expertos cuyo objetivo es el aprendizaje automático o de máquina que, de forma computacional y automática, pueda detectar, extraer y explotar patrones, construir modelos predictivos y optimizar los resultados” (KITCHIN, 2014b, pág. 2). Los métodos de analítica de datos: Prometen ayudarnos a conocer mejor la opinión, el estado de ánimo, las redes, los patrones de conducta y las relaciones de la gente. Además, es obvio que la analítica de datos y el aprendizaje automático allanan el camino para una Web 3.0 más inteligente… y auguran nuevas estrategias para la previsión, la determinación de objetivos y la toma de decisiones en una creciente diversidad de ámbitos sociales, como el marketing, el empleo, la educación, la sanidad, la policía, la planificación urbana y la epidemiología. (ANDREJEVIC y col., 2015, pág. 1) Sin embargo, las técnicas de minería de datos no son completamente nuevas. Se han estado desarrollando en enclaves científicos y en estudios industriales al menos durante los últimos cincuenta años, y hoy incluyen una gran diversidad de técnicas, como las de reconocimiento de patrones, el modelado estadístico, los árboles de decisión, las redes neuronales, los perceptrones, los modelos de regresión logística y regresión lineal, el aprendizaje automático y muchas otras (MACKENZIE, 2015). De todos los sistemas de analítica de datos, el aprendizaje automático o de máquina tal vez sea el más destacado. Se habla de aprendizaje automático para referirse a sistemas informáticos “inteligentes” caracterizados por algoritmos adaptativos, diseñados en

56

lenguajes de programación estadística como R, y a los que se puede enseñar para anticipar y predecir cómo van a actuar las personas. El aprendizaje automático se basa en algoritmos adaptativos y modelos estadísticos que se pueden suministrar como “datos de formación”; son, hablando burdamente, “algoritmos enseñados” que pueden aprender con datos que sirven de ejemplo (GILLESPIE, 2014b). Los resultados customizados de los motores de búsqueda, las sugerencias de los medios sociales y las recomendaciones al usuario online, son ejemplos de aprendizaje automático en funcionamiento. La importancia de los sistemas de aprendizaje automático está en que muestran algunas tendencias de novedad, adaptabilidad, anticipación y predicción. Con la formación basada en datos del pasado, el aprendizaje automático genera algoritmos enseñados que pueden interactuar con las personas y con otras máquinas, y adaptar su respuesta. Los algoritmos enseñados posibilitan que el entorno digital “aprenda” de y sobre el usuario, y “replique” con retroalimentación y recomendaciones para acciones futuras. Esto no quiere decir que el aprendizaje automático puede funcionar enteramente sin supervisión humana. Los sistemas de aprendizaje automático se han de re-formar continuamente en un proceso iterativo de monitorización, ajuste, revisión y optimización, y la exactitud y posibilidad de generalización de los propios modelos que esos sistemas generan deben ser analizadas y verificadas (MACKENZIE, 2015). Sin embargo, con los recientes avances técnicos, aumenta progresivamente la posibilidad de que los sistemas de aprendizaje automático aprendan con mayor autonomía. Los algoritmos del aprendizaje automático convencional dependen de que se los forme y re-forme con muestras de datos (lo que a veces se llama “aprendizaje supervisado”), en cambio, los sistemas más nuevos de aprendizaje automático basados en técnicas como las redes neuronales y el aprendizaje profundo, están diseñados con la capacidad de procesar y aprender del lenguaje natural, las interacciones con los usuarios y otros datos no estructurados (“aprendizaje no supervisado”) de forma similar a la de las redes neuronales del cerebro humano. El aprendizaje automático y el software de analítica predictiva forman, pues, parte de un mundo en el que hoy prevalecen los “resultados probabilísticos” y las predicciones sobre el futuro, con importantes implicaciones en la idea que las personas nos hacemos de nuestro propio futuro y cómo lo prevemos (MACKENZIE, 2013). La captura y el procesado de macrodatos mediante los algoritmos enseñados de los sistemas de aprendizaje automático se pueden observar en las empresas, las entidades financieras, las bases de datos gubernamentales y en los medios, y también en nuevas formas de vigilancia. Sin embargo, hay que plantear preguntas importantes sobre el proceso que MACKENZIE (2015, pág. 431) describe como “la producción de predicción”, es decir, el trabajo sociotécnico que se ocupa de hacer posibles las prácticas predictivas del aprendizaje automático. En particular, MACKENZIE subraya que: El aprendizaje automático solo puede aprender de una muestra de datos que alguien haya clasificado o etiquetado previamente. La existencia de la clasificación es

57

fundamental para el funcionamiento de las técnicas. La clasificación pasa a ser lo que las técnicas de minería de datos buscan aprender o modelar para que casos futuros se puedan clasificar de modo similar. (2015a, pág. 433) Asimismo, GILLESPIE (2014b) dice que los valores y supuestos que intervienen en la selección y preparación de los datos formativos son fundamentales para el modo en que el algoritmo del aprendizaje automático puede aprender de los datos. El acto humano de formar o enseñar a un algoritmo para que identifique y aprenda de cosas que han sido clasificadas y etiquetadas con claridad, indica que el aprendizaje automático es una forma de trabajo o producción realizados por personas que trabajan en unas determinadas condiciones laborales, dentro de estructuras institucionales, acordes con sus compromisos profesionales, ideas del mundo y teorías disciplinares sobre cómo funciona el mundo. Estos factores contextuales son relevantes en el modo en el que se forme o entrene al aprendizaje automático, y tienen importantes implicaciones en cómo se puedan comunicar y visualizar los datos.

La visualización de los datos Dada la complejidad y enormidad de los big data, es fundamental encontrar formas de comunicarlos de manera efectiva para que públicos diversos los puedan interpretar. Cada vez se emplea más la exposición gráfica de los big data a través de la visualización de los datos, para así hacer visibles y comprensibles complejos modelos y bases de datos que de otro modo sería difícil conceptualizar, y desvelar patrones, estructuras e interacciones que, de no ser así, podrían quedar ocultos. Hace ya tiempo que se utiliza el registro visual “para resumir y describir conjuntos de datos mediante tablas y gráficos estadísticos, diagramas, espacializaciones, mapas y animaciones” (KITCHIN, 2014a, pág. 106), pero últimamente los investigadores de la ciencia y las humanidades muestran un vivo interés por la visualización de los datos en relación específica con los conjuntos de datos digitales. Toda esta enorme cantidad de visualizaciones de datos con sus “diversos tipos de formatos visuales como las gráficas de dispersión, los gráficos lineales, los histogramas, los diagramas de caja, los mapas de calor y otras diversas formas de gráficos de datos especializados, interviene en las prácticas de los mineros de datos y los ‘científicos de datos’ que se dedican a dirigir, transformar explorar los datos” y con ello “convencer a las personas para que hagan cosas o ayudarlas a decidir qué hacer” (MACKENZIE, 2015, pág. 437). Con la aplicación de la “analítica visual”, las visualizaciones de los datos pueden desvelar patrones y establecer modelos y explicaciones visuales. La visualización es una forma de simplificar y reducir la complejidad de la interacción de variables a un formato gráfico y diagramático, es una avanzada técnica semiótica con la que cantidades y cualidades diversas de datos se transforman y estandarizan en una métrica visual común.

58

Pero la “estética de base de datos” de la visualización de los datos también se puede utilizar como forma visual de argumentación o retórica: Los datos no solo son abstractos y acumulativos, sino que se activan gráficamente. Es decir, para utilizarlos como parte de una explicación o base de una argumentación, normalmente es necesaria una representación gráfica que suele implicar una multitud de representaciones… La visualización de los datos amplifica su función retórica, porque las distintas visualizaciones son efectivas en distintas formas, están bien o mal diseñadas, y todos los conjuntos de datos se pueden visualizar de forma múltiple y, por consiguiente, pueden persuadir de modo distinto. (GITELMAN y JACKSON, 2013, pág. 12) En consecuencia, los métodos visuales dan sentido a los datos: traducen las mediciones a curvas y tendencias, y disponen los datos de modo que se puedan incorporar a presentaciones y argumentos que se vayan a utilizar para convencer a otras personas. Dicho de otro modo, la visualización de los datos da a las cifras cierta flexibilidad para configurarlas como presentaciones sólidas y convincentes. La visualización de los datos no es algo neutral, sino que amplifica su función retórica o persuasiva, y así permite su uso para elaborar argumentos y generar explicaciones sobre el mundo, y dar razones a otros para creer que tales representaciones, explicaciones y argumentos muestran el mundo tal como realmente se ve: como “hechos visualizados” (KITCHIN y col., 2015). Por lo tanto, en lo que se refiere a la producción o generación de visualización de los datos, los investigadores deben analizar a los actores que intervienen en la producción de las visualizaciones, preguntar qué datos utilizan, cómo se han formado estos datos, y “qué software se usa en el análisis, qué código o algoritmos configuran los datos y la visualización”, y con ello “tratar debidamente estas exposiciones visuales en su representación del mundo social” (BEER, 2013, págs. 118-119). Los métodos de analítica visual implican la conjunción de humanos y algoritmos en un trabajo simbiótico, con el ordenamiento algorítmico de los datos visuales trabajando de la mano del usuario en la construcción de imágenes, diagramas, gráficos y tablas significativos (KITCHIN, 2014a). Como señalan ROSE y col. (2014), toda visualización elaborada con software y datos digitales se “hace” en última instancia cuando circula en torno a una red de oficinas y pantallas de ordenador, cuando es utilizada por diversos diseñadores, visualizadores, gestores de proyectos, programadores y analistas de datos, y cuando se encuentra con diversos programas de software y dispositivos de hardware. Como tal, la visualización se puede entender como un “sitio interfacial” creado a través de redes de cuerpos humanos puestos a trabajar con distintos tipos de software y hardware, facilitado por ingentes depósitos de código y bases de datos de información precisa, y, por lo tanto, subrayando: Los cambios provocados en la construcción de significado por la emergencia de las redes digitales por las que los datos se mueven constantemente, cambian y proliferan,

59

van y vienen entre distintos actores y medios, son porteados, remendados, alterados, diseñados, pegados y comentados. (ROSE y col., 2014, pág. 401) La visualización del mundo de que aquí se habla es un complejo acto sociotécnico en el que intervienen diversos actores y tecnologías con fuerza persuasiva para configurar la participación de las personas y su interacción con el propio mundo.

Infraestructuras y prácticas de los big data Como la exposición sobre la generación y visualización de los big data ya ha empezado a señalar, ningún intento de definir los macrodatos se puede limitar a clasificaciones técnicas como la de las 3V (Volumen, Variedad y Velocidad). Más que reducir los big data simplemente a una lista de características, conviene abordarlos desde la perspectiva de un sistema sociotécnico. Esto significa estar atentos a las condiciones sociales de su producción y a sus efectos productivos en el mundo. KITCHIN y LAURIAULT (2014, pág. 6) describen una “infraestructura de datos” altamente racional como: Un complejo sistema sociotécnico, compuesto de muchos aparatos y elementos totalmente entrelazados, cuyo principal interés es la producción de datos. Un ensamblaje de datos consiste en algo más que el propio sistema/infraestructura de datos, por ejemplo, un sistema de big data, un depósito abierto de datos, o un archivo de datos, y ha de incluir todos los aparatos tecnológicos, políticos, sociales y económicos que configuran su naturaleza, su actuación y su funcionamiento. El concepto de infraestructura de datos es particularmente importante porque, dicho en términos simples, una infraestructura es la estructura física, material y organizativa que cimienta y organiza la vida social, política y económica. Las infraestructuras consisten en enormes sistemas técnicos, como las redes de telecomunicación e información de la comunicación electrónica, las redes de energía y electricidad, las redes de agua y alcantarillado, las redes de transporte y tráfico, todas ellas asentadas en gruesos conjuntos de estándares, protocolos y sistemas de clasificación, y cada vez más coordinadas por programas, software, algoritmos y códigos informáticos que determinan cómo han de funcionar. Tal como la describen BOWKER y STAR (1999, pág. 35): “la infraestructura está hundida dentro de otras estructuras, disposiciones sociales y tecnologías”, es un conjunto configurado históricamente de tecnologías, rutinas, convenciones sobre la práctica y estructuras organizativas. Por tanto, una infraestructura no es simplemente un sistema técnico, sino que se constituye a través de las relaciones entre muchos elementos técnicos, sociales y discursivos entrelazados para formar la “ejemplificación o personificación material de determinados movimientos sociales y políticos más amplios” (BEER, 2013, pág. 23). Como tales, las infraestructuras son a la vez técnicas y paquetes

60

asociados de software y están construidas sobre tecnologías de datos, pero también son logros humanos, requieren nuevos tipos de trabajadores, diseñadores, ingenieros, etc. del conocimiento. También se componen de aspiraciones o supuestos políticos y sociales, de modo que, “cuestiones en apariencia puramente técnicas, por ejemplo, cómo nombrar las cosas y cómo almacenar los datos, en realidad constituyen gran parte de la interacción humana y de lo que llegamos a conocer como natural” (BOWKER y STAR, 1999, pág. 326). Las infraestructuras de datos están en la base de la organización de muchos aspectos de las sociedades actuales, pero es importante considerar las “prácticas de datos” que generan datos digitales dentro de tales infraestructuras. Una “infraestructura social dirigida algorítmicamente” requiere importante mano de obra humana y recursos de extracción y explotación, y no se ha de entender sencillamente como un sistema técnico (ORTO-JOHNSON y col., 2015). Siguiendo con esta idea, RUPPERT y col. (2015) explican con detalle que estos macrodatos se generan a través de prácticas sociales y técnicas desarrolladas en determinados ámbitos de especialidad, unas prácticas que no solo generan estos datos sino que los ordenan, gestionan, interpretan, difunden, reutilizan, analizan, relacionan y borran” de acuerdo con “las decisiones y los imperativos normativos, políticos y técnicos… [de] los actores y las instituciones que dan forma a los big data”. Los autores señalan también que la generación social y técnica de los datos, y las formas en que estos datos se interpretan y cobran significado, también son generadores de determinados efectos e implicaciones sociales, ya que los datos y los algoritmos que los procesan tienen consecuencias para “lo que se sabe”, y pueden influir en la toma de decisiones y en otras actividades (RUPPERT y col. 2015). Así pues, una infraestructura de datos es algo técnico pero también práctico, en el sentido de que hay que aplicarla con el trabajo de diversos actores e instituciones, y práctico, además, en el sentido de que los datos producidos también se pueden convertir en practicables y relevantes para quienes se encuentren con esos datos y tomen decisiones basadas en el significado que de ellos se extraiga. Las prácticas de datos asociadas a los big data son en gran medida las que realizan los científicos de datos, ingenieros de software y programadores —los creadores de sistemas de big data— pero también se pueden ampliar hasta incluir a los usuarios de los macrodatos, aquellos que interpretan conjuntos y visualizaciones de datos y utilizan esas interpretaciones en sus prácticas de toma de decisiones y otras actividades. Refiriéndose a los primeros, GEHL (2015, pág. 414) habla del “raro sujeto capaz de explotar esas masas confusas”: El Científico de los Datos, armado con… una enorme cantidad de datos, algoritmos y no poco genio. Al igual que pasadas generaciones de trabajadores del conocimiento, el científico de los datos está llamado a frenar los excesos de nuestro constante compartir, y extraer de él nuevos conocimientos y producir valiosas técnicas nuevas de

61

gestión social. Como tipo ideal de trabajador del conocimiento de la era de los big data, la figura del científico de datos, dice GEHL (2015, pág, 420), es un producto “sexy y raro” trenzado con diversos hilos, entre ellos la larga historia de análisis estadístico, la fuerza computacional, los avances en los algoritmos en el campo de la ciencia informática, las nuevas formas de almacenamiento y recuperación de la información, los nuevos lenguajes de programación y el espíritu emprendedor. A estos nuevos científicos del mundo social expertos en datos se les llama “algoritmistas”: especialistas en ciencia de la computación, matemáticas y estadística, y también en política, derecho, economía e investigación social, capaces de realizar análisis de macrodatos en los ámbitos comercial, político y académico (MAYER-SCHÖNBERGER y CUKIER, 2013). Los big data necesitan algoritmistas de la ciencia de datos como una especie de superclase de expertos científicos. Son los trabajadores del conocimiento cuyos códigos, algoritmos y análisis extraerán significado de grandes cantidades de datos, los sabrán analizar, visualizarlos para consumo de otros, y generarán ideas, hechos y pruebas con los que poder convencer a otros sobre lo que deben hacer. En el otro extremo del espectro de la práctica de los datos están los actores que encuentran los datos y trabajan con ellos en el discurrir de su vida cotidiana. Por ejemplo, los profesores, los directores y los propios alumnos de los centros educativos son a la vez productores de datos y objeto de estos (FINN, 2016). En un sentido más amplio, los big data se pueden abordar desde la perspectiva de las prácticas de quienes son sus usuarios, por ejemplo, los usuarios de los medios sociales que “juegan” con datos cuando participan en Facebook, Snapchat, Instagram, Twitter, etc. (BEER, 2013). Muchas de las principales empresas comerciales responsables de la generación y el análisis de big data de los medios sociales invierten gran cantidad de I+D en la interacción entre humanos y computadoras (HCI) para “optimizar” la interacción de los usuarios con los datos: Los proveedores de información invierten mucho en investigación con el fin de comprender —y después hacer operativa esta comprensión— de qué modo las personas buscan, utilizan y digieren la información. Particularmente en el estudio de la interacción entre humanos y computadoras (Human-Computer Interaction, HCI), la comprensión de la psicología y la percepción humanas se basa en el diseño de algoritmos y las formas en que se deben representar sus resultados. (GILLESPIE, 2014, pág. 174) Los propios big data se han convertido en un valioso recurso para los investigadores y desarrolladores de la HCI, que pueden utilizar grandes cantidades de datos sobre las prácticas de procesado de la información de los usuarios para orientar el diseño de nuevos interfaces y funcionalidades. En consecuencia, las prácticas del usuario de los datos están significativamente “configuradas” (WOOLGAR, 1991) y limitadas por las

62

opciones de diseño decididas durante el desarrollo del interfaz del usuario que media la interacción de los usuarios con los datos.

Consecuencias sociales de los big data Es posible que el término “big data” no esté asentado ni sea incontrovertido, pero las consecuencias de los macrodatos en el mundo social más amplio son hoy objeto de importante debate académico, en particular en lo que se refiere al seguimiento y la monitorización de las conductas y actuaciones individuales y sociales. En el “dataverso” actual: Datos míos se almacenen en miles de ubicaciones virtuales… Cuando los datos se recuperan, se procesan mediante un algoritmo online o se lanzan a otro lugar y momento y aparecen en la pantalla del ordenador de un operador vigilante, mis posibilidades de actuación quedan determinadas. Como personas, nos estamos convirtiendo en nuestros propios datos. (BOWKER, 2013, pág. 168) Es un contexto en el que la dataficación —la transformación de la acción social en datos cuantificables online para posibilitar el seguimiento, la monitorización y el análisis inmediatos del comportamiento de las personas— se ha convertido en un nuevo paradigma de la ciencia y la sociedad, un contexto, además, en el que cada vez es mayor la confianza “datista” en la cuantificación objetiva de todo tipo de conducta y socialidad humanas (VAN DIJCK, 2014, pág. 198). Como señala GEHL (2015): “la minería de datos, su análisis y las consiguientes prácticas van dirigidas a personas ‘corrientes’ para gestionar y explotar sus deseos, sus movimientos y su socialidad”. Y añade: La informacionalización del conocimiento, unida a los avances en el almacenamiento digital y la concreción de muchas voces —desde el mundo empresarial a las agencias antiterroristas y el mundo de la interacción online digitalizada— nos lleva a la actual episteme, la de los big data, el sueño de n = todos, con la que se puede resolver cualquier problema humano. (2015, pág. 418) Los big data son socialmente relevantes porque son considerados fuente de “inteligencia procesable”, o ideas tan sólidas que se pueden utilizar para reformular “todas las complejas situaciones sociales como problemas perfectamente definidos con soluciones computables, o como procesos que se pueden optimizar fácilmente —basta con la presencia de los algoritmos correctos—” (MOROZOV, 2013a, pág. 5). El planteamiento solucionista técnico está alentado por la idea de que se “pueden recuperar sin esfuerzo” detalles específicos de datos sintéticos, y la de que “todo se puede establecer y prever si se cuenta con el sistema o el conjunto adecuados de algoritmos”

63

(T HRIFT, 2014, pág. 1263). La promesa de la dataficación objetiva y el solucionismo algorítmico parte de la premisa epistemológica de que la analítica de datos y los sistemas y técnicas de reconocimiento de patrones aplicados a los macrodatos, pueden revelar conexiones, asociaciones, relaciones, efectos y correlaciones significativos sobre los comportamientos humanos sin necesidad de hipótesis previas, marcos teóricos ni posterior experimentación. Esto supone que “mediante la aplicación de una analítica de datos escéptica, los datos pueden hablar por sí mismos, libres de sesgos o esquemas humanos, y que todos los patrones y todas las relaciones dentro de los datos son inherentemente significativos y precisos” (KITCHIN, 2014a, pág. 132). Sin embargo, como ya se ha dicho, los datos no existen de modo natural como representación bruta o exacta de una realidad subyacente. Hay que generarlos mediante prácticas sociales, metodológicas y técnicas, y se configuran constantemente al moverse entre actores humanos, plataformas de software y estructuras y enclaves institucionales, todos enmarcados en contextos sociales, políticos y económicos (BOWKER, 2008). En otras palabras, los big data no ofrecen una “visión imparcial desde ninguna parte”: La fantasía racionalista de que, con una metodología “adecuada”, se pueden reunir datos suficientes para formar una imagen objetiva y desinteresada de la realidad, forma parte de una tradición antigua y familiar: el positivismo. Es la idea de que el mundo social se puede conocer y después explicar a partir de una visión trascendente y de valores neutrales desde ningún punto de vista en particular… Pero la llegada de los Big Data ha resucitado la fantasía de una física social, con la promesa de una nueva técnica movida por los datos para ratificar hechos sociales y con poder de procesado puramente algorítmico. (JURGENSON, 2014) La idea de que los macrodatos pueden desvelar una imagen universal del comportamiento y la sociabilidad humanos remite de nuevo a la de que los datos preceden a los hechos, que la naturaleza ofrece los datos como unidades de un fenómeno o los elementos fundamentales de la propia verdad. JURGENSON (2014) cuestiona seriamente los “mitos de la objetividad e imparcialidad política” relacionados con los big data, no en menor grado porque estos “no se pueden entender fuera del potente nexo entre la ciencia de datos y las empresas de medios sociales. Es aquí donde más transparente es la ideología dominante de la visión-desde-ninguna-parte de los Big Data, donde convergen los algoritmos, las bases de datos y el capital riesgo”. La propia idea de los macrodatos como una ventana libre de valores a las verdades universales fundamentales sobre los comportamientos humanos y las actividades sociales, tiene motivaciones políticas e ideológicas (es una visión desde alguna parte) y, además, está integrada técnicamente en el diseño de los instrumentos materiales que permiten reunir y analizar los datos. Es una idea que resta importancia a la realidad de que el

64

diseño de un sistema de big data para capturar y calcular datos se rige por las decisiones políticas, las posiciones sociales, las ideas culturales específicas, incluso los propios sesgos y prejuicios de sus programadores, al tiempo que presume que los datos “reunidos pasivamente por los ordenadores son objetivos. Pero los ordenadores solos no recuerdan nada... lo cual repite la existente tendenciosidad de los ordenadores y, a la vez, la oculta, hasta el punto de que las conclusiones de los ordenadores se tienen por objetivamente correctas” (JURGENSON, 2014). Si los sistemas de big data se diseñan con sesgos integrados, las consecuencias sociales de tales sistemas al dar a conocer como “hechos” y “pruebas” los mundos sociales y las conductas individuales, son graves. En el campo de la vigilancia, por ejemplo, técnicas como la “policía predictiva” y los sistemas de análisis de datos “pre-delito” dependen del uso de datos para hacer predicciones objetivas sobre la probabilidad de que las personas comentan un delito, lo cual: Incide en aquellos con quienes se relacionan los datos, y nos informa de quiénes somos, qué nos conviene desear o esperar, incluso quiénes debiéramos llegar a ser. Los algoritmos nos agarran incluso cuando nos siguen… El precio de nuestra libertad en el ámbito político y del consumo es que los algoritmos nos determinan o condicionan. (LYON, 2014, pág. 7) El tipo de anticipación “preventiva” y en “tiempo futuro” que prácticas como la policía predictiva permiten, se basa en “relaciones entre humanos y algoritmos” en las que hay “una intención deliberada de reducir la diversidad de opciones de alguien” mediante “medidas preventivas orientadas al futuro” (LYON, 2014, pág. 5). Voces importantes arguyen que los sistemas de policía predictiva son racialmente tendenciosas, y prestan una atención desmesurada a determinados grupos étnicos. Los perfiles predictivos se extienden también a otras áreas de la vida cotidiana. En el ámbito de la cultura popular, servicios online familiares como Amazon, Google, Netflix, Spotify y Facebook dependen de sistemas de bases capaces de obtener datos de las actividades diarias de las personas, para después distribuirlas y clasificarlas a partir de sus gustos, ideas y decisiones, para generar resultados y recomendaciones —y, en consecuencia, determinar preferencias culturales y “crear gusto” (BEER, 2013)—. Las nuevas formas de minería y analítica de datos “también pueden dar paso a nuevas formas opacas y no responsables de discriminación y clasificación social basadas, no en relatos de tamaño humano, sino en redes de interconexiones inimaginablemente grandes y en continuo crecimiento” (ANDREJEVIC y col., pág. 215, pág 1). Las formas en que se perfila a las personas, y se predicen sus gustos, dependen de algoritmos de aprendizaje automático entrenados para asignar a la gente a modelos más amplios de consumo de medios. Estas técnicas sirven para reforzar determinadas preferencias culturales preexistentes, de modo que toda vida pasa a vivirse en una especie de “cámara de eco” o “burbuja filtro” (P ARISER, 2015) donde perspectivas

65

culturales y políticas alternativas de la experiencia de los medios sociales de la persona quedan eliminadas en favor de material popular o reconocible por sí mismo. En efecto, el algoritmo decide la puesta en escena del encuentro de la persona con la cultura basándose en decisiones tomadas por sus diseñadores. P ARISER (2015) señala que la fuerza con que el algoritmo delimita los contenidos que uno vaya a consumir es casi tanta como la de las decisiones personales, y concluye que “cada algoritmo contiene un punto de vista sobre el mundo. Se puede decir que un algoritmo es una teoría de cómo debería funcionar una parte del mundo, expresada en código o términos matemáticos”. Así pues, los métodos de minería y analítica de datos son importantes porque convierten datos de las personas en perfiles y evaluaciones que se pueden comparar con categorías y clasificaciones de bases de dato, y asignar a unas y otras. De este modo, dichas técnicas permiten determinar servicios para las diferentes personas, dirigirles una propaganda específica, y ofrecerles toda una diversidad de recomendaciones y notificaciones push.

El imaginario de los big data En el capítulo anterior, explicaba que los “imaginarios sociotécnicos” son visiones del futuro de la sociedad que se reflejan en el diseño de proyectos técnicos. Como detalla JASANOFF (2015, pág. 4): Las instituciones del poder… con frecuencia tienen que elevar algunos futuros imaginados por encima de otros, reconociéndoles una posición dominante… Los imaginarios, además, codifican no solo visiones de lo que se puede conseguir con la ciencia y la tecnología, sino también de cómo se debe, o no se debe, vivir la vida”. Otros autores han desarrollado esta idea para explicar los imaginarios concretos que surgen en torno al diseño de las técnicas y los programas de análisis de datos. Para HOURLEY (2015), un objetivo latente del “imaginario de los Big Data” (lo que él llama la capitalización) es configurar “la organización y las relaciones sociales de acuerdo con principios matemáticos” derivados “del enfoque empírico de la ciencia de datos”. RIEDER y SIMON (2016, pág. 4) detallan cuatro características específicas del imaginario sociotécnico de los big data: (1) se amplía eel alcance de la automatización, desde la recogida de datos al almacenamiento, el cuidado y el análisis, y la cobertura de partes cada vez mayores del proceso analítico y de la toma de decisiones, (2) se captan cantidades ingentes de datos y el foco se pone en las correlaciones más que en las causas, de modo que las big data reducen la necesidad de teorías, modelos y experiencia humana, (3) se amplía el ámbito de lo que puede ser medido, con el fin de rastrear y evaluar movimientos, acciones y comportamientos de formas antes inimaginables, y (4) se aspira a calcular lo que aún está por llegar, utilizando técnicas predictivas inteligentes, rápidas y de escaso coste para reforzar la toma de decisiones y optimizar la asignación de

66

recursos en multitud de sectores. A través de este imaginario de “objetividad mecánica” de los big data, dicen los autores, los defensores de los macrodatos “aplican una mentalidad mecánica a la colonización del futuro” (RIEDER y SIMON, 2016, pág. 4). Como medio automatizado para seguir a las personas y las cosas a escala y con alcance descomunales para predecir el futuro, los big data son de grandísima utilidad en las imaginaciones de gobiernos y empresas, y han llevado los métodos de la ciencia de datos directamente al reino de los cálculos y las intervenciones políticos y comerciales. Así pues, el imaginario de los big data de una institución de poder como la ciencia de datos motiva incursiones en el mundo material, para conseguir que este acepte sus fines y aspiraciones subyacentes de objetividad mecánica, empirismo, predicción y optimización. Como veíamos en el capítulo anterior, los imaginarios también impregnan el diseño y la organización de proyectos específicos, que actúan como modelos del futuro al que sus defensores esperan que se ajuste la realidad. Con la actual proliferación de un imaginario de los big data en diferentes sectores de la sociedad, esta se puede entender como algo constituido por diferentes “espacios de datos” o “paisajes de datos” (LIPPERT, 2015). Por ejemplo, los hospitales dependen de un flujo constante de datos, sin los cuales podrían llegar a ser ingobernables. Los datos digitales son parte integral de muchos puestos de trabajo y hábitos laborales. Las ciudades se están reimaginando como importantes paisajes de datos, donde muchos procesos y funciones urbanos se controlan mediante flujos digitales de datos. En la vida cotidiana, nos movemos permanentemente entre diferentes espacios de datos, con los dispositivos ponibles que llevamos con nosotros y que nos cambian la experiencia de los espacios materiales en que vivimos. Pero estos espacios de datos no se deben entender como algo natural. Son obra de la mente y la acción de los diseñadores de los sistemas de datos que los aplican, de acuerdo con determinadas formas de pensar sobre el funcionamiento de los espacios a los que están destinados. Los centros educativos son quizás espacios de datos típicos, o “centros de datos” (FINN, 2016), unos espacios progresivamente diseñados para que funcionen según un imaginario compartido en el que la recogida, el cálculo y la comunicación de datos educativos digitalizados se consideran deseables y alcanzables. La idea de un imaginario de los big data y la de paisajes de datos fabricados, son útiles porque advierten de cómo determinadas ideas, imágenes, ambiciones y deseos se manifiestan en la realidad de los espacios particulares, y de cómo, en consecuencia, tales espacios pueden funcionar para determinar las acciones y los comportamientos de aquellos grupos y personas que entran y se mueven en ellos (ROSE, 1999ª; HUXLEY, 2007). Como fenómeno material, los big data se enmarcan en “el discurso, la terminología y la retórica que los rodean, hacen posible su incorporación al mundo social y los acompañan en ella”: Esto no quiere decir que las propiedades materiales específicas de los Big Data carezcan de importancia, sino que, si se quieren determinar de manera más precisa las

67

implicaciones sociales de estos big data, también hay que ocuparse detenidamente de cómo estos datos se enmarcan en determinados discursos. Se puede argüir que la dinámica de poder de los Big Data se ha de buscar, en mucho sentidos, tanto en cómo se etiqueten y describan esos datos como en los propios datos específicos. (BEER, 2016b, pág. 2) Los paisajes de datos fabricados por un imaginario de los big data se generan con el trabajo imaginativo de determinados actores sociales mediante el cual los macrodatos se integran en la actuación y la producción de las visiones que esos actores tienen del orden social. Como bien lo explica JASANOFF (2015, pág. 22): “el espacio y el orden social son coproducidos en parte a través de la difusión de ideas y prácticas —y, evidentemente, ideologías— en distintos momentos y territorios”. De modo que la idea de un imaginario de los big data y sus paisajes de datos asociados captan cómo las ideas relacionadas penetran y se difunden en espacios específicos y, una vez ubicados en ellos mediante determinadas prácticas y tecnologías, actúan para configurar los comportamientos y las acciones sociales e individuales para que se ajusten a la misma visión compartida. Actores con autoridad para configurar la imaginación pública construyen historias de progreso cuando hablan de los big data pero, naturalmente, estos actores no son solo autoridades del Estado: Los imaginarios, además, no son propiedad exclusiva de los actores del Estado. Los imaginarios sociales nacionales pueden impregnar la cultura popular, hallar su expresión en los medios de comunicación de masas y en géneros no oficiales… o los escritos populares de personas notables. Las corporaciones multinacionales actúan cada vez más sobre la interpretación imaginada de cómo es el mundo y cómo debería ser, interviniendo en las esperanzas y los miedos que se perciben de sus clientes y, con ello, divulgando ideas de progreso y beneficio tecnológicos. (JASANOFF, 2015, pág. 27) En particular, “las coaliciones entre los intereses corporativos y los medios, a través de la propaganda y el control directo, van aumentando sus probabilidades de desempeñar un papel fundamental en la producción y eliminación de imaginarios sociotécnicos globales” (JASANOFF, 2015, pág. 27). En cuanto a los big data, es evidente que la fabricación de imaginarios es obra de ese tipo de coaliciones, con las negociaciones entre las empresas de macrodatos y los científicos de datos sobre sus relaciones mutuas (por ejemplo, la asociación entre Twitter y el laboratorio de Máquinas Sociales del MIT) para formar sólidas alianzas que generen ideas y visiones que se puedan propagar también por la cultura popular y penetrar en el pensamiento del Estado, y de este modo fomentar nuevos proyectos e innovaciones tecnológicos. El imaginario de los big data proyecta una visión particular de cómo se debieran dirigir diversas actividades (en la educación, el entretenimiento, la atención sanitaria, la policía,

68

la empresa, el gobierno y demás ámbitos). VAN DICK y P OELL (2013) sostienen que a todos los actores, sean del tipo que sean, se les exige cada vez más que actúen dentro de lo que los autores definen como la “lógica de los medios sociales”, una lógica constituida por las normas, las estrategias, los mecanismos y las economías en que se asienta la incorporación de las actividades de los medios sociales a una diversidad aún mayor de campos. La lógica de los medios sociales se refiere a las estrategias, los mecanismos y las economías que sostienen la dinámica de las plataformas de los medios sociales, e incluye programabilidad, popularidad, conectividad y dataficación. En la sociedad actual, la mayoría de las instituciones —entre ellas la empresa, el Gobierno, la educación, las artes, el entretenimiento, el derecho— ha pasado a formar parte de esta lógica. La programabilidad se puede definir como “la capacidad de una plataforma de medios sociales de aplicar y dirigir las aportaciones creativas o comunicativas de los usuarios, al tiempo que estos, mediante su interacción con estos entornos codificados, pueden influir a su vez en el flujo de comunicación e información que tal plataforma activa” (2013, pág. 5). La popularidad incluye técnicas de filtrado y priorización de elementos populares, de modo que fomenta la notoriedad de determinadas personas, cosas, asuntos, temas o ideas y, por consiguiente, dirige la atención de las personas y de este modo influye en ellas. El término conectividad subraya cómo las plataformas de los medios sociales median en las experiencias de los usuarios y definen la forma que adoptan las conexiones, “una táctica estratégica que permite de modo eficaz la capacidad de conexión humana y persigue la conectividad automática” mediante “la puesta en contacto algorítmica de usuarios con contenidos, usuarios con usuarios, plataformas con usuarios, usuarios con anunciantes, y plataformas con plataformas” (2013, págs. 8-9). Por último, la dataficacion implica la cuantificación de los contenidos en datos con los que las empresas puedan desarrollar técnicas de analítica predictiva e inmediata. Mediante la dataficación, parece que el software de los medios sociales empodera a los usuarios al mismo tiempo que a las plataformas para dirigir y explotar las actividades de los usuarios. Por lo tanto, las plataformas de los medios sociales poseen una arquitectura integrada para la minería del tráfico online en busca de indicadores de temas de moda, palabras clave, pareceres, puntos de vista públicos, etc.: Gran parte del valor de los datos de los medios sociales está en su aspecto “vivo” e inmediato: las plataformas afirman que pueden rastrear movimientos instantáneos de la conducta del usuario individual, sumar estos datos, analizarlos y posteriormente traducir los resultados a información de valor sobre las personas, los grupos o la sociedad en general. (VAN DIJCK y P OELL, 2013, pág. 10) Al igual que la lógica de los medios sociales, la idea de un imaginario de los big data capta también las formas en que los diversos valores, normas, estrategias y demás que se asocian a los macrodatos se proyectan hoy a distintos espacios de actividad, pero

69

también reconoce que estos mecanismos ejemplifican una visión del futuro cada vez más compartida y considerada deseable y alcanzable.

Conclusión La educación es un sector fundamental de la sociedad en el que el imaginario de los big data está empezando a animar las prácticas. Siguiendo un prolongado auge histórico del uso de los datos en los sistemas educativos, la educación está hoy inmersa en procesos de dataficación mediados por software cada vez más intensos, y es tratada como un “proyecto computacional”, que es: El “modelado” de la educación mediante datos digitales… [y] el “pensamiento de sistemas” dirigido algorítmicamente —donde problemas sociales complejos (e irresolubles) relacionados con la educación se pueden ver como problemas estadísticos complejos (pero solucionables)—. Así pues, los datos digitales van acompañados de una sólida sensación de “solucionismo”. Tal realidad conduce a un estado recursivo en el que el análisis de los datos empieza a producir enclaves educativos, en la misma medida que los enclaves educativos producen datos. (SELWYN, 2015, pág. 72) La interdependencia de los datos digitales y los enclaves educativos significa que el interés por la recolección y el análisis de datos, materializados mediante los modelos y procesos estadísticos programados en las tecnologías de las bases de datos, pasa a ocupar un lugar precedente respecto a otros intereses más personales, históricos, éticos y humanistas. En este sentido, “lo que cuenta” como educación en lo que a los datos digitales se refiere es lo que se puede contar. En este capítulo he intentado esclarecer el concepto de big data, y en particular he hecho una exposición conceptual de cómo “un imaginario de los big data” del futuro de la educación se convierte hoy en alcanzable mediante determinados tipos de prácticas y proyectos de macrodatos. La educación es un sector importante de la sociedad en el que el imaginario de los big data se está compartiendo y estabilizando lo suficiente para poderlo considerar una realidad futura deseable y alcanzable, una realidad que se podría materializar mediante el despliegue de los nuevos programas informáticos para la recolección, el cálculo y la comunicación de datos educativos. El imaginario de los big data impulsa las “prácticas de los datos”1 que generan avances materiales y proyectos técnicos, y de ahí emergen paisajes de datos educativos: espacios diseñados para capturar datos, o que funcionan a través de procesos de analítica de datos para ser receptivos y adaptables a la retroalimentación. A lo largo de este libro trato las prácticas de los datos como ejemplificaciones sociales y técnicas de determinadas visiones del futuro, como prácticas que hacen operativos imaginarios en el presente, a menudo de formas que en la práctica son más confusas de

70

lo previsto o deseado. Con la idea de un imaginario de los big data unida al énfasis en las infraestructuras y las prácticas de los datos, lo que pretendo es registrar la formación y difusión de un futuro educativo “deseable” asociado a (y de hecho alcanzable mediante) prácticas de los datos y la infraestructura de tecnologías, los marcos conceptuales, los discursos, los conocimientos, las instituciones y las culturas en los que tienen lugar. El resultado de tal imaginario es la propuesta de producción de sistemas de software de aprendizaje más inteligente —o aprendizaje automático— que puedan transformar las prácticas, los procesos, las políticas y las instituciones educativos, aunque es probable que la materialización de tal imaginario de la educación en la práctica sea más controvertido y confuso de lo que sus defensores puedan imaginar. En conjunto, aplico el concepto de un imaginario de los big data, una atención a las infraestructuras y las prácticas de los datos, y la alerta ante la emergencia de nuevas aspiraciones en torno a la gestión de las prácticas, las instituciones y el personal del mundo educativo como marco para los análisis que se ofrecen en los capítulos siguientes. En resumen, la educación se está reimaginando como un sector que podría ser gobernado mediante prácticas específicas de datos ubicadas en infraestructuras sociotécnicas más amplias. Sin embargo, para poder recabar datos, calcularlos y comunicarlos, también es necesario que se procesen mediante software. En el capítulo siguiente se explica en detalle cómo el software, el código y los algoritmos que lo aplican, también intervienen en la aparición de prácticas de datos que pueden convertir el imaginario de los big data en la educación en una realidad material accesible.

1 Data practices en inglés, refiriéndose a la puesta en práctica del uso de los big data. (N. del E.)

71

72

73

El software, el código en que está programado y los algoritmos que lo aplican, han pasado a influir de forma descomunal en la vida cotidiana. Su alcance y su penetración son tales que algunos comentaristas los describen como condiciones emergentes de una “sociedad del software”, una sociedad en la que todos los medios actuales han sido transformados al ser re-mediados a través del software, en la que la comunicación y las relaciones sociales humanas se filtran a través de plataformas e interfaces de software, y en la que muchas de las instituciones sociales, culturales, políticas y económicas de la sociedad —escuelas e institutos, universidades, hospitales, aeropuertos, ciudades, bases militares, laboratorios científicos, empresas, comercios— dependen del software para su funcionamiento y su existencia (MANOVICH, 2013). Por otro lado, muchos críticos educativos lamentan la falta de transformación tecnológica de instituciones como las escuelas, los institutos y las universidades (SELWYN, 2016). Se ve en la tecnología una forma de cambiar, mejorar y hasta revolucionar instituciones que, se dice, llevan ancladas anacrónicamente en el mismo tipo de prácticas, procesos y pedagogías más de un siglo. Pero tales afirmaciones no advierten que escuelas, instituciones y universidades ya dependen del software para su funcionamiento diario. Muchas de las formas en que el software penetra en la educación son sumamente rutinarias. Los registros de los centros educativos se llevan cada vez más mediante programas informáticos (BODEN, 2016). Datos institucionales fundamentales se registran en hojas de cálculo y se almacenan en servidores informáticos (SELWYN, 2016). En las aulas hay ordenadores y pizarras electrónicas que requieren del correspondiente

74

software, paquetes multimedia e interactivos, incluso hay un sistema de distribución del alumnado en el aula de acuerdo con criterios almacenados en las bases de datos de los centros (SELWYN y col., 2017). Los materiales y orientaciones curriculares —elaborados a menudo por grandes “edu-empresas”— se pueden obtener online, a veces por un determinado precio y a veces de forma completamente gratuita como recursos educativos “abiertos” (EDWARDS, 2015). También el trabajo de los alumnos se somete de forma habitual a programas de detección de plagios, donde se pueden comparar con enormes bases de datos de texto (INTRONA, 2016). Las comunicaciones internas entre el profesorado y personal administrativo se realizan mediante correo electrónico o plataformas de Internet, y la comunicación externa y el marketing institucional cada vez discurren más por la Red que por canales basados en el papel impreso. Los programas de gestión del aula que se pueden utilizar para controlar el uso de programas e Internet por parte del alumno, y el acceso a su historial en la Red, son cada vez más comunes en las aulas (BIG BROTHER WATCH, 2016). Y más que todo esto, las escuelas, los institutos y las universidades forman parte de vastas y complejas redes informacionales, y están obligados a facilitar y compartir información que después se puede cotejar y mostrar (a menudo públicamente, en forma de visualizaciones de datos montadas mediante paquetes de software) como registro medible del rendimiento institucional (ANAGNOSTOPOULOS y col., 2013). Es posible que las tecnologías de software no hayan transformado los aspectos de la enseñanza y el aprendizaje de la educación tal como muchos entusiastas quisieran, pero es evidente su presencia activa (aunque muchas veces trivial) en muchas tareas didácticas, administrativas y de dirección. Hace poco, un profesor en prácticas de un instituto local me ilustró de forma clara la dependencia de cualquier institución educativa del software. Durante su período de prácticas se estaban realizando importantes obras de ampliación del centro. Una mañana, los obreros cortaron por error los cables que conectaban el centro con Internet. El profesor me habló de tres días caóticos en los que los profesores no podían acceder a los recursos de la clase, y los administradores no podían ponerse en contacto con diversas autoridades y agencias externas. Evidentemente, se encontraron soluciones alternativas, pero el caso ilustra cómo, muchas veces de forma banal, hemos pasado a depender del software como una especie de presencia invisible en nuestras vidas —y no en menor grado en las instituciones educativas— una realidad que no hace sino revelar la intensidad de su penetración cuando deja de funcionar (MACKENZIE, 2006). Con la emergencia de los big data en educación, el software asume una función aún más notable. Como FORD (2015) comenta sobre los macrodatos en un sentido más general, “la gestión de los datos es el problema que se supone que la programación ha de resolver”. Pero es evidente que hoy, con ordenadores en todas partes, seguimos generando más datos, lo cual requiere más programación, y así sucesivamente”. En otras palabras, los problemas derivados del actual aluvión de datos exigen nuevos tipos de

75

soluciones de programación, cuya consecuencia es que la dataficación de todo acelera la demanda de producción de nuevo software, en un ciclo recurrente. Así ocurre en especial en la educación, donde se crean constantemente nuevos productos que generan nuevos datos, unos datos que suelen requerir nuevo software para su recolección, almacenamiento y análisis. Pero, antes de entrar en detalles sobre el nuevo software educativo de recolección y análisis de macrodatos, es importante ofrecer una visión general de qué es el software y cómo influye en la sociedad. Para ello hay que hablar de código y algoritmos, incluidos los orígenes de ambos en la historia de la ciencia de la computación y el desarrollo del software.

Ciencia informática y software Para entender el software es importante reconocer sus orígenes disciplinares en el campo de la ciencia informática. Nacida de un mezcla de lógica matemática, la mecanización del cálculo, el almacenaje y el control, y el desarrollo de circuitos electrónicos en la ingeniería electrónica a mediados del siglo XX —además de cuestiones filosóficas sobre la interacción de las personas con una compleja maquinaria de control —, la ciencia de la computación no comenzó a cohesionarse como disciplina por derecho propio hasta principios de los pasados años cincuenta. No fue hasta finales de los sesenta cuando se dispuso del primer programa universitario de ciencia de la computación, el canónico The Art of Computer Programming; Fundamental Algorithms, de Donald Knuth (CERRUZZI, 2012). La publicación de este texto estableció la programación del código informático y el estudio de los algoritmos como principal objetivo de la disciplina. También señaló que, aunque la formación práctica en programación era un “subproducto importante” de la formación en ciencia informática, el desarrollo de destrezas de programación no era tan importante como el análisis matemático y el desarrollo de teorías (ENSMERGER, 2010). El énfasis en la teoría abstracta más que en la habilidad técnica representó una escisión histórica en la naciente disciplina de esa ciencia. Cuando la informática surgió por primera vez como práctica profesional, el “codificador” era considerado simplemente un “oficinista enaltecido”, y el trabajo de codificación estaba a cargo casi exclusivamente de las mujeres, cuya función era “codificar en lenguaje de máquina las matemáticas de alto nivel desarrolladas por científicos e ingenieros varones. Codificar implicaba un trabajo manual, y la traducción mecánica o transcripción por repetición; era evidente que quienes codificaban ocupaban un puesto muy bajo en la jerarquía intelectual y profesional” (ENSMERGER, 2010, pág. 35). El verdadero arte de la “programación”, como se conocía a finales de los años cuarenta, consistía en una serie de pasos marcados (entre ellos, la conceptualización matemática, la selección algorítmica y el análisis numérico), de los cuales solo el último era el de “codificar” que realizaban las mujeres. Desde entonces, la ciencia de la computación y la programación, o el desarrollo de software, han seguido

76

caminos paralelos pero distintos. El propósito principal de los científicos de la computación es comprender la naturaleza de esta, y se ocupan a menudo de problemas abstractos de análisis y teoría, en cambio, el de los desarrolladores de software es escribir programas útiles aplicando conceptos abstractos a estructuras concretas de programa (HAYES, 2015). Las culturas de la ciencia de la computación y del desarrollo de software son muy diferentes: los científicos informáticos y los desarrolladores de programas trabajan en lugares distintos, asisten a conferencias distintas, pertenecen a asociaciones profesionales distintas, y tienen formas muy distintas de trabajar, con diferentes visiones del mundo, sistemas de pensamiento y prácticas profesionales. Son “culturas de código” claramente diferentes (HAYES, 2015). Ya a finales de los años sesenta, los programadores se llamaban a sí mismos “ingenieros de software” para decir que su trabajo era equivalente al de las ramas establecidas de la ingeniería, como la civil, la mecánica, la aeroespacial, la química, la eléctrica y la medioambiental (BOGOST, 2015). Sin embargo, con el invento y la fabricación del chip de silicio y el microprocesador, y el rápido crecimiento de Silicon Valley en California en las últimas décadas del siglo XX, fue cuando el desarrollo de software se libró por completo de los cercos disciplinares de la ciencia de la computación (CASTELLS, 1996; CERRUZZI, 2012). Más que la computación, la historia del software informático es la que forma la base de la revolución informática de la segunda mitad del siglo XX: Lo que hace del ordenador electrónico moderno algo único en toda la historia de la tecnología —algo tan potente, flexible y aplicable a tan extraordinaria diversidad de fines— es su capacidad de ser reconfigurado, mediante el software, en un número supuestamente infinito de dispositivos. De hecho, esta capacidad de ser programado mediante software es la que encierra la esencia de la informática moderna… Lo importante es que es programable… El software transforma el poder latente de una máquina teóricamente apta para cualquier objetivo en una herramienta específica para resolver problemas reales. (ENSMERGER, 2010, pág. 5) Es evidente que los ordenadores tienen un componente de hardware, pero el software es el que define qué es el ordenador y para qué se puede usar. Como señala el historiador de la informática ENSMERGER (2010, págs. 6-7): “El software es el interfaz entre el ordenador y la sociedad”, un interfaz que afecta profundamente a la idea que tenemos de nosotros mismos y de nuestro entorno, y que actúa de posibilitadora de diversas aspiraciones culturales, económicas y políticas. Estas notas históricas evidencian que la producción de códigos es inseparable del contexto social: que las materialidades digitales del software y el hardware con las que vivimos no se pueden reducir a simples líneas de código y secuencias de algoritmos.

77

La producción de código Desde un punto de vista técnico, el software es simplemente una serie de instrucciones, escritas en código informático, que instruyen al ordenador. Cuando hablamos de software, hablamos de algo que está completamente constituido por códigos y estructurado y hecho operativo mediante algoritmos: series de pasos o procesos que especifican cómo transformar un conjunto dado de inputs en un output. El código es el manual de instrucciones que hace que funcione el software, y está construido por programadores que utilizan lenguajes de programación específicos, mientras que la programación es el arte y la ciencia de unir algoritmos e instrucciones que una máquina puede leer y traducir de forma automática para procesar datos y hacer algo. Como tal, el software “no se puede entender al margen de su repetida constitución a través de códigos. El código, incluso en su sentido técnico minimalista… interviene en todos los aspectos de lo que es el software y lo que hace el software” (MACKENZIE, 2006, págs. 23). Al mismo tiempo, sin embargo, es difícil precisar qué es y qué hace el código sin reconocer que está estrechamente entretejido con sistemas sociales y técnicos más amplios que incluyen máquinas, personas y procesos: El software es un claro ejemplo de lo que historiadores y sociólogos llaman un sistema sociotécnico… en el que máquinas, personas y procesos son y están inextricablemente interdependientes y entrelazados… El software es donde la tecnología informática se encuentra con las relaciones sociales, la política organizativa y las agendas personales. Todas las tecnologías son en cierta medida construcciones sociales, pero en el caso del software las dimensiones sociales de la tecnología son particularmente evidentes. (ENSMERGER, 2010, pág. 8) Entendido como creación social, es evidente que el software es el producto del código que han de escribir los programadores. Sin embargo, la propia diversidad de productos de software significa que existen muchísimas prácticas de programación distintas. Según FORD (2015), en el mundo hay aproximadamente 18 millones de programadores de software profesionales, que elaboran programas para todo, desde la Red y los teléfonos inteligentes, a sistemas de seguridad y paquetes de software científico, y todos usan lenguajes de programación como Java, JavaScript, C, C++, Objective-C, y C#, PHP y Python. Cada uno de estos lenguajes tiene su propia larga historia de desarrollo, con enormes bibliotecas y depósitos de códigos preexistentes a los que a menudo otros pueden acceder de forma gratuita para copiarlos, pegarlos y usarlos. Comisiones técnicas especialistas de la Organización Internacional para la Estandarización (IOS) definen los criterios que regulan cada uno de estos lenguajes de programación, para garantizar que se usen de forma uniforme en todo el mundo.

78

Por consiguiente, gran parte de lo que se da por supuesto sobre el software depende de “la adquisición y el ejercicio comunes de destrezas técnicas de programación y configuración de código” (MACKENZIE, 2006, pág. 3). Los programadores residen en un “paisaje de código” actual en el que aprenden y desarrollan prácticas de codificación y lenguajes de programación mediante una auténtica abundancia de actividades educativas y didácticas relacionadas con el código y eventos sobre código como las ferias comerciales, las conferencias, los concursos, publicaciones como libros, manuales y revistas de formación, y sitios web, tutoriales en vídeo, blogs, foros de debate y grupos de noticias (MACKENZIE, 2006). En este sentido, el código se ha de entender como el producto conjunto de un I+D técnico, la producción de bienes, el desarrollo empresarial, las asociaciones profesionales, las actividades pedagógicas y las prácticas de programación, además de todas las contingencias políticas, económicas, materiales y culturales que contribuyen a su producción. Como muestran KITCHIN y DODGE (2011, pág. 24), el código, como producto, es inseparable de otros diversos materiales y discursos: Objetos y espacios materiales: hardware del ordenador, pantallas, drivers y discos, interfaces de red, infraestructuras de telecomunicaciones en red, periféricos de hardware, mesas, despachos. Ensamblajes discursivos y materiales de conocimientos: diagramas de flujo, manuales, revistas, listas de correos, blogs. Estándares y clasificaciones: normas sobre datos, formatos de archivo, interfaces, protocolos de comunicación, regímenes de propiedad intelectual como copyrights, marcas comerciales y patentes. Prácticas y experiencias: formas de hacer, culturas de codificación, ética del solucionador, normas para el intercambio o el robo de códigos. Subjetividades e identidades: codificadores, programadores, solucionadores, vendedores, comerciantes, gestores empresariales, gestores de productos, emprendedores. Organizaciones: empresas, consultores, startups, agencias estatales, fabricantes, minoristas, universidades, conferencias, clubes, asociaciones y sociedades profesionales. Mercados: agencias de contratación de codificadores, inversiones comerciales, capitalismo de riesgo. Así pues, muchos investigadores científicos sociales del software y el código abordan estos desde una perspectiva “sociotécnica”, como algo tupidamente entretejido con sus procesos sociales de producción e inseparable de ellos (FULLER, 2008). En este sentido, para comprender qué es el código y qué hace, dice MACKENZIE (2006), es fundamental entenderlo no como un simple artefacto técnico —líneas de código— sino (1) como el producto de un originador (sea un programador, un ingeniero de software, una empresa, un solucionador, etc.), (2) como cosas o personas que actúan

79

como sus receptores y a las que el código pide que hagan algo (sea como usuario, otro programador, un programa de software que ejecute órdenes), y (3) como algo más que se representa o se constituye en prototipo (por ejemplo, un interfaz de usuario de mesa que represente una serie de actividades de la oficina, un programa de manipulación de imágenes gráficas que represente un estudio fotográfico, un programa de visualización que represente las prácticas de un laboratorio científico, etc.) Este reconocimiento es importante porque registra cómo el código emerge de determinadas decisiones humanas tomadas durante su producción. Estas decisiones, una vez materializadas y puestas en el software, pueden tener efectos materiales en el mundo. La escritura del código es obra de “manos expertas”, entre ellas, desarrolladores de software y programadores que, mediante lenguajes de programación, producen nuevos tipos de “escrituras codificadas” que, a través de su conversión en mercancía y su distribución global “vía la pantalla” como sitios web, paquetes de software y demás, median en los espacios en que aparecen (T HRIFT, 2005, págs. 153-154). “Si los codificadores no dirigen el mundo, dirigen las cosas que dirigen el mundo”, sostiene FORD (2015).

El código productivo El código, además de ser un producto de la práctica de la programación, también se debe entender como productor de consecuencias sociales. En otras palabras, tiene efectos productivos en el mundo. El código puede “hacer que las cosas ocurran” en virtud de su “capacidad ejecutiva” o su capacidad de realizar tareas siguiendo instrucciones codificadas (MACKENZIE y VURDUBAKIS, 2011, pág. 7). El código no es inerte, sino “un actor con progresiva mayor capacidad de actuar en el mundo” (KITCHIN y DODGE, 2011, pág. 248). Es fundamentalmente performativo, y produce perpetuamente outputs dinámicos pasando un input de un estado a otro a través de secuencias de órdenes y operaciones de procesado de modo autónomo. En consecuencia, el código está siempre ubicado en contextos sociales, culturales, económicos y políticos producidos de diversas formas, y se ha convertido en “una fuente fundamental de poder social” que progresivamente “aumenta la sociedad y la automatiza” (KITCHIN y DODGE, 2011, pág. 246). Como sostiene MACKENZIE (2006, pág, 48): “el código texturiza los mundos”, afecta cada vez más a nuestras ideas de agencia (quién hace qué), materialidad (lo que podemos tocar, ver y oír) y socialidad (cómo creamos apegos y pertenencia colectiva). Desde estas perspectivas, el código se entrelaza con el sustrato de la sociedad actual, como una capa compuesta de nuestras percepciones, sensaciones y transacciones personales, y cristaliza nuevos públicos, formaciones y grupos sociales. Sin embargo, las tecnologías codificadas nunca son simples dispositivos técnicos inocentes. El código se elabora en enclaves técnicos específicos, es obra de especialistas técnicos que trabajan en complejos contextos sociales, políticos y económicos, por lo que representa formas específicas de entender el mundo que derivan de las visiones que sus

80

originadores tienen de este, y que se proyectan a sus receptores. Así pues, el software es producido por programadores (originadores) con determinadas sensibilidades, supuestos epistemológicos e ideas sobre el mundo, en colaboración con instituciones y corporaciones que tienen sus propias ideas sobre el mundo, sus ambiciones y sus recursos. Estos sistemas de pensamiento y su manifestación en secuencias de código y procesos algorítmicos afectan a sus receptores, a cómo las personas trabajan en el mundo, cómo se resuelven los problemas, cómo las personas se relacionan entre sí, y a una diversidad de contextos en los que el código reconfigura las prácticas, por ejemplo, en el consumo, el gobierno, el entretenimiento, la sanidad y la educación. Como tal, el código informático es: La manifestación de un sistema de pensamiento: una expresión de cómo se puede capturar, representar, procesar y modelar automáticamente el mundo, con el resultado actuando después en ese mundo. La programación, pues, fundamentalmente pretende capturar y representar el conocimiento sobre el mundo… con el fin de aumentar, mediar y regular la vida de las personas. (KITCHIN y DODGE, 2011, pág. 26) Estos enfoques sociotécnicos de la codificación entienden esta a la vez como producto de las relaciones sociales y las decisiones tomadas por los programadores, y como un proceso que produce determinadas formas de acción (FULLER, 2000). En este sentido, la sociedad actual se está convirtiendo completamente en “descendiente híbrido del código informático y los códigos sociales de conducta” (MACKENZIE y VURDUBAKIS, 2011, pág. 16). Y esto significa que el código marca una diferencia en la vida cotidiana, la agencia y la socialidad; media, aumenta y en última instancia produce vida colectiva política, cultural y económica (KITCHIN y DODGE, 2011). Sin embargo, el código que producen los programadores no siempre es tan productivo como se espera. Como dice CEGLOWSKI (2016), programador profesional: Nuestras intenciones son sencillas y claras. En primer lugar vamos a instrumentalizar, después analizaremos y luego optimizaremos... Pero la realidad es obstinada. Es tan compleja que se resiste a la abstracción y el modelado. Nota nuestros intentos de incidir en ella y reacciona en consecuencia. Tampoco podemos confiar en analizarla objetivamente desde fuera, del mismo modo que no podemos salir de nuestra propia piel… Abordar el mundo como un problema de software es un error categórico que nos ha generado algunos hábitos mentales desastrosos. El autor señala en particular que los programadores han creado potentes herramientas de control social mediante la construcción del “mayor aparato de vigilancia que jamás ha visto el mundo”, en forma de “ingentes cantidades de datos personales sobre poblaciones enteras almacenados de forma permanente”, un ejemplo de cómo un “grupo entusiasta de expertos informáticos ha decidido tratar al resto del mundo como experimento

81

científico” (CEGLOWSKI, 2016). Otros han señalado que los programadores no suelen ser conscientes de los efectos sociales del código que escriben y el software que elaboran (T HRIFT, 2005). Como ingenieros y solucionadores informáticos de problemas altamente cualificados, muchas veces ignoran en gran medida los contextos sociales más amplios en los que van a funcionar sus productos: El ingeniero es un profesional que diseña, construye y mantiene sistemas. Pero diseñar significa idear un resultado con habilidad, maestría e incluso mediante el error. Diseñar es ensamblar apresuradamente, hacer que algo más o menos funcione, durante cierto tiempo. Lo suficiente para cumplir un fin inmediatamente obvio, pero sin interés por su longevidad ni, tal vez, consciente de ella. (BOGOST , 2015) Seleccionados como ingenieros de software, los programadores son responsables no solo de idear sistemas técnicos, sino de elaborar inconscientemente resultados sociales. Además, gran parte de la influencia del código en la sociedad ha sido posible por la proliferación permanente de discursos e imaginarios colectivos en torno al software. Diferentes discursos sistemáticos promueven y respaldan el uso del código, los algoritmos y el software en muchos ámbitos de la actual vida social, política, económica y cultural (BEER, 2017). Son discursos sólidos y convincentes: el software seduce y disciplina a las personas para que voluntariamente “se sometan a la acción del software” (KITCHIN y DODGE, 2011, pág. 249). Estos discursos legitiman, justifican y pretenden convencer a la gente para que crea y actúe siguiendo la lógica del software y el código, e imagine el mundo de acuerdo con las representaciones que el código posibilita.

El poder social de los algoritmos Como ya hemos destacado, una dimensión importante del poder del software y el código es la del algoritmo. En los últimos años, los algoritmos se han convertido en el foco de atención de muchos medios —en particular a medida que empresas como Facebook y Google han sido sometidas a escrutinio—, sin embargo, definir los algoritmos es decepcionantemente complejo. KITCHIN (2017) demuestra la necesidad de entender los algoritmos como: (1) “cajas negras” ocultas dentro de la propiedad intelectual y el código impenetrable, (2) “sistemas heterogéneos” donde cientos de algoritmos se entretejen en relación con conjuntos de datos, empresas, programadores, estándares y leyes, (3) sistemas “emergentes”, en evolución y en permanente estado de perfeccionamiento, revisión y afinado, y (4) sistemas complejos, imprevisibles y frágiles que a veces están mal codificados, llenos de fallos y “fuera de control”. En consecuencia, quizás no tenga mucho sentido hablar de un algoritmo en particular, sino “sistemas algorítmicos” complejos. Además, aunque el “algoritmo” pueda ser una “palabra clave digital” de nuestro tiempo, comunidades técnicas como la de los científicos y los

82

programadores informáticos pueden usarlo de forma muy distinta a la de los científicos sociales, los periodistas y el público en general (GILLESPIE, 2014b). Desde la perspectiva de la ciencia de la computación, un algoritmo es sencillamente un conjunto preciso y mecánico de instrucciones sucesivas diseñado para completar un determinado proceso informático de manera que no requiera de la “intuición ni de las conjeturas humanas” (MACCORMICK, 2012, pág. 3). Todos los algoritmos informáticos carecen más o menos de sentido si no disponen de fuentes de datos. Los algoritmos requieren alguna forma de input, como una lista de datos no clasificados, para transformarlo en output. Un algoritmo de búsqueda, por ejemplo, funciona mediante una vasta base de datos de información que previamente hay que indexar, analizar y almacenar para facilitar la posterior recuperación rápida y precisa de la información. Esto implica que empresas como Google gateen por la Red recogiendo e indexando información, registrando preguntas de búsqueda y enlaces cliqueados, para generar los datos necesarios para que los algoritmos de búsqueda funcionen de forma autónoma. Sin embargo, los algoritmos son algo más que simples abstracciones y rutinas de la ciencia informática para clasificar y estructurar los datos. También producen profundos efectos al entrar en contacto con el mundo. Los científicos informáticos y los sociales no siempre piensan en lo mismo cuando hablan de algoritmos, pero la ciencia social ha empezado a reconocer los profundos efectos sociales y el poder de estos. El desarrollo de nuevas formas de análisis que los algoritmos permiten, como la “física social”, y las afirmaciones ciberbólicas de que todo “el universo es programable” (AXLINE, 2014), reflejan la asentada idea actual de que los algoritmos “hacen cosas” de muy diversas formas. Estos intereses se han desarrollado en medio de todo el aparato publicitario de la “revolución de los datos” (KITCHIN, 2014a) y las “preocupaciones de los Big Data” (CRAWFORD, 2014), donde los algoritmos desempeñan un enorme papel en la gestión, el análisis y la visualización de conjuntos masivos de datos. Recientemente, los algoritmos se han convertido en tema de sumo interés entre los investigadores académicos y los comentaristas de los medios. La revelación en 2014 de que Facebook había realizado experimentos sobre los sentimientos de los usuarios filtrando sus suministros de noticias mediante sus algoritmos EdgeRank, generó una considerable preocupación por su capacidad de “diseñar al público” (T UFEKCI, 2014). Dos años después, Facebook y otras plataformas de medios sociales como Twitter eran acusadas de participar en la configuración de la opinión pública durante acontecimientos políticos sumamente relevantes, como el referéndum celebrado en el Reino Unido sobre su permanencia en la Unión Europea, y las elecciones presidenciales de EE. UU. (HOWARD, 2016). La consecuencia ha sido un importante debate sobre las implicaciones éticas de los algoritmos, porque los valores e intereses que privilegian afectan a personas, grupos y sociedades enteras (MITTELSTADT y col., 2016). Los investigadores de las ciencias sociales admiten sin reservas el papel que los

83

algoritmos desempeñan en el mundo social, y existe cierto acuerdo general en que hoy los algoritmos intervienen cada vez más en diversas formas de orden, gobernanza y control sociales (BEER, 2017; WILLSON, 2017). Los algoritmos emergen como importante objeto de análisis en estudios sobre la vigilancia, la formación de identidad, la cultura popular, la gobernanza digital y los métodos de investigación algorítmica, y también de forma más amplia en los debates sobre el evidente poder y control que ejercen (por ejemplo, BEER, 2013; P ASQUALE, 2015; AMOORE y P OITUKH, 2016). Según MACKENZIE (2006), los algoritmos establecen determinadas formas de “orden”, “patrón” y “coordinación” a través de procesos de clasificación, correspondencia, intercambio, estructuración y agrupamiento de los datos. En este sentido, los algoritmos aparecen como nuevas formas de “normas sociales” que después pueden configurar la vida cotidiana. Incluso pueden cuestionar nuestro sentido personal de identidad, y crear nuevas “identidades algorítmicas” (CHENEN-LIPPOLD, 2011), ya que “nuestras interacciones con los algoritmos nos identifican y a la vez promueven determinadas formas de identificarnos con los demás” (MARKHAN, 2013, pág. 2). Como dice BEER (2013, pág. 81): “Los algoritmos son una parte integral e indeleble de los procesos sociales cotidianos”, con el potencial de “reforzar, mantener y hasta reconfigurar visiones del mundo social, el conocimiento y los encuentros con la información”. Como ocurre más en general con el código, muchos estudios científicos sociales de los algoritmos reconocen que las intenciones humanas estructuran los algoritmos que se programan en los ordenadores (NEYLAND, 2015). Los algoritmos de software no son simples técnicas y procesos matemáticos neutrales. Al contrario, reflejan los objetivos particulares de quienes los programan. Por ejemplo, GILLESPIE (2016) dice que “de hecho, los algoritmos están llenos de gente” —programadores, diseñadores, gestores de proyecto, gestores de negocio— cuyas diversas decisiones determinan lo que se supone que debe hacer el algoritmo, qué datos ha de recabar y analizar, y cómo ha de conseguir su objetivo. Estas explicaciones generan una imagen de los algoritmos como tecnologías fuertemente automatizadas, autónomas y repetitivas —producidas socialmente pero con capacidad progresivamente mayor de producir nuevas formaciones, encuentros y conocimiento sociales—. KITCHIN y DODGE (2011, pág. 248) señalan que “los algoritmos son productos del mundo” que también pueden “producir conocimientos que se apliquen posteriormente, alterando así el mundo de modo reiterativo”. Como tales, dicen que los algoritmos ofrecen “gramáticas de la acción” para nuevas formas de orden y gobernanza sociales, y están dotados del poder de “reconfigurar activamente la conducta”. Para reconfigurar así la conducta, los algoritmos necesitan datos y modelos con los que trabajar. NEYLAND (2015, pág. 128) sostiene que para que un sistema algorítmico funcione, el mundo exterior al sistema debe estar modelado matemáticamente de forma que se pueda integrar en “el mundo social del sistema algorítmico”. En otras palabras, la selección de un algoritmo solo se produce después de formular un modelo en términos informáticos, un proceso de construcción de “un mundo exterior en un mundo interior”,

84

transformando lo que se puede leer, analizar y pensar. Los algoritmos son “teorías abstractas sobre el mundo” que también “tienen la capacidad de intervenir activamente en la configuración y constitución de la vida social” (BEER, 2013, pág. 80). Los algoritmos no son simples dispositivos matemáticos neutrales, sino que están diseñados para funcionar de acuerdo con potentes formas concretas de percibir el mundo, supuestos políticos y los códigos de comportamiento que sus diseñadores y promotores hayan adoptado. Además, muchas de las innovaciones del actual diseño algorítmico significan que los algoritmos se construyen de modo que puedan adaptarse en su interacción con el mundo. Procesos algorítmicos como el aprendizaje automático, como veíamos antes, consisten en sistemas que pueden operar tanto de forma “supervisada” como “no supervisada”. El aprendizaje automático supervisado implica construir modelos a los que se pueda enseñar a emparejar inputs con determinados outputs conocidos, utilizando como ejemplo “datos de entrenamiento” para orientar el proceso de aprendizaje. Los sistemas no supervisados, en cambio, implican modelos diseñados para enseñarse a sí mismos a identificar patrones o estructuras en los datos sin necesidad de datos de entrenamiento (KITCHIN, 2014a). Como señala MACKENZIE (2015, pág. 430), las técnicas de recomendación, reconocimiento, clasificación, búsqueda de patrones y predicción del aprendizaje automático están cada vez más “trenzadas en el tejido de la vida cotidiana”. En este sentido, los algoritmos del aprendizaje automático no solo son inventos sociales capaces de reforzar formas existentes de orden y organización sociales, sino que tienen un importante papel productivo que desempeñar en la predicción e incluso la prevención o la organización automática de acciones, realidades y sucesos futuros. La importancia de tal realidad no radica solo en que la teoría y la práctica del aprendizaje automático siguen planteando serias preguntas sobre la capacidad de un determinado modelo predictivo para, a partir de los datos disponibles, generalizar a otros sucesos: las predicciones de modelado a partir de “datos conocidos” también pueden significar que el modelo se adapta a los datos de entrenamiento e impide la generalización efectiva a otras fuentes de datos o la incorporación de nueva información (MACKENZIE, 2015).

La gobernanza algorítmica Los algoritmos, como el propio código en que están escritos, se pueden entender como técnicas fundamentales para la regulación y el gobierno de la vida de las personas y de la sociedad en general. La estructura algorítmica y el código que constituyen el software esconden determinadas ambiciones y normas políticas, que confieren a este el poder de gobernar y regular la conducta: La idea de algoritmo… se utiliza para promover cierta racionalidad, una racionalidad basada en las fuerzas del cálculo, la competencia, la eficiencia, la objetividad y la necesidad de ser estratégico. Como tal, la idea del algoritmo puede tener enorme

85

fuerza para determinar decisiones, influir en comportamientos y respaldar ciertos sistemas ideales. Por lo tanto, es posible que el poder del algoritmo no esté solo en el código, sino en la forma que tiene de convertirse en parte de una interpretación discursiva de la deseabilidad y la eficiencia donde la mención de los algoritmos es parte de “un código de normalización”. (BEER, 2017, pág. 9) Así pues, se ha conferido a la figura del algoritmo cierta forma de autoridad como concepto, una autoridad que posibilita su inserción como dispositivo técnico en todo tipo de procesos sociales, comerciales y políticos. Por ejemplo, MOROZOV (2013b) dice que hoy vivimos una nueva era política de “regulación algorítmica” en la que “los algoritmos del sistema realizan ellos solos el cálculo moral” y las personas “asumimos el papel de máquinas de información que con nuestros datos alimentamos al complejo tecno-burocrático”: Los intereses comerciales de las compañías tecnológicas y los intereses políticos de las agencias del Estado convergen: a ambas les interesa la recolección y el análisis rápido de los datos del usuario. Google y Facebook se ven obligados a reunir cada vez más datos para incrementar la efectividad de los anuncios que venden. Las agencias del Estado necesitan los mismos datos —que pueden recabar ellas solas o en colaboración con compañías tecnológicas— para imponer sus propios programas. Estos “algoritmos gobernantes” (BAROCAS y col., 2013) están cada vez más entretejidos con la política actual, como demuestran el sistema de vigilancia de la Agencia de Seguridad Nacional y el de la Oficina de Vigilancia del Gobierno de Estados Unidos. Pero las formas algorítmicas de regulación y gobernanza se tejen también a través de múltiples encuentros cotidianos corrientes. MAGER (2012), por ejemplo, dice que los motores de búsqueda como Google, Bing, Yahoo! y otros tienen una “vida interior ideológica”, y que, por consiguiente, es importante entender las relaciones de poder y las prácticas sociales que intervienen en la construcción de algoritmos de búsqueda. Procurando no dar a entender que los algoritmos actúan con independencia de los contextos sociales y políticos, los motores de búsqueda, dice la autora, son tecnologías construidas socialmente que reflejan y solidifican normas y valores socioculturales que se aplican y negocian a través de amplias redes de actores, entre ellos, los proveedores de sitios web, los usuarios, los comerciantes, los periodistas y los legisladores del Estado. Los motores de búsqueda reflejan las sociedades de las que emergen y las ideologías en ellas integradas. El funcionamiento técnico de motores de búsqueda corporativos dominantes como Google incorpora un tipo particular de “ideología algorítmica” y de diversos valores capitalistas (MAGER, 2012). La política de los motores de búsqueda y su capacidad de dirigir cómo las personas encuentran información y adquieren conocimientos es claramente significativa. Los

86

sistemas algorítmicos se utilizan de formas que pueden configurar la vida cotidiana. LESSIG (2000), el influyente teórico del derecho, afirma que el código actúa como un nuevo tipo de “ley”, una forma de regulación que delimita cómo operan los entornos y las plataformas digitales y, por tanto, cómo vivimos el mundo digital: Este código, o arquitectura, fija los términos en los que la vida se experimenta en el ciberespacio. Determina lo fácil que es proteger la privacidad, o censurar la expresión. Determina si el acceso a la información es general o si la información está zonificada. Afecta a quién ve qué, o qué se controla… Y cuando este código cambie, también cambiará el carácter del ciberespacio. El ciberespacio pasará de ser un sitio que protege el anonimato, la libertad de expresión y el control individual, a un lugar que hace más difícil el anonimato, menos libre la expresión, y que cede el control individual a manos exclusivas de expertos individuales. Según esta idea, cuando los programadores codifican están diseñando determinados valores en el software que producen, de formas que regulan la vida de quienes reciben, experimentan o utilizan el código. La consecuencia es que los codificadores tienen capacidad de seleccionarnos nuestros valores, y la posibilidad de dar prioridad a los intereses de las empresas tecnológicas privadas en detrimento de las preocupaciones y los intereses públicos. Ante la presencia masiva de los dispositivos y medios móviles en la vida diaria y el difuminado de las fronteras entre los mundos online y offline, la idea de que en el ciberespacio el código es la ley parece anticuada. KITCHIN y DODGE (2011) ofrecen influyentes detalles de cómo se ha hecho “posible una nueva forma de gobernanza en entornos sociales actuales altamente codificados”. En su acreditada exposición del “espacio/código”, los autores hablan de cómo “el software crea nuevas espacialidades de la vida cotidiana y nuevos modos de gobernanza”: El espacio/código se produce cuando el software y la espacialidad de la vida diaria pasan a constituirse mutuamente, es decir, a producirse uno a la otra. Aquí, la espacialidad es el producto del código, y el código existe primordialmente para producir una determinada espacialidad… Cualquier espacio que para funcionar como se espera que lo haga dependa de tecnologías dirigidas por software constituye un espacio/código. (KITCHIN y DODGE, 2011, págs. 16-17) Básicamente, los espacios/código son entornos programables, en el sentido de que el modo de programar el código altera fundamentalmente cómo funciona y se experimenta el espacio que el software propicia. Para KITCHIN y DODGE, hoy el software y sus efectos espaciales están cambiando los medios con los que las personas y las sociedades se gobiernan. Los autores parten de las ideas sobre la gobernanza de FOUCAULT para demostrar que la gestión de las sociedades modernas ha dependido de la producción de

87

sistemas para recabar, cotejar y analizar información sobre los habitantes, las instituciones sociales y las empresas. Este particular estilo “biopolítico” de gobernanza depende de entender a las personas como partes de sistemas más amplios, y cuyas acciones y conductas, por tanto, se pueden monitorizar como las de ciudadanos con derechos y obligaciones con el Estado, o como problemas que hay que resolver y cuyos comportamientos pueden ser objeto de gestión, intervención y cambio (FOUCAULT, 2008; LEMKE, 2011). Los sistemas codificados de software construidos en torno a complejos algoritmos son hoy responsables de los tipos de proceses de recolección de datos que tanta importancia han tenido para las actuales formas de gobernanza y de control de la población. La consecuencia de estos tipos de procesos algorítmicos es la construcción de nuevas maneras de interpretar y representar al público: Los métodos de análisis de los datos de los medios sociales prometen formas nuevas y potentes de conocer a los públicos y capturar lo que dicen y hacen. Sin embargo, el acceso a estos métodos es irregular, y las grandes empresas y los gobiernos suelen tener el mejor acceso a los datos y a las herramientas para su análisis… y un medio nuevo de controlar cómo se representan e interpretan los públicos. (KENNEDY y MOSS, 2015, págs. 1-2) Los algoritmos que activan la minería de datos y los sistemas de analítica, desde los motores de búsqueda a los sitios sociales en red, organizan la información siguiendo criterios evaluativos humanos pero cada vez más automáticos, y a partir de ahí se sumergen en las prácticas de información de los usuarios y los patrones de participación política y cultural, de modo que “la introducción de los algoritmos en las prácticas del conocimiento humano puede tener ramificaciones políticas” (GILLESPIE, 2014a, pág. 168). Además, a medida que los algoritmos se diseñan progresivamente para prever a los usuarios y hacer predicciones sobre sus comportamientos futuros, hoy los usuarios están reconfigurando sus prácticas para ajustarse a los algoritmos de los que dependen. Esto construye “públicos calculados”, la presentación algorítmica de públicos que vuelven hacia ellos mismos y que determina el sentimiento que el público tiene de sí: Los algoritmos… participan en una aproximación calculada de un público a través de su actividad rastreable, para después retroalimentarse… Estas tecnologías, hoy tecnologías no solo de evaluación sino de representación, ayudan a constituir y codificar a los públicos que dicen medir, públicos que de otro modo no existirían si el algoritmo no los llamara a la existencia. (GILLESPIE, 2014a, pág. 189) El resultado de la minería algorítmica de datos no es simplemente la producción de perfiles individuales y sociales, sino nuevas formas de ver y entender a los grupos

88

sociales, unas formas que después se traducen en el modo en que estos grupos y personas pueden relacionarse realmente consigo mismos. Como tales, las formas en que se producen la minería y la analítica de datos y se programan para su funcionamiento — de acuerdo con las teorías y los supuestos de sus creadores sobre cómo funciona el mundo— tienen importantes consecuencias para cómo se controle y perfile a las personas, los grupos y las poblaciones, y se actúe sobre ellos. Por lo tanto, “debemos considerarlos construcciones tecnoeconómicas cuyas operaciones tienen importantes implicaciones para la gestión de las poblaciones y la formación de los sujetos” (ANDREJEVIC, HEARN y KENNEDY, 2015, pág. 2). Así pues, el auge de los sistemas de software “es ideal para la monitorización, la gestión y el procesado [de datos] sobre personas, objetos y sus interacciones”, y lleva a un nuevo modo de gobernanza que KITCHIN y DODGE (2011, pág. 85) denominan “gestión automatizada”: La gestión automatizada es la regulación de las personas y los objetos mediante procesos que son automatizados (aplicados tecnológicamente), automáticos (la tecnología realiza la regulación sin indicaciones ni direcciones) y autónomos (la regulación, la disciplina y los resultados se producen sin supervisión humana). El software controla… sistemas que determinan activamente el comportamiento alterando la realización de una tarea. El software, a través de procesos automatizados, automáticos y autónomos, actúa tanto para transformar regímenes y prácticas de vigilancia como para propiciar un régimen más fuerte de disciplina y cambio de conducta. La gestión automatizada se ha convertido en una realidad dominante en el gobierno de hoy por varias razones: (1) cada vez es más fácil reunir, procesar y manipular información mediante algoritmos de software y sin intervención ni autorización humanas, (2) el software está cada vez más integrado en los sistemas y prácticas actuales, y es parte integral de cómo se lleva a cabo una actividad o una tarea, cómo se mide y supervisa, y (3) la gestión automatizada ha ido normalizando su discurso como parte de un orden natural y dominante, se ha aceptado como deseable, se ha dado por supuesta y de sentido común y está en la base de muchas prácticas de gobierno en importantes ámbitos de la vida cotidiana, como la policía, la sanidad, el empleo, los transportes, el consumo y la seguridad. El resultado es que “el software hoy captura, procesa y gobierna en gran medida importantes aspectos de la vida económica y social (en nombre de agencias del Estado, empresas y también de las propias personas)” (KITCHIN y DODGE, 2011, pág. 10). El software de análisis predictivo, elaborado en torno a algoritmos de aprendizaje automático, es especialmente importante para la gestión automatizada. La naturaleza de esas tecnologías es la de un software aplicado y automatizado, lo suficientemente dinámico como para que reaccione y regule de forma inmediata, y con capacidad de actuar predictivamente, es decir, abriendo la posibilidad de la “gobernanza anticipativa”.

89

Estos tipos de algoritmos predictivos básicamente funcionan estableciendo asociaciones probabilistas para prever o anticipar tendencias futuras. De esta forma, realmente pre-ven el futuro, permitiendo así que se tomen decisiones que incidan en tales previsiones. En diversas prácticas de gobierno, como la seguridad de las fronteras, la vigilancia urbana, los exámenes y la comparación de datos educativos, el control del tráfico urbano y el consumo, hoy las decisiones se delegan de forma habitual en algoritmos de software. Después, los datos que derivan de estos procesos algorítmicos, más que el criterio humano, se convierten en referencia para la previsión de posibles comportamientos y actuaciones. Los modos anticipativos de gobierno no son tanto intentos de gobernar el presente como de gobernar el futuro. El código y los algoritmos son, pues, parte integral de un nuevo modo de gobernanza algorítmica aplicada tecnológicamente, donde el software participa como actor automatizado, automático y autónomo en la vigilancia y la estructuración de la conducta y la acción humanas. Los entornos tecnológicos, en otras palabras, se han convertido en técnicas fundamentales para el control y la dirección de la sociedad en su conjunto, regulando a las personas para que cumplan determinados criterios y normas de conducta.

Conclusión En los dos capítulos anteriores he expuesto con detalle cómo la analítica de los macrodatos, el aprendizaje automático, la visualización y demás se infiltran cada vez más en la sociedad, como una nueva capa de datos sociales que nos permite ver a la sociedad de formas nuevas (aunque no exentas de problemas), y hemos analizado también la complejidad sociotécnica del software, el código y los algoritmos en su progresiva infiltración y actuación en la vida cotidiana. La actual dataficación y digitalización de la educación es difícil de entender sin el reconocimiento previo de las destacadas posiciones que los big data y el software han alcanzado en la sociedad actual. Juntos, los big data, el software y los algoritmos de la educación llevan a una posición en que nuevos tipos de máquinas de aprendizaje más inteligentes —capaces de aprender de los datos que procesan— son ya imaginables, aparentemente posibles y alcanzables, como se detalla en los capítulos siguientes.

90

91

92

En los últimos años, la recolección, el análisis y el uso de datos han transformado los procesos legislativos sobre educación. La producción de datos educativos no tiene nada de nuevo, pero la aparición de nuevas tecnologías para su recolección, análisis y uso en los inicios del siglo XX, aceleró el desarrollo de importantes ambiciones nuevas en torno a la política educativa impulsada por los datos. Los paquetes de software, las plataformas e infraestructuras de procesamiento de datos y el imaginario que los anima se han entretejido en los objetivos y en los proyectos políticos específicos. Esto significa que a la capa política de la educación se ha sobrepuesto una nueva capa de software, de modo que en la capa práctica de la escuela y el aula se producen nuevos tipos de intervenciones y programas. El objetivo de este capítulo es precisar cómo las plataformas de software, las infraestructuras y los proyectos basados en datos se integran cada vez más en los tipos de políticas que rigen en los sistemas, las instituciones y las prácticas educativos. El software de procesamiento de datos está reconfigurando, aumentando e intensificando las prácticas de los profesionales, , los sistemas, las autoridades y los centros educativos “a través del recurso a viejos códigos (como la responsabilidad, la eficiencia y la calidad) que se representan de nuevas formas” (T HOMPSON, 2016, pág. 2). La educación se está convirtiendo en un enclave de nuevas tecnologías y analítica política basada en datos, todo ello basado en la necesidad de desarrollar ideas y conocimientos prácticos para el trabajo de legislación y la gobernanza (FENWICK y col., 2014). Un ejemplo de la tendencia a una creciente dataficación de la política educativa fue la publicación en 2016 de un “programa de implantación” para la mejora de la educación en

93

Escocia. Elaborado como respuesta a una reciente evaluación independiente de la educación escocesa llevada a cabo por la OCDE, el programa forma parte de un Marco Nacional de Mejora con ambiciosos planes de mejorar los logros y alcanzar la equidad. Uno de sus temas dominantes es la “información sobre el rendimiento”: Recabaremos toda la información y todos los datos que necesitamos para contribuir a la mejora. Las pruebas apuntan… a que hemos de formular sólidas ideas sobre la diversidad de factores que propician un sistema educativo de éxito. Unas pruebas que se suman a las que confirman que no existe ninguna medición específica que componga una imagen del rendimiento. Queremos usar una diversidad equilibrada de medidas para evaluar la educación escocesa y actuar para mejorarla. (SCOTTISH GOVERNMENT , 2016, pág. 20) Además, el programa establece que las disposiciones actuales “no facilitan información del sistema suficientemente segura para diseñar políticas y conseguir mejorar. Debemos pasar de una cultura de enjuiciamiento a un sistema de enjuiciamiento” (SCOTTISH GOVERNMENT, 2016, pág. 3). Como mapa de ruta para alcanzar este nuevo “sistema de enjuiciamiento”, el programa insiste en (1) una escalada en el uso de la evaluación estandarizada, (2) la recolección de datos sobre el progreso académico y el bienestar de los alumnos de todos los niveles, (3) la elaboración de indicadores básicos de rendimiento sobre habilidades de empleabilidad, (4) una mayor medición del rendimiento y evaluación de los centros, (5) los nuevos estándares y esquemas de evaluación para los centros, (6) una mayor centralización de los informes de la inspección educativa, (7) la publicación regular de datos de cada centro, (8) el uso de tablas visuales de datos, (9) la formación en “alfabetización en datos” de los profesores, (10) la gestión descentralizada, (11) la comparación con datos internacionales, y (12) el empleo de un consejo internacional de asesores de negocios y reformas para la dirección y evaluación de su implementación. El foco permanente del Gobierno Escocés en la información, inspección, medición y pruebas del rendimiento como sistema de enjuiciamiento, demuestra que los sistemas, organizaciones y profesionales educativos son hoy los destinatarios de técnicas de recolección, análisis y uso de datos. Aunque el programa de entrega no se refiere a ello de forma explícita, es evidente que todos estos datos habrán de ser introducidos, limpiados, almacenados, analizados y comunicados, unas tareas que requieren una avanzada infraestructura técnica y experiencia especializada en el uso de las tecnologías de la información. Como bien demuestran la participación de asesores especialistas en reformas del Gobierno Escocés y la influencia de la OCDE en la dirección de su programa, el trabajo político de dataficación educativa no es un simple cometido de los gobiernos y sus departamentos educativos oficiales. Al contrario, a la par que el creciente uso de los datos, la educación ha experimentado un “giro en la gobernanza” por el que la autoridad sobre la enseñanza se redistribuye desde los gobiernos centrales y sus agencias a una

94

diversidad mucho más amplia de organizaciones del sector privado y la sociedad civil, entre ellas, empresas, asesores, emprendedores, laboratorios de ideas y de innovación política, organizaciones sin ánimo de lucro y expertos independientes, muchos de ellos unidos en redes de relaciones (OZGA y col., 2011). A diferencia del gobierno central, la “gobernanza” se caracteriza por la descentralización, la movilidad, la fluidez, la liberalidad, la complejidad y la inestabilidad, además del entrecruce de las fronteras sectoriales y la hibridación de ideas, discursos y materiales de los campos de la burocracia, la economía, la academia y los medios de comunicación (BALL, 2012; BALL y JUNEMANN, 2012). Las nuevas prácticas de gobernanza distribuida y en red se han descrito como “gobierno a distancia”, es decir, los mecanismos indirectos que la autoridades adoptan para lograr sus objetivos mediante la conjunción de sus intereses, fines y ambiciones con los de otros, y la idea de que la mejor forma de que cada uno pueda resolver sus problemas o lograr sus objetivos es compartiendo asociaciones, vocabularios, teorías y explicaciones (MILLER y ROSE, 2008). La naturaleza espacialmente reticular y distribuida de las actuales técnicas de gobernanza también ha dado lugar a una aceleración en el tiempo del desarrollo y la difusión de políticas, una aceleración que se define como “política rápida”: El actual proceso legislativo aún se puede aglutinar en los centros de autoridad política, pero las redes de defensa y activismo políticos muestran hoy un alcance transnacional de extraordinario valor; las decisiones políticas tomadas en un determinado ámbito reflejan cada vez más las que se toman en otro e influyen en ellas; y los “modelos” políticos globales ejercen a menudo su poder a distancias considerables. Hoy, las fuentes, los canales y los enclaves de asesoría política abarcan extensas redes de actores humanos y no humanos… entre ellos, asesores, sitios web, comunidades profesionales, actuaciones magistrales, científicos de la evaluación, laboratorios de ideas, blogs, institutos de política global y vendedores de buenas prácticas, por no hablar de la influencia más “jerárquica” de las agencias multilaterales, los fondos para el desarrollo internacional, las poderosas asociaciones empresariales y las fuerzas de ocupación. (P ECK y T HEODORE, 2015, pág. 3) La “política rápida” define una nueva situación de producción, circulación y traducción de políticas aceleradas, cuya característica no es solo la velocidad sino también “la conectividad redoblada e instantánea de sitios, canales, ámbitos y nodos de desarrollo, evolución y reproducción políticos” (P ECK y T HEODORE, 2015, pág. 233). La expresión se refiere a la creciente porosidad entre los escenarios legislativos, la transnacionalización de las comunidades y los discursos políticos, la sumisión global a los modelos del “lo que funciona” y “las mejores prácticas”, la reducción de tiempo I+D en el diseño y lanzamiento de las políticas, nuevas prácticas compartidas de experimentación y

95

evaluación de políticas, y la expansión de una “infraestructura blanda” de conferencias de especialistas, bancos de recursos, redes de aprendizaje, manuales de estudio de casos y materiales basados en la Red, todos a cargo de mediadores, defensores y expertos (P ECK y T HEODORE, 2015). La política rápida se está convirtiendo en una característica de la producción y difusión de la política educativa. El deseo de soluciones políticas y nuevas formas de evidencia y experiencia, conduce en última instancia a la “aceleración” de la política educativa, caracterizada por el ritmo y el alcance crecientes de la difusión política desde enclaves de desarrollo político a otros locales de absorción y traducción de políticas (LEWIS y HOGAN, 2016). En otras palabras, las políticas se mueven hoy a mayor velocidad, están más centradas en soluciones rápidas del tipo “la mejor práctica” y “lo que funciona”, y son de lectura más rápida y agradable gracias a su formato de manuales, informes, sitios web y visualizaciones interactivas de datos, todos ellos breves e ilustrados (DECUYPERE, 2016). El software de procesamiento de datos, las organizaciones que lo fabrican y aplican, y los imaginarios que animan su producción y uso, forman parte hoy de las redes que hacen posible que la educación se gobierne a distancia y de forma rápida. Los datos digitales hacen que la educación se pueda conocer, gobernar e intervenir mediante técnicas avanzadas de análisis de datos y el intercambio internacional de información entre diversos actores, una información que se puede utilizar para la toma de decisiones políticas informadas y basadas en pruebas: Los laboratorios de ideas, las empresas y las redes industriales… participan cada vez más en el diseño y el uso de las tecnologías de información de los macrodatos y en la aplicación de estos para incidir en las prácticas educativas, la organización administrativa de los centros y las técnicas de aprendizaje… [y para] impregnar las estructuras legislativas del país. Los actores que producen estos macrodatos han adquirido mayor capacidad no solo de influir en las decisiones políticas, sino también de repercutir en las prácticas educativas. (MARTENS y col., 2016, pág. 519) Este capítulo es una especie de “análisis político en red” (BALL, 2016) cuyo principal objetivo es identificar y localizar las conexiones y las asociaciones que se forjan mediante el software y las tecnologías de datos, y a sus patrocinadores y defensores, con el objetivo puesto en la gobernanza educativa. Estas tecnologías digitales basadas en datos, en el código y los algoritmos que las aplican, y las ambiciones que las favorecen, se están convirtiendo en posibilitadores clave del gobierno a distancia y la política rápida para muy diversos actores unidos que trabajan en redes asociativas flexibles. La tesis fundamental de este capítulo es que el software de procesamiento de datos y los actores que lo promueven constituyen un tipo innovador de “gobernanza educativa digital” (WILLIAMSON, 2016a), en la que el mayor alcance y el ritmo acelerado de la generación de datos, el análisis y la retroalimentación, parece que convierten cualquier

96

problema educativo en algo que se puede evaluar, calcular y conocer, y por lo tanto, algo que se puede resolver a gran velocidad. Nuevas formas de big data van adquiriendo especial importancia para las técnicas emergentes de gobernanza educativa digital, unas técnicas que “llegan más allá de la política, y se adentran en la administración educativa, la práctica docente y las actividades individuales de aprendizaje” (HARTONG, 2016, pág. 523). El resultado es que “nuevos actores políticos técnicos” ubicados fuera de las burocracias gubernamentales cumplen hoy la función de vincular las tecnologías digitales de ingeniería de software y procesamiento de datos con diversos procesos y estructuras educativos: En el procesado y la evaluación “mediados” de datos interviene un número creciente de organizaciones internacionales, pero también implican redes científicas o industriales globales, instituciones de asesoría o investigación, inversores filantrópicos y actores privados o desinteresados, que juntos actúen como “socios” en proyectos de reforma educativa aportando experiencia contrastada, apoyo y financiación. (HARTONG, 2016, págs. 525-525) Asimismo, en este capítulo se insiste en la intersección de los actores técnicos, los productos de software y los regímenes políticos que juntos constituyen un modo emergente de gobernanza educativa digital. Estos actores trabajan simultáneamente dentro de los regímenes políticos existentes y también más allá de ellos, extendiendo su experiencia a nuevos sitios y espacios de autoridad, y desarrollando tecnologías que puedan sortear los lentos procesos políticos burocráticos y acelerar el flujo de datos, pruebas y soluciones, de forma que incida en la práctica docente y las actividades de aprendizaje individuales. El capítulo está dividido en varios apartados, comenzando por un debate contextual sobre el uso de los datos numéricos con el fin de gobernar el Estado, la emergencia de las tecnologías de los big data, y nuevas afirmaciones sobre las posibilidades de la “gobernanza digital”. A continuación, se explica cómo las tecnologías basadas en datos se pueden considerar tipos específicos de instrumentos políticos cuantitativos, cuyas implicaciones se analizan desde la perspectiva del rendimiento y la responsabilidad de los sistemas educativos. En los apartados siguientes, se hace una breve historia del uso de datos en los procesos de política educativa, acompañada de un estudio de las actuales tecnologías de bases de datos y enclaves de experiencia para la recolección y el análisis de datos educativos a gran escala. El apartado siguiente examina la emergencia de sitios web de comparación de centros educativos y los tableros de datos que inducen a estos a dar una “explicación íntima” de sí mismos. En el siguiente se analiza algunas nuevas tecnologías concretas de big data. El siguiente insiste aún más en los mismos temas y examina las nuevas posibilidades de los instrumentos de política “en tiempo real” asociados a formas automatizadas de analítica predictiva y prescriptiva y software de aprendizaje adaptativo. El último apartado habla de cómo las técnicas y los instrumentos

97

de gobernanza digital pasan hoy a desempeñar su papel en la gestión y la organización de los sistemas educativos.

La analítica política El uso de cifras en ámbitos importantes del Estado, como la educación, la delincuencia, la sanidad, el comercio, la hacienda y demás, no es nuevo, y se remonta a las innovaciones que en el siglo XIX se introdujeron en el censo, el registro sanitario y policial, y otras muchísimas prácticas burocráticas de numeración y recuento (AMBROSE, 2015; HACKING, 1990). Hace tiempo que los archivos del Estado forman parte del aparato normativo y de regulación social, y facilitan la gobernanza mediante la información acumulada sobre las personas (BOWKER, 2008). Con los archivos y las bases de datos se puede identificar, seguir, controlar, documentar y almacenar gran cantidad de detalles sobre la vida de la gente, en particular en forma numérica: La organización de la vida política en forma del Estado “gubernamental” moderno ha ido estrechamente unida a la formación de redes de números que conectan a quienes ejercen el poder con las personas, los procesos y los problemas que pretenden gobernar. Los números son parte integral… de la actuación del Estado que caracteriza a la cultura política moderna. (ROSE, 1999a, pág. 199) En otras palabras, las cifras se utilizan para definir los problemas que los gobiernos quieren resolver y documentan los proyectos destinados a hallar dicha solución. Además, los números son un elemento fundamental del conocimiento necesario para gobernar, y hacen posible que sectores como la educación, la sanidad, el comercio y la delincuencia se conozcan y comprendan y se pueda actuar sobre ellos en consecuencia. Dicho de otro modo, la maquinaria política organizada del Estado depende del conocimiento estadístico de la sociedad, y del recuento de personas, bienes, actividades, etc. Los sistemas estadísticos como las bases de datos de información sobre la gente son, pues, una importante técnica de gobierno —las actuaciones gubernamentales del Estado y la lógica operativa de las bases de datos son simétricas—: El buen ciudadano del Estado moderno es el que se puede contar, a demanda y de acuerdo con múltiples dimensiones. Vivimos en un régimen de contabilidad con un particular espíritu de cuantificación… [y] gobernabilidad: el Estado moderno necesita conjurar a sus ciudadanos de modo que se puedan enumerar. (BOWKER, 2008, pág. 30) El potencial de la capacidad que los departamentos y agencias gubernamentales tienen de hacer uso de los datos administrativos sobre los ciudadanos de que disponen se refleja, por ejemplo, en la creación de la Administrative Data Research Network, ADRN

98

(Red de Estudios sobre Datos Administrativos) del Reino Unido. La ADRN actúa de mediador de datos que facilita el acceso a datos del Estado y potencialmente permite que el usuario rastree datos sobre las personas a lo largo de toda su vida —desde las partidas de nacimiento, pasando por detalles sobre nivel de estudios, salud, delincuencia y empleo, hasta datos sobre fallecimientos— así como acceso a datos que se pueden utilizar para documentarse al legislar. Con el incremento de las fuentes de macrodatos, también se considera cada vez más posible que el Estado trabaje con agencias de análisis de datos para controlar a sus ciudadanos mediante sus rastros digitales. Están apareciendo nuevas formas de “gobernanza impulsada por los datos” que ponen el acento en los “datos para la política” y el “legislar basado en pruebas”, con los que se pretende legitimar determinadas formas de actuación política remitiéndose a una evidencia científica estadística “dura” (RIEDER y SIMON, 2016). La Royal Statistical Society ha elaborado un “Manifiesto sobre los Datos” para animar al Gobierno a que se documente con los datos y los utilice en las nuevas formas de legislar, y la Universidad de Cambridge organiza una conferencia anual sobre “Datos para la política” en la que se analizan las oportunidades y las dificultades de “Legislar en la era de los big data”. En la práctica, Demos, el laboratorio de ideas británico, ha creado un Centro para el Análisis de los Medios Sociales (CASM), un centro de estudios especializado en métodos de la “ciencia de los medios sociales” cuyo objetivo es estudiar la “dataficación de la vida social” y “ver a la sociedad en movimiento” a través de los macrodatos generados por las interacciones de los medios sociales de las personas (MILLER, 2014). Oculta en este compromiso con la “ciencia de los medios sociales” está la idea de que el comportamiento de los ciudadanos —tanto el individual como el sumado como un ingente común digital— se puede extraer y explotar, analizar y predecir a través de las fuentes de macrodatos, para posibilitar el desarrollo de nuevas ideas y soluciones políticas. Asimismo, Nesta, una organización benéfica dedicada a la innovación gubernamental, hace poco se asoció con la Oficina del Gabinete del Gobierno del Reino Unido para estudiar la idea de “un nuevo sistema operativo para el gobierno”. El objetivo es prever de qué modo tecnologías emergentes como “la ciencia de datos, la analítica predictiva, la inteligencia artificial, los sensores, los interfaces de programación de aplicaciones, las máquinas autónomas y las plataformas”, se puedan integrar en los próximos cinco años “en la idea que el gobierno tiene de sí mismo”, “redefinir el papel del gobierno, e incluso establecer una relación diferente entre el Estado y el público” (MALTBY, 2015). MULGAN (2016a), director ejecutivo de Nesta, dice que los nuevos cuerpos y actuaciones del Gobierno tal vez tengan que contribuir a que el público entienda y admita los algoritmos y los procesos de aprendizaje automático en que se asientan las nuevas formas de gobernanza impulsadas por los macrodatos. En otra obra, MULGAN (2016b, pág. 44) dice que hoy los gobiernos pueden aprovechar muchas formas nuevas de datos para realizar sus observaciones, por ejemplo, el uso de

99

sensores medioambientales y el “rascado” de la Red para buscar tendencias, y la realización de análisis, ya que “las herramientas de computación, incluidos los algoritmos predictivos y el aprendizaje automático, pueden ayudarlos a observar patrones… El aprendizaje automático más complejo puede ayudar después a los gobiernos a planificar mejor según cambien las necesidades”. Señala también el autor que los gobiernos usan técnicas como el crowdsourcing (colaboración masiva) para “sacar provecho de las personas inteligentes más allá de los límites del servicio social o la política” y “concebir mejores opciones políticas”, lo cual puede “redefinir la propia idea de ciudadanía” al convertir al gobierno “más en una sociedad entre el Estado y los ciudadanos”: Algunos gobiernos usan las nuevas tecnologías para fomentar un modelo de gobierno centralizado y que todo lo ve, al estilo Gran Hermano, ayudándose de cámaras CCTV y sensores de tráfico, y empleando técnicas para extraer de los medios sociales ingentes cantidades de datos personales… Es previsible que los mejores rendimientos deriven de encontrar nuevas formas de colaborar con los ciudadanos en la creación de datos, el desarrollo de opciones y la implementación de políticas. Todo ello apunta a una idea mucho más atractiva de un gobierno a la vez más dirigido por el conocimiento y más impulsado por las personas. (MULGAN, 2016b, págs. 44-45) Aunque la idea del gobierno como plataforma participativa de código abierto y una forma de “inteligencia colectiva” no está aun totalmente desarrollada, organizaciones como Nesta y otros “laboratorios de innovación pública y social” e iniciativas gubernamentales experimentales, poco a poco la van transformando de imaginario a práctica material de gobierno (WILLIAMSON, 2015a). Como materialización directa de esta visión de gobernanza digital participativa, a finales de 2016 la Casa Blanca de Estados Unidos anunció el lanzamiento de Code.gov para ayudar a los ciudadanos a analizar y mejorar los servicios del gobierno mediante el acceso al código abierto de software empleado para elaborar sus programas informáticos. Code.gov se describe como: Una plataforma creativa con la que los ciudadanos pueden colaborar en hacer más efectivos, accesibles y transparentes los servicios del gobierno. También esperamos que se convierta en un recurso útil para los gobiernos y desarrolladores locales que quieran aprovechar el código del Gobierno para crear servicios similares, fomentar nuevas conexiones con sus usuarios, y ayudarnos a hacer realidad la idea del Presidente de un gobierno digital del siglo XXI. (WHITE HOUSE, 2016a) Los científicos políticos DUNLEAVY y MARGETTS (2015, pág. 1) definen estos planteamientos visionarios de los big data como “gobernanza digital”:

100

Gobiernos y ciudadanos se mueven en un entorno digital, dejando rastros digitales en todo lo que hacen y por dondequiera que vayan. Estas huellas generan inmensas cantidades de información sobre ellos mismos, la relación de unos con otros y de cualquier interacción que tengan. En este contexto… la mayoría de los gobiernos del mundo industrializado del siglo XXI y más allá de este dependerán para las operaciones administrativas y la toma de decisiones de una gran presencia digital y una compleja red de sistemas de información a gran escala. En este modelo reformista, los gobiernos pretenden cada vez más “priorizar las interacciones y los bucles de retroalimentación que se beneficien del potencial de Internet y las tecnologías digitales, para dar solución a los problemas de la política pública y para la prestación de servicios” (DUNLEAVY y MARGETTS, 2015, pág. 1) La idea de gobernanza digital es una respuesta a avances tecnológicos como el análisis de los big data obtenidos de procesos transaccionales, la producción entre iguales y los efectos red, y las nueva ideas populares de crowdsourcing (colaboración masiva), cognitive surplus (excedente cognitivo), wikinomics (wikinomía) y democratización, y se caracteriza por tecnologías nuevas de “toque cero”, tecnologías de política conductual e “impulso” persuasivo, el análisis de macrodatos, la coproducción o el procesado de información dirigido por bases de datos, las transacciones e interacciones digitales por defecto del servicio público, los datos abiertos, y el desarrollo de la red social en el seno del gobierno online (MARGETTS y DUNLEAVY, 2013). La idea se asienta en el supuesto de que el uso de los big data “es un medio de participación masiva en la actividad legislativa” (BRIGHT y MARGETTS, 2016, pág. 219), al tiempo que da acceso a los cuerpos gobernantes a inmensas cantidades de datos sociales capturados de las actuaciones de la gente. Por lo tanto, el modo de capturar, contar y clasificar a las personas en sistemas de bases de datos es la evolución de un particular estilo de gobierno mediante la cuantificación, el cálculo y la clasificación que surgió con la revolución estadística y burocrática de los registros en el siglo XIX —“los big data de primera ola”— pero hoy se ha ampliado al control inmediato de la gente mediante los big data digitales: A diferencia de la herramienta de gobernanza que eran las representaciones estadísticas de los siglos XVIII y XIX, generadoras por lo general de análisis de conjuntos de datos estáticos (y siempre desfasados), los big data prometen perfiles ultrarrápidos y actualizables de las personas para poder intervenir y actuar de modo que cada persona, sus ideas y sus conductas se puedan procesar de múltiples formas. (T HOMPSON y COOK, 2016, pág. 4) La “infraestructura tecnocrática” de esta forma de “gobierno de base de datos” representa el paso de la gobernanza “cualitativa” de lo social a la gobernanza “cuantitativa” de lo “informativo”, una gobernanza a la que se llega cada vez más a

101

través de la elaboración de estadísticas de la sociedad (RUPPERT, 2012, págs. 117-118). El “giro analítico” en el paisaje político se materializa con métodos de la ciencia experimental de los datos, unos sistemas que permiten sumar gran cantidad de información conductual sobre el público, reunida a través de datos tanto administrativos como de los medios sociales, y a la que se analiza y posteriormente se usa de referencia en la toma política de decisiones (CHADWICK y STROMER-GALLEY, 2016). Esta analítica política es parte integral de la emergencia de un nuevo “estilo de gobierno” en el que se realiza “una auditoría permanente de la conducta”, con las técnicas de la minería de datos, el análisis de pareceres y el de redes sociales, para medir y gestionar el comportamiento de las personas y así mantener el orden social en su conjunto (DAVIES, 2012, pág. 774). En otras palabras, en la gobernanza digital, el software de big data se ha gubernamentalizado, aunque, como reconocen DUNLEAVY y MARGETTS (2015, pág. 5), los gobiernos no consiguen capitalizar las prestaciones de los big data, y los ciudadanos son incapaces de interactuar digitalmente con los gobiernos del mismo modo que lo hacen con los medios sociales, porque dentro del gobierno sigue habiendo diversas barreras que impiden “el uso de los medios sociales y la aceptación del flujo de tiempo digital, y el desarrollo de las destrezas de la ciencia de datos necesarias para extraer valor público de los macrodatos”. Además, el análisis de los big data no solo amplía las posibilidades de entender el comportamiento humano, la estructura social y la implicación civil de los ciudadanos, sino que se puede “utilizar también para la actividad legislativa algorítmica y probabilística” y “para modos de gobernanza más coactivos” (MARGETTS y SUTCLIFFE, 2013, pág. 139) Como veremos enseguida, en la educación emerge hoy un nuevo modo de analítica política y gobernanza digital basadas en los datos, con la atención dirigida cada vez más a las promesas de la minería de datos del flujo de tiempo digital de la educación para conocer y entender los sistemas, las instituciones, los procesos educativos y a las personas que los materializan, y para actuar sobre todos ellos. La analítica política de la educación ilustra cómo los datos digitales se están convirtiendo en aspectos fundamentales de la gestión, la gobernanza y el control por parte del Estado.

Los instrumentos, la performatividad y la responsabilidad políticos El concepto de “instrumentación política” se aplica para entender los diversos materiales y tecnologías que hacen operativas la política y la gobernanza educativas. Según la influyente conceptualización de la instrumentación de la política de LASCOUMES y LE GALES (2007), los instrumentos políticos se componen de diferentes técnicas, herramientas y métodos que posibilitan la aplicación de cualquier intervención política. En este sentido, un instrumento político se refiere a cómo se puede llegar a los objetivos políticos o las soluciones a los problemas del Estado mediante la elección específica de

102

técnicas para abordarlos. Como ocurre con los estudios sociológicos fundamentales sobre el software (véase BEER, 2013; LUPTON, 2015a), según esta idea de instrumentación de la política, los dispositivos son inseparables tanto de los procesos sociales, culturales, políticos y económicos de la producción, como de sus efectos social, cultural, política y económicamente productivos. Los instrumentos políticos constituyen “una forma condensada de conocimiento sobre el control social y las maneras de ejercerlo”, y “no son dispositivos neutrales: producen efectos concretos, independientemente de la finalidad propuesta (los objetivos que se les adscriben), unos efectos que estructuran según su propia lógica la política pública” (LASCOUMES y LE GALES, 2007, pág. 3). Como tales, los instrumentos poseen valores e interpretaciones del mundo social que se materializan y hacen operativos mediante técnicas e instrumentos específicos, y que, en consecuencia, tienen la capacidad de en parte estructurar las políticas, determinar el comportamiento de los actores y privilegiar ciertas representaciones de los problemas que hay que tratar. En otras palabras, la elección de los instrumentos estructura las capacidades para la acción, los procesos y sus resultados. En las últimas décadas, el rendimiento y la productividad de los sistemas, instituciones, procesos educativos y las propias personas de la educación, se han convertido progresivamente en objeto de medición, inspección y auditoría. Es lo que significan expresiones como “gobernar a través de cifras” (GREK, 2009), y “gobernar por inspección” (OZGA, 2016), con el énfasis puesto en cómo técnicas e instrumentos políticos específicos de medición y evaluación numéricas han hecho posible que se audite y evalúe el rendimiento de los sistemas e instituciones educativos e incluso de las personas implicadas en la educación. Sin embargo, la medición y gestión del rendimiento no son meramente descriptivas: también hacen realidad la materia que describen. El término “performatividad” evidencia que los sistemas, las instituciones y las personas del ámbito educativo están cambiando sus prácticas para asegurar la mejor medición posible de su rendimiento. Una idea a la que va unida estrechamente otra: la de responsabilidad, o rendición de cuentas, es decir la producción de pruebas que demuestren la efectividad —en términos de resultados medibles— de todo lo que se haya hecho en nombre del perfeccionamiento y la mejora. La performatividad es… un régimen de rendición de cuentas que emplea juicios, comparaciones y exposiciones como medio de control, rectificación y cambio. El rendimiento de las personas y las organizaciones sirve de medida de la productividad o el output… [y] representa o resume el valor o la calidad de una persona o una organización del campo que se enjuicia. (BALL, 2008, pág. 49) En otras palabras, la performatividad convierte la pregunta de qué cuenta como actividad que merezca la pena en educación en la pregunta de qué se puede contar y qué cuenta se puede dar de ello. Reorienta las organizaciones y a las personas para que se

103

centren en aquellas cosas que se puedan contar y sobre las que se pueda rendir cuentas, con pruebas de que se realizado y sobre sus consecuencias y sus resultados positivos, y resta énfasis a las actividades que no se puedan medir de modo fácil y efectivo con medios numéricos. Desde un punto de vista práctico, la performatividad depende de bases de datos, auditorías, inspecciones, revisiones, informes y la publicación regular de resultados. Tiende a priorizar las prácticas y los juicios de los contables, juristas y gestores que someten a los profesionales a constantes procesos de fijación de objetivos, medición, comparación y evaluación (BALL, 2008). La performatividad y la rendición de cuentas se materializan mediante determinados tipos de instrumentos, técnicas y herramientas políticos, como los de producción de datos, almacenamiento de información, realización de análisis e informes, publicación, comunicación y exposición (ANAGNOSTOPOULOS y col., 2013). Por consiguiente, las tecnologías de procesamiento de datos se pueden considerar instrumentos políticos digitales que reproducen y refuerzan regímenes existentes de performatividad y rendición de cuentas. Convierten el rendimiento de los sistemas y las instituciones educativos en flujos temporales de datos con los que unos y otras se pueden medir, valorar y evaluar, someter al escrutinio tanto público como político, para después exigirles que respondan de sus actos y decisiones y se les premie o castigue en consecuencia. En este sentido, la gobernanza educativa es un trabajo de cálculo, en sentido tanto matemático como estratégico. “Centros de cálculo” son aquellos espacios descritos por LATOUR (1986) que acumulan y suman cifras con el fin de incidir en otras cosas. Históricamente, dentro del sector educativo, los departamentos de educación del gobierno eran centros de cálculo fundamentales con capacidad para reunir y sumar datos sobre los centros educativos. Estos datos “distantes” de los centros se podían llevar después de vuelta a un punto central, para ser re-presentados y hacerlos “visibles”, inteligibles y utilizables para la deliberación y la toma de decisiones. Sin embargo, con el incremento de las forma digitales de recolección de datos educativos por otras agencias y organizaciones, los centros de cálculo de la educación se han hecho más dispersos, con unos datos que les llegan más deprisa y que regresan de ellos en forma de lucidos informes y visualizaciones de datos. Las técnicas calculadoras de la educación se han desplazado a actores más “distantes”, como los analistas de datos, los especialistas en macrodatos educativos, los mediadores de datos y los “algoritmistas” (MAYER-SCHONBERGER y CUKIER, 2013), formados en la ciencia del análisis de datos, la estadística y la informática. Esto no significa renunciar a la idea del Estado como centro fundamental de cálculo, sino reconocer que los cálculos que se hacen en centros como los departamentos de educación son la forma terminal de una red dispersa de prácticas calculadoras llevadas a cabo en enclaves dispersos. Las tecnologías de datos de diversos tipos son instrumentos políticos de performatividad y rendición de cuentas, y trasladan la lógica de las tecnologías a las

104

realidades materiales y prácticas de los sistemas y procesos educativos. Nuevas tecnologías de big data que se pueden utilizar para la medición y el diagnóstico constantes de personas e instituciones están preparadas para acelerar y ampliar los procesos de performatividad y rendición de cuentas, en particular aquellas que permiten comparar grandes cantidades de datos para determinar “las mejores prácticas” —y, de paso, localizar instituciones y personas que no rindan como deben, y hacerles responsables de sus resultados— y aquellas que prometen acelerar la recogida y el análisis de datos de modo que se ajusten al “tiempo real”. En este tipo de sistemas, la automatización desempeña un papel muy importante, porque genera procesos de “gestión automática” (KITCHIN y DODGE, 2011) que se pueden aplicar sin supervisión ni intervención humanas como instrumentos políticos fundamentales para la gobernanza y el control educativos. Sin embargo, como forma material de una nueva práctica de analítica política, los actuales instrumentos políticos basados en macrodatos se deben interpretar teniendo en cuenta la historia reciente de recolección de datos a gran escala en la educación.

Datos educativos a gran escala La recolección, el cálculo y la comunicación de datos educativos a gran escala tienen una larga historia. En Europa y Estados Unidos, en las grandes exposiciones, ferias internacionales y congresos científicos del siglo XIX era habitual, como parte del espectáculo, la exhibición de datos numéricos (LAWN, 2013). En esos eventos, la visualización de grandes cantidades de datos mediante exposiciones gráficas como mapas topográficos, tablas de estadísticas ilustrativas y ejemplares de trabajos de los alumnos, se podía utilizar para representar las relaciones entre la educación y la política, unas relaciones que el espectador podía ver de forma directa. Estas imágenes de los datos, la información numérica que representaban y las técnicas estadísticas utilizadas para generarlas, eran dispositivos explicativos y persuasivos de enorme fuerza que hacían difícil que la educación se pudiera concebir de otra forma —y podían servir de base para la intervención política—. En las exposiciones se podía publicitar el progreso de los distintos países, en unos espacios en los que se “narraban” los relatos del Estado y se “vendían” sus éxitos como soluciones para otros sistemas nacionales (SOBE, 2013). En otras palabras, las muestras presentadas en las grandes exposiciones eran ellas mismas instrumentos políticos. En los años de posguerra, en Europa y en Estados Unidos surgió una infraestructura internacional de asociaciones de investigación especializada y centros de estudios nacionales, y se formaron organizaciones internacionales que incorporaban datos a la gobernanza de la educación, a la vez que las destrezas y las tecnologías de procesado necesarias para producirlos (LAWN, 2013). A lo largo de la historia se han originado procesos de “colección” de datos sobre el niño a través de “redes médico-socialburocráticas” de agencias interconectadas y centros de información de todo el espectro

105

estatal y no estatal (GROSVENOR y ROBERTS, 2013). Para poder tomar decisiones políticas y aplicarlas, ha sido necesario incorporar datos, ordenarlos, filtrarlos y clasificarlos, una tareas que requieren diversos mediadores técnicos cualificados, especialistas en estadística y corredores de datos, con el know-how y la maquinaria adecuados para reconfigurar esos datos y convertirlos en conocimiento. Como institución social, la educación ha utilizado tradicionalmente la cuantificación y la exposición de sus cifras como recurso explicativo y retórico, un proceso al que las tecnologías digitales y las prácticas de dataficación dan hoy mayor capacidad y calidad. Con el incremento del alcance, la escala y el ritmo de la recolección masiva de datos, se ha desarrollado una activa literatura en torno a la idea de que la educación “está gobernada por las cifras” y regulada a través de constantes procesos de auditoría y comparación (GREK, 2009; OZGA y col., 2011; LAWN y GREK, 2012). Los datos numéricos se han convertido en una tecnología política dominante de gobierno, debido en gran medida al trabajo de organizaciones no gubernamentales internacionales que influyen cada vez más en las políticas educativas de todo el mundo. Con el traspaso de la gobernanza educativa a una red de actores de los ámbitos gubernamental y no gubernamental, es necesaria una “red de datos” que cohesione a los diversos actores y agencias, ya que para dirigir y controlar el sistema son fundamentales el flujo de datos, la retroalimentación y la predicción (OZGA, 2009). Entre estas organizaciones están el Banco Mundial y la UNESCO, pero la OCDE es tal vez el más influyente de estos actores políticos globales. La OCDE dirige el Programa Internacional de Evaluación de Alumnos (PISA), que mide el rendimiento en Matemáticas, Lengua y Ciencia de los estudiantes de países de todo el mundo al finalizar la enseñanza obligatoria, y el Programa para la Evaluación Internacional de Competencias de los Adultos (PIACC). También ha elaborado una serie de pruebas para la Educación Infantil, y un sistema de evaluación transnacional de primeros resultados del aprendizaje que incluye exámenes a los niños y niñas de cinco años de los países participantes (MOSS y col., 2016). Los resultados de estas pruebas se utilizan después de indicadores de rendimiento para comparar la competitividad económica potencial de cada país: Los resultados de estas pruebas —y la consiguiente aparición de la “envidia” PISA en los países con peores resultados y, supuestamente, el “éxtasis” PISA en los que obtienen mejores calificaciones— se han convertido en un sólido recurso de gobernanza que hoy sirve para definir la necesidad de reformas educativas, los medios para llevarlas a cabo y sus objetivos… Para los países, la mejor forma de obtener buenas calificaciones PISA es ajustar sus currículos lo más estrechamente posible a lo que las pruebas PISA miden… Si así lo hacen y mejoran sus calificaciones, entramos en un sistema cerrado y que se autojustifica por el que los países enseñan de acuerdo con lo que esas pruebas exigen, y las calificaciones más altas crean la ilusión de que se

106

mejora. (MORRIS, 2016, pág. 26) El resultado es que los sistemas educativos nacionales, ante resultados deficientes en la comparación global, se encuentran sometidos a la presión de mejorar. De este modo se crea una jerarquía de sistemas educativos nacionales en un ámbito político global (RIZVI y LINGARD, 2010). Los países con resultados excelentes, como Singapur y Finlandia, adquieren el estatus icono en el foro político internacional, y se convierten en faros que atraen a legisladores y políticos de otros países ansiosos por emular sus éxitos. El anhelo que se oculta en estas gigantescas técnicas de recolección y análisis de datos es, básicamente, la producción de “conocimientos de gobierno”, unos conocimientos sobre el sistema que después sirvan de referencia para la toma de decisiones y la actuación política (FENWICK y col., 2014). Los problemas políticos y sus soluciones hay que encontrarlos simultáneamente en una especie de conocimiento científico de los sistemas educativos que da prioridad a la vigilancia estadística y la comparación de los datos, con el fin de identificar “las mejores prácticas” de “lo que funciona” y elaborar “puntos de referencia” que otros sistemas puedan copiar (NOVOA y YARIV-MASHAL, 2014). Los críticos de la performatividad se centran de forma particular en los efectos de las pruebas globales estandarizadas de la OCDE (LAWN y GREK, 2012). Por ejemplo, el efecto de dichas pruebas en los centros de Inglaterra es que “las mediciones con que se evalúa a los alumnos y las escuelas redefinen efectivamente los fines de la enseñanza y lo que significa educar”: La lógica de la OCDE se ha interiorizado de tal modo que hoy se juzga a los directores, profesores, alumnos y centros —y ellos mismos se juzgan cada vez más— tomando como referencia unas mediciones basadas en el rendimiento de los alumnos en pruebas de resultados académicos en unas muy pocas disciplinas. (MORRIS, 2016, pág. 17) Es una performatividad de suma importancia, porque las exigencias que la medición del rendimiento impone, dictadas por organizaciones internacionales como la OCDE, influyen de forma fundamental en cómo los centros educativos llevan a cabo la tarea de educar a los jóvenes. Las complejas tecnologías de gestión de bases de datos y de análisis de datos son parte integral de estas actuaciones de vigilancia y comparación. El éxito de la OCDE como actor político educativo es que “ha creado un nicho como agencia de muy alta competencia técnica para el desarrollo de indicadores educativos y mediciones comparativas del rendimiento educativo”, unos métodos y técnicas que puede utilizar para la “la elaboración de políticas educativas, la mediación y la difusión a nivel nacional, internacional y posiblemente global” (GREK, 2009, págs. 25-26). Los enormes conjuntos de datos que tales ejercicios generan requieren un importante apoyo técnico, con “el gobierno de los sistemas educativos cada vez más relacionado con la capacidad de los

107

servidores de datos, los desarrollos del software y el uso de herramientas de minería de datos” (LAWN, 2013, págs. 11-12). Una dimensión a menudo ignorada de la producción, la circulación y el uso de datos educativos es la infraestructura de información en que se asientan. ANAGNOSTOPOULOS (2013, pág. 2) explica el desarrollo de una vasta “infraestructura de rendición de cuentas” (concretamente en la educación de Estados Unidos) que depende de las tecnologías, las políticas y diversos expertos informáticos: Los datos sobre rendimiento que la rendición de cuentas basada en tests convierte en ubicuos son, ellos mismos, producto de muchísimas decisiones sobre qué información hay que reunir, cómo se ha de codificar y procesar, y de qué modo conviene incorporarla a archivos e informes. Las personas que toman y aplican estas decisiones lo hacen no solo en los centros, los distritos y las agencias educativas estatales y federales que componen nuestro sistema educativo formal, sino también en las empresas evaluadoras, las de software, las universidades y los consorcios de investigación, las fundaciones, las empresas consultoras y la prensa. Para reunir, procesar y difundir información entre todas estas personas y lugares se necesitan sofisticadas tecnologías informáticas que puedan almacenar y procesar las inmensas cantidades de información que se necesitan para elaborar mediciones y clasificaciones del rendimiento… Así pues, los datos que impulsan la rendición de cuentas basada en tests son producto de complejos ensamblajes de tecnologías, personas y políticas que se extienden entre los límites de nuestro sistema educativo formal y más allá de ellos. Los sistemas de información a gran escala del Estado que pueden reunir, procesar y difundir información sobre las características y el rendimiento de las escuelas, los profesores y los alumnos, se han convertido en tecnologías fundamentales de medición y rendición de cuentas educativas. En Estados Unidos, la reunión de datos a gran escala ha estado en la base de todos los esfuerzos por pedir cuentas a los escuelas y a los funcionarios públicos, uno de cuyos efectos, por ejemplo, ha sido el de los padres que abandonan los centros de peor rendimiento (HOLBEIN, 2016). Aunque a menudo se subestime, la infraestructura de tecnologías, personas y políticas que cimienta la producción de datos y los mecanismos de rendición de cuentas, es sumamente importante en sus efectos. Genera prácticas nuevas, otras formas de concebir a las personas y las instituciones, nuevos tipos de intervenciones, y representa una nueva forma de “poder informático” en la educación: El poder informático… depende del conocimiento, el uso, la producción y el control de la medición y las tecnologías informáticas… para producir mediciones del rendimiento que sean representaciones transparentes y precisas de los complejos procesos de enseñanza, aprendizaje y educación… Definen los conocimientos y las formas de pensar importantes y a los “buenos” profesores, alumnos y escuelas, de

108

modo que estas mediciones del rendimiento determinan cómo practicamos y valoramos la educación y lo que pensamos de ella. (ANAGNOSTOPOULOS y col., 2013, pág. 11) Como aplicación material del poder informático, una infraestructura de datos se puede definir como “un conjunto de prácticas materiales, semióticas y sociales” que funciona para traducir cosas en cifras, posibilita el almacenamiento, la transmisión, el análisis y la representación de datos utilizando lógicas algorítmicas y tecnologías computacionales, incorpora el uso de datos a otras prácticas, crea nuevos tipos de espacios a través de prácticas de clasificación, medición y comparación, y genera nuevas prácticas sociales (SELLAR, 2015a, pág 770). Un ejemplo significativo del creciente tamaño y alcance de la recolección de datos educativos, y de la cada vez mayor necesidad de una infraestructura de información de plataformas técnicas y experiencia analítica para interpretarlos, es la National Pupil Database, NPD (Base Nacional de Datos sobre el Alumno) del Reino Unido. La NPD fue creada por el gobierno de Reino Unido en 2002 bajo la dirección de Michael BARBER, por entonces jefe de la Unidad de Prestación de Servicios del Primer Ministro (después fue director del departamento de asesoría educativa de Pearson). La NPD cuenta con amplios conjuntos de datos sobre el progreso educativo de los niños y los jóvenes desde la infancia hasta la enseñanza superior, entre ellos datos sobre siete millones de alumnos reunidos a lo largo de más de doce años —datos personales, direcciones, resultados de pruebas y exámenes, resultados anteriores y de su progresión, características del alumno como sexo, etnicidad, país de nacimiento, primera lengua, uso de comedor escolar gratuito, necesidades educativas especiales, faltas de asistencia y expulsiones— y está también conectada con bases de datos que contienen información similar sobre enseñanza secundaria y superior, unos datos que se pueden vincular a los anteriores. Los datos se obtienen de los censos regulares de los centros educativos (por lo general realizados tres veces al año) y de las autoridades locales y órganos de adjudicación de ayudas, son procesados por el Departamento de División de Datos sobre Educación y se almacenan en la NPD. Los datos de esta se presentan en archivos de hoja de cálculo con miles y miles de filas de cifras que los departamentos del gobierno, incluidos el Ministerio del Interior y la policía (y terceras partes autorizadas, un uso no exento de polémica) pueden buscar y analizar de múltiples formas, y se pueden utilizar para montar complejas y minuciosas exposiciones gráficas como diagramas, tablas, gráficos, etc. La NPD no es un simple avance político, sino un logro técnico y metodológico. En la base de la organización de los datos está la Common Basic Data Set, CBDS (base de datos básicos comunes), un archivo que contiene definiciones de conjuntos de datos comunes que las escuelas y las autoridades locales utilizan en sistemas de software como los de gestión de la información. En otras palabras, los datos reunidos en la NPD se rigen por principios de recolección de datos y definiciones contenidos en la CBDS que regulan todos los datos recogidos en los centros educativos. La CBDS es un claro ejemplo de lo

109

que se ha denominado “infraestructura de información rutinaria”, un sistema de clasificación que produce y mantiene estándares de recolección y organización de datos con fines administrativos de medición, comparación y evaluación (BOWKER y STAR, 1999). La NPD es, dicho de otro modo, un dispositivo estadístico y un instrumento político basado en un sistema estándar de clasificación para la recolección y exposición de datos educativos a gran escala, con el fin de informar la política y el análisis gubernamentales. La escala de la NPD es de tal envergadura que se ha creado una organización independiente de análisis para el estudio de sus conjuntos de datos y las ideas que puedan servir para determinar políticas educativas. El Education Datalab (Laboratorio de Datos Educativos) fue puesto en marcha en 2014 como sitio de experiencia estadística dedicado al análisis de los datos de la NPD, unos datos que complementa con el análisis de otras series de datos para generar “estudios independientes innovadores que los legisladores puedan utilizar de referencia para la política educativa, y las escuelas, para mejorar su práctica”: Trabajamos en colaboración con socios de investigación, y procuramos que los legisladores y los centros educativos puedan acceder a los estudios que publicamos. Los datos no pueden producir una buena política, pero ayudan a quienes la han de hacer a entender mejor el sistema educativo que pretenden reformar. (EDUCATION DATALAB, 2014) El Education Datalab ofrece su experiencia en estudios cuantitativos al Departamento de Educación, al Department for Business, Innovation and Skills, y a diversas organizaciones benéficas, compañías, laboratorios de ideas, fundaciones y consorcios. La disponibilidad de la NPD para el análisis y uso de terceras partes plantea importantes preguntas sobre la fiabilidad y la privacidad de los datos, en particular a medida que estos abarcan espacios mucho más amplios y que datos sensibles pasan a los medios de comunicación y a otros servicios de consultoría: La fiabilidad de la recolección de datos sobre los alumnos… depende de la limitación del ámbito futuro de los fines para los que se vayan a utilizar los datos y quienes puedan acceder a ellos. El aumento descontrolado de ese ámbito no es ficción, sino algo muy real, y el uso de los datos que hoy hace el Gobierno puede significar que lo que hoy acordamos no siga siendo lo que acordamos. Los datos que padres y alumnos dieron a las escuelas en 2012 se utilizan hoy con fines completamente distintos, ya que se cambiaron las leyes para que se pudieran ceder datos individuales del alumno… La cesión de datos confidenciales del alumno sin consentimiento de este a las empresas y los periodistas causa estupor. (P ERSSON, 2016) Además de su función de mediador fundamental para el análisis de datos educativos, el

110

Education Datalab es también director de proyecto de la Encuesta Internacional sobre Docencia y Aprendizaje de la OCDE, lo cual lo convierte un actor clave en las redes de organizaciones y especialistas transectoriales que dirigen la actual analítica política de la educación.

Rendición “íntima” de cuentas El uso de datos a gran escala para informar las decisiones políticas sistémicas depende de que la escuela realice una serie de tareas rutinarias de recolección y análisis de datos (FINN, 2016; SELWYN, 2016). Los sistemas de dación de cuentas diseñados por los departamentos de educación del Estado han convertido la recolección de datos, su análisis, previsión y consiguientes informes, en una tarea especializada rutinaria que requiere conocimientos y habilidades profesionales en gestión de datos, métodos estadísticos y paquetes de software, todo lo cual ha generado nuevas funciones para los gestores de datos escolares. El uso de los datos para elaborar un relato del rendimiento se ha convertido en práctica esencial tanto de los profesores individuales como de las instituciones en que trabajan. En efecto, la tarea de gobierno a distancia requiere que las instituciones individuales y su personal asuman por igual la responsabilidad de recoger datos y la de organizarlos —mediante definiciones y estándares proporcionados por bases de datos como la CBDS— de forma que se puedan trasladar desde una serie de enclaves independientes para sumarlos en centros de cálculo del Estado. Como tales, las escuelas intervienen en el “doble pensamiento de los datos” (HARDY y LEWIS, 2016), lo cual implica que los profesores participen en procesos performativos porque así se les exige, pero sin ningún auténtico sentimiento del valor que tiene hacerlo. La función de los profesores de reunir datos e incorporarlos a las correspondientes bases es un ejemplo concreto de la inteligencia colectiva participativa que los entusiastas de la gobernanza digital imaginan. Las escuelas han de capturar datos, pero también son capturadas a través de los datos por las distantes presiones y agendas nacionales e internacionales que inciden en las instituciones específicas, y exigen que los profesionales proporcionen datos sobre rendimiento que den cuenta de su trabajo (T HOMPSON y COOK, 2016). En consecuencia, se exhorta a los centros a que aporten datos detallados e “íntimos” sobre sus propios rendimientos institucionales para ponerlos a la vista y el escrutinio públicos, todo lo cual requiere más “manejo especializado” (WILKINS, 2015), a menudo en forma de gestores especialistas de datos e incluso contratistas externos que amplían la demanda de recolección de datos. Los datos que ofrecen los centros educativos normalmente se pasan a presentaciones simplificadas. En el Reino Unido, el Departamento de Educación elabora tablas de rendimiento de los centros con las que se puede ver el de cada centro particular de todo el país. Los datos se exponen en un mapa con una representación gráfica de Inglaterra que divide los datos por región o autoridad local, por el nombre del centro o de la ciudad,

111

por el código postal, y por el tipo de escuela o centro educativo. Las tablas de rendimiento de cada centro no permiten análisis minuciosos como los de la NPD, pero traducen los mismos conjuntos de datos sobre las calificaciones de los exámenes del alumno y la financiación del centro a formas que se pueden buscar, representar a interpretar con mayor facilidad y que interpretan el significado de los datos para diversos públicos. La Office for Standards in Education, Ofsted (Oficina de Estándares en Educación) de Reino Unido, responsable de la inspección y evaluación de los centros educativos, cumpliendo una función similar, ha elaborado su propio paquete de Tablero de Datos sobre las Escuelas. Los tableros de datos consisten en explicaciones gráficas de los datos de los centros educativos, incluidos los resultados de los exámenes, el progreso, la asistencia y otros factores contextuales. Se promueven los tableros de datos como un aumento objetivo y basado en datos de la inspección educativa convencional por inspectores especializados, que los incorporan a sus diversos códigos de evaluación y enjuiciamiento. Destinados principalmente a los miembros de los consejos escolares, Ofsted dice que las tablas de datos ofrecen un análisis del rendimiento a lo largo de tres años, y comparaciones con otras escuelas y centros docentes. El Departamento de Educación y la Ofsted también han elaborado juntos RAISEonline (Informes y Análisis para la Mejora mediante la Autoevaluación de la Escuela), un portal interactivo diseñado para el análisis de los centros y los datos sobre el rendimiento de los alumnos como parte del proceso de autoevaluación. RAISEonline ofrece a los centros un conjunto común y estandarizado de análisis, y material para la gestión de datos con el que importar y editar datos sobre el nivel del alumno. El material incluye información contextual sobre escuelas individuales, con comparaciones de centros, informes y análisis sobre los logros y el progreso de los alumnos, y elementos interactivos con los que los centros pueden estudiar el rendimiento de sus alumnos en áreas curriculares específicas a lo largo de los principales niveles. Las tablas de datos de los centros son también accesibles online, y se rigen claramente por el principio de mayor transparencia, apertura y responsabilidad del entorno político (P IATTOEVA, 2015). Los tableros muestran al público y a los medios de comunicación, a los miembros de los consejos escolares y a los inspectores, cómo progresan los centros desde la perspectiva de las normas y los promedios de ámbito nacional, y permiten identificar y clasificar a los centros sea por su excelencia o por sus deficiencias. En el caso de la tabla de Ofsted, el software de base de datos media, aumenta y regula el trabajo de la inspección educativa. Estas tablas organizan y codifican los datos de las escuelas que se utilizan en el proceso de inspección, evaluación y enjuiciamiento antes de que el inspector llegue a la escuela, y, en cierta medida, los datos manifiestamente objetivos desplacen el juicio profesional informado (OZGA, 2016). Poner las escuelas a disposición de los padres para que las inspeccionen ha llevado también a la publicidad de los centros en formatos accesibles y transparentes. Research

112

Machine (RM), productor comercial de tecnología educativa, ha montado la web “School Finder” para uso de los padres. Con menús sencillos desplegables, los padres pueden buscar los centros de zonas geográficas concretas, compararlos de acuerdo con diversos datos, y después escoger los que más les puedan interesar. School Finder suma y combina datos de tablas de rendimiento de los centros, del School Census, los datos de Ofsted, los de la agencia cartográfica nacional Ordenance Survey, e información de los propios materiales de promoción y marketing de las escuelas. A los datos que se exponen en School Finder se les suma también un amplio conjunto de materiales del catálogo comercial de RM, lo que configura al padre usuario como activo consumidor educativo. Como instrumento político, School Finder se estructura según los principios de los servicios destinados al consumidor online, por ejemplo, Moneysupermarket.com y Gocompare, y combina el atractivo popular del entorno mediático online más amplio con el juicio especializado asociado a la comparación de datos estadísticos. Uno de los efectos fundamentales de estos instrumentos de base de datos es la posibilidad de “comparar” los sistemas, las instituciones y los profesionales educativos, de forma que los sitúa simultáneamente como potenciales colaboradores que pueden aprender unos de otros, pero también como rivales que buscan la ventaja competitiva. En 2016, la Education Endowment Foundation (EEF) puso en marcha la Families of Schools Database, una base de datos en la que se puede buscar y con la que cualquier centro de Inglaterra se puede comparar con instituciones estadísticamente similares para “determinar objetivos manejables en el intento de cerrar la brecha nacional de rendimientos”, e “identificar los centros que se encuentran con problemas similares y que pueden servir de ayuda y orientación”. La base de datos fue creada por EEF (creada a su vez por el filantrópico Sutton Trust con una subvención inicial de 125 millones de libras del Departamento de Educación) y contratada por el Fischer Family Trust, la empresa matriz sin ánimo de lucro de Education Datalab. Con un formato de tabla de datos interactiva compuesta de diferentes gráficos, tablas y diagramas de dispersión, la base de datos ofrece distintos indicadores del rendimiento de cualquier escuela como parte de un “vecindario estadístico” de centros de calidad parecida. También calcula automáticamente y presenta previsibles “escenarios futuros” del rendimiento proyectado de cada escuela de acuerdo con los datos anteriores de cada uno de sus indicadores. Las escuelas escocesas disponen de una tecnología similar, Insight (el producto del Gobierno Escocés), una herramienta comparativa online “diseñada para uso de los centros de secundaria y las autoridades locales, para identificar el éxito y los puntos en que se pueden hacer mejoras, con el objetivo último de incidir positivamente en los alumnos”. Ofrece datos sobre evaluaciones nacionales, entre ellos, el destino de los alumnos al terminar la escolarización y el nivel de dominio de la lengua y las matemáticas, además de información sobre una serie de medidas locales destinadas a ayudar a los usuarios a preguntarse por la efectividad de su currículo, las asignaturas y los cursos. Ofrece tablas de datos con las que los centros pueden hacerse una idea

113

general de las suyas propios y compararlos con las mediciones nacionales expuestas en la tabla nacional. Una característica importante de Insight es el Comparador Virtual, con el que el usuario puede comparar el rendimiento de sus alumnos con la media nacional. El Comparador Virtual recoge las características de los alumnos de un centro y las combina con las de alumnos similares de toda Escocia para crear una “escuela virtual” con la que una “escuela real” pueda comparar su progreso. Asimismo, el gobierno australiano ha puesto en marcha My School, una web pública diseñada para que se puedan comparar “escuelas similares”. Families of Schools Database, Insight y My School se presentan todas como tecnologías performativas de colaboración, pero también funcionan como tecnologías de competencia, y fomentan que las escuelas se presenten de la manera más positiva posible para mejorar su puesto en la tabla y el atractivo de mercado para los padres. El desarrollo de webs de comparación de centros como la Families of Schools Database, Insight y My School apuntan a la naturaleza cada vez más precisa, minuciosa y ajustada de la recolección, el cálculo y la circulación de datos. Es decir, son webs que ofrecen una especie de analítica numérica e “íntima” de la educación. Una forma de entender estas bases de datos comparativas de centros y las plataformas de analítica del aprendizaje es con la idea de “rendición íntima de cuentas” (ASDAL, 2011). En este sentido, las prácticas de cálculo se apartan progresivamente de las prácticas administrativas que se aplican en oficinas lejanas o en centros de cálculo del gobierno, para acercarse a prácticas de evaluación mucho más “íntimas” que se aplican in situ, cerca de la acción que miden. La intimidad también implica una relación estrecha, y las prácticas de una intimidad calculadora o de rendición de cuentas también se pueden entender desde la perspectiva de cómo los números y las presentaciones numéricas se pueden utilizar para establecer relaciones íntimas entre diferentes actores. Con la exposición de los datos del centro, la “rendición íntima de cuentas” va en aumento en la educación. Por ejemplo, a través del sitio My School de Australia, se ha documentado que: Se animaba al público, en especial a los padres, a familiarizarse —a intimar— con la escuela mediante el estudio de la multitud de minuciosos datos sobre el centro que se encontraban en My School. La idea era que, con ese conocimiento íntimo de la escuela, los padres pudieran presionar a los centros para que trabajaran bien y obtuvieran los mejores resultados para sus hijos. Con My School no solo se disponía de una tecnología con la que el gobierno entraba en los espacios íntimos de las escuelas, sino que estas mismas entraban en los espacios privados de la sala de estar y la cocina a través de las charlas entre los padres. (GORUR, 2015) Con estas técnicas, los centros podían ser objeto de escrutinio íntimo por parte del gobierno y también de los padres. Los sitios de comparación de centros y las tablas de

114

datos obligan a las escuelas a facilitar detalles muy íntimos —en forma de cifras— que después se pueden exponer al público general. Estas bases públicas de datos permiten que se conozca la escuela y se hable de ella en los espacios íntimos de la casa, incorporan a sus dirigentes al proceso de rendición íntima de cuentas y exponen el rendimiento de su institución de acuerdo con diversos criterios. Es verdad que los datos escolares se reúnen y se llevan a centros lejanos de cálculo para poder formar esas bases de datos, pero de algún modo se exige a las instituciones que se presenten desde una perspectiva de dación íntima de cuentas y, en última instancia, compartan esa responsabilidad como vía a una posible colaboración con aquellos cuyas cifras les colocan como vecinos. Las prácticas de rendición íntima de cuentas promovidas por las tablas de datos del centro configuran el entorno de este como un “paisaje de datos” a cuya existencia en la realidad organizativa se llega a través de prácticas calculadoras que convierten el centro en “responsable” (LIPPERT, 2015). Con los sitios de comparación de centros se hacen visibles diferentes “realidades de la escuela”, porque permiten que las instituciones representadas por los datos sean conocidas e investigadas, para después actuar sobre ellas de determinadas formas (DECUYPERE y col., 2014). Así pues, las bases de datos como Families of Schools Database, Insight y My School se pueden entender como paisajes íntimos de datos, donde se exponen los datos de los centros con el fin de establecer relaciones estrechas con los padres y otras instituciones, al tiempo que las escuelas se hacen más íntimamente visibles y mejor dispuestas a las medidas disciplinares y otras intervenciones. La enseñanza superior se somete progresivamente al mismo tipo de procesos. La investigación y las prácticas docentes académicas están cada vez más controladas y evaluadas por diversos sistemas de medición y de informes, incluidas las mediciones de la excelencia de la investigación, los índices de impacto de esta, las encuestas sobre satisfacción del alumnado, las mediciones de la calidad de la enseñanza, los instrumentos de seguimiento de la carga de trabajo, y toda una diversidad de tablas de clasificación nacionales e internacionales (WOLF y col., 2016). La medición de la enseñanza superior con nuevos tipos de instrumentos políticos basados en datos, como en la enseñanza primaria y secundaria, hacen de las universidades instituciones más orientadas a los resultados, performativas y responsables, las integran en grandes bases de datos y tablas públicas, y las obligan a ofrecer informes cada vez más íntimos sobre sus resultados medibles.

La política visual Los datos son complejos, y para hacerlos legibles e inteligibles para los públicos a los que van destinados se necesitan nuevas técnicas. En mayo de 2014, la organización internacional OCDE puso en marcha su sitio Education GPS como portal público de sus

115

bases de datos de PISA. El propio PISA genera grandes bases de datos sobre rendimientos educativos que se pueden descargar, en forma de grandes hojas de cálculo, archivos de datos en formato ASCII, compendios y archivos de control para programas informáticos estadísticos como SPSS, para que los usuarios puedan procesar los datos. Education GPS está diseñado como un interfaz más amable con el usuario para estos conjuntos de datos. Puesto a disposición pública en la Red, Education GPS permite en particular el acceso del usuario a datos interactivos para comparar países en una “amplia variedad de indicadores”. Con un sencillo menú, el usuario puede compilar los datos de las grandes bases PISA de la OCDE para “elaborar sus propios informes nacionales customizados, destacando los hechos, los avances y los resultados que el usuario decida”, y para comparar y revisar las políticas educativas de distintos países. El usuario puede generar grandes conjuntos de datos customizados, y las herramientas de Education GPS pueden generar mapas sobrepuestos con representaciones, gráficas y diagramas de dispersión de datos. Se ha dicho que con Education GPS “la OCDE se ha convertido claramente en líder mundial del movimiento de los big data en la educación” (SAHLBERG y HASAK, 2016). Con la publicación de los resultados de PISA 2015, la OCDE creó Compare su País, una herramienta online completamente nueva que permite el acceso inmediato a los datos utilizando un mapa mundial interactivo. El usuario elige el país y cliquea para buscar información y análisis más detallados, la mayoría de ellos expuestos en tablas, gráficos y esquemas muy sencillos. Compare su País y Education GPS son tecnologías de visualización de bases de datos que demuestran el poder que la OCDE ha adquirido como centro de cálculo en la educación global, un centro que actúa de elemento orientativo igualitario para los sistemas educativos, con la representación comparativa de sus puestos en las tablas y clasificaciones internacionales. Sus técnicas de visualización, como los mapas y los gráficos, actúan como un modo de “gobernanza estética” o un arte visual de comparación política (GREK, 2016). También Pearson, la empresa educativa global, se ha convertido en otro contendiente como centro de cálculo y visualización en el mundo de la educación, en particular desde que, en 2012, Michael BARBER, su asesor jefe educativo (y anteriormente el asesor del gobierno británico que inició la Base Nacional de Datos sobre el Alumno) puso en marcha el banco de datos Curva de Aprendizaje. Esta base de datos de Pearson combina más de 60 conjuntos de datos de sistemas educativos de todo el mundo para que “investigadores y políticos puedan correlacionar los resultados educativos con otros sociales y económicos más amplios”. Definida como proveedora de “lecciones sobre rendimiento del país”, la Curva de Aprendizaje incluye datos nacionales de rendimiento (obtenidos, por ejemplo, de la Base Nacional de Datos sobre el Alumno) además de datos de PISA de la OCDE y de otras fuentes como la UNESCO, para elaborar un “Índice Global” de países clasificados por “logros educativos” y “habilidades cognitivas”. Como edu-empresa con importantes operaciones comerciales, Pearson se sitúa ella

116

misma en la Curva de Aprendizaje para identificar problemas políticos de los sistemas educativos de los distintos países, de modo que también puede obtener beneficios con la venta de soluciones políticas. En otras palabras, “Pearson genera conocimiento sobre su negocio para producir nuevas oportunidades de beneficio”: [La Curva de Aprendizaje] da a Pearson capacidad para analizar datos sobre el rendimiento de los sistemas nacionales y ofrecer a los países un informe sucinto de sus problemas políticos, todo ello vinculado a los posibles mercados para sus productos y servicios. (HOGAN y col., 2015, pág. 3) La Curva de Aprendizaje es altamente relacional porque permite juntar múltiples conjuntos de datos, y es expansible porque se puede ampliar rápidamente. Se añaden con frecuencia nuevos datos procedentes de sus diversas fuentes. En este sentido, la Curva de Aprendizaje proporciona a Pearson un conocimiento detallado y actualizado sobre sus mercados de destino y ofrece “caritativamente” a otros públicos el conocimiento de los hechos estadísticos de la educación a escala nacional, global y comparativa. Como instrumento político de repercusión pública, la Curva de Aprendizaje dispone de diversos instrumentos para la visualización de los datos, entre ellos mapas dinámicos y de fácil acceso para el usuario y series temporales con los que se pueden comparar y evaluar los países en el espacio y en el tiempo. El rendimiento educativo de los países desde el punto de vista de los logros y las habilidades cognitivas se representa en el sitio como “mapas de calor” de niveles comparativos de rendimiento. Además, el usuario puede generar “perfiles de países” que comparan visualmente “múltiples inputs educativos” (por ejemplo, el gasto público en educación, la ratio profesor-alumno o la “esperanza de vida” educativa) con “indicadores del output educativo” (las calificaciones obtenidas en PISA, los índices de graduación, la productividad en el mercado laboral), además de “indicadores socioeconómicos” (como el PIB y las estadísticas sobre delincuencia). La Curva de Aprendizaje, como Compare su País y Education GPS de la OCDE, es un instrumento de comparación pública global. Existen potentes técnicas de visualización política para observar el panorama educativo y con las que se pueden presentar una y otra vez cifras de manera estética con muy diversos fines y para usuarios y públicos muy distintos. En particular, las visualizaciones se suelen difundir online a través de plataformas mediáticas como Twitter, que actúan como una forma de evidencia visual comprimida del rendimiento educativo de los diferentes países. Las visualizaciones de datos se utilizan cada vez más en los big data para la política y el movimiento de la gobernanza digital, como forma de hacer inteligibles bases de datos muy grandes y complejas. En la práctica, la visualización de los datos puede ayudar a que los macrodatos sean más relevantes y personalizados para los públicos a los que van destinados, a observar y modelar posibles escenarios, establecer y cimentar expectativas, repasar y anotar ideas, construir modelos de realidad virtual, y elaborar explicaciones

117

explorables de conceptos o problemas complejos (SLEEMAN, 2016). Por lo tanto, como sitios fundamentales de visualización de datos que son, podemos considerar que actores como la OCDE o Pearson son centros de cálculo nuevos e ingeniosos, cuyos productos procesan y exponen información procedente de lugares remotos en formatos visuales fáciles de usar, estéticamente atractivos e inteligibles. Centros de cálculo como la OCDE o Pearson pueden reunir inmensas cantidades de datos educativos de todos los estados y países para generar una parrilla de visibilidad en la que el rendimiento nacional, medida mediante la suma del rendimiento de los alumnos, se hace comparable y pública a través de modos aparentemente científicos y no políticos de medición y presentación gráfica. Education GPS, Compare su País y la Curva de Aprendizaje hacen que la OCDE y Pearson se puedan considerar autoridades con experiencia metodológica y de diseño para re-presentar lo que se ha sometido a cálculo de formas que pueden influir en sus públicos. Michael BARBER, diseñador de la Curva de Aprendizaje, explica que esta “fomenta la política basada en datos” a través de la visualización de datos “para facilitar a las personas… su uso inmediato sin menoscabo de la integridad de los datos” (BARBER con OZGA, 2014, pág. 77). La visualización de los datos no es un logro neutro, sino que amplía la función retórica o persuasiva de los datos, y posibilita el uso de estos para elaborar argumentaciones y generar explicaciones sobre el mundo, y para convencer a otros de que tales representaciones, explicaciones y argumentaciones muestran el mundo tal como realmente parece (GITELMAN y JACKSON, 2013). Las manos y los ojos humanos, y las plataformas y los algoritmos de software, que intervienen en su exposición configuran las interpretaciones que la visualización de los datos posibilita, y los posibles significados que se puedan extraer de ella. Así pues, la visualización es socialmente productiva, porque dirige la atención a las correlaciones entre variables de datos y objetos que después se pueden procesar como ideas al tomar decisiones. Un producto como la Curva de Aprendizaje básicamente visualiza un espacio virtual de referencia con el que todos los sistemas educativos pueden ellos mismos medirse y monitorizarse; constituye un comparador virtual y un punto de referencia global para la evaluación, el enjuiciamiento y la actuación educativos. Con este tipo de técnicas visuales, Pearson pretende atraer a diversos públicos hacia las ideas que extrae de los patrones de procesos de aprendizaje presentes en los datos que maneja, y lograr la aceptación de que los modelos que construye a partir de los datos representan el estado de la educación tal como realmente es, y no como pudiera interpretarse de otro modo. Una de las razones de que Pearson lo haya logrado es el carácter interactivo de la Curva de Aprendizaje, de forma que las visualizaciones de datos que presenta se pueden manipular y modificar. Michael BARBER define tal realidad como un producto de “cocreación” que permite que el público “juegue” con los datos y “junte todas las piezas” de forma más “divertida” que la de los informes políticos preformateados (BARBER con OZGA, 2014, pág. 84). Sin embargo, el propio diseño del interfaz interactivo para los datos delimita y

118

constriñe los tipos de análisis que se pueden hacer. Privilegia la comparación estadística de los países en detrimento de cualquier otro tipo de análisis, y en última instancia configura al usuario como analista comparativo y coproductor de datos. Esto agudiza la que CARVALHO (2014) denomina “plasticidad” del conocimiento gobernante, y que P IATTOEVA (2015) designa como “cifras plásticas”. Con la Curva de Aprendizaje, se fomenta que sean los públicos más que los especialistas quienes se responsabilicen de multiplicar los análisis, de visualizar los datos para distintos usos posibles, y de difundirlos en diferentes contextos. La Curva de Aprendizaje promueve la plasticidad popular o pública del conocimiento gobernante, pide la participación de sus públicos y a la vez configura los posibles análisis que estos puedan realizar, delimitando así el potencial interpretativo puesto a disposición, y estructurando en consecuencia lo que se pueda decir de los datos y lo que se pueda hacer con ellos. Estos productos de la visualización posibilitan un nuevo modo visual, estético e interactivo de diseño de políticas educativas y de escrutinio público.

Flujos digitales de datos en tiempo real Las bases de datos a gran escala como las que acabamos de exponer tienden a poner el énfasis en la comparación de los países o de las instituciones, unos y otras evaluados con los análisis de los conjuntos de datos reunidos a largos intervalos temporales a través de los censos escolares o de pruebas estandarizadas. Sin embargo, instrumentos más nuevos diseñados para ayudar a legisladores y otros responsables educativos convierten el flujo de datos y su consiguiente retroalimentación en un proceso en tiempo real centrado en la comparación de individuos. La captura, el análisis y la presentación de los flujos digitales inmediatos de información educativa han sido posibles gracias a los avances producidos en la analítica de macrodatos, el aprendizaje automático y la analítica predictiva y prescriptiva. Pearson, la empresa comercial educativa, es uno de los defensores más visibles de la reforma educativa impulsada por los datos. En particular, promueve el seguimiento y el control continuos del “flujo de datos” a través de una analítica en tiempo real, más que con la recolección de datos mediante evaluaciones puntuales. A finales de 2014, Pearson publicó un informe (del que era coautor Michael BARBER) que proponía una “revolución educativa” en el uso de los big data. El informe aboga por el uso “de software inteligente y una diversidad de dispositivos que faciliten la reunión no molesta de datos del aula en tiempo real”, y por “seguir el aprendizaje y la enseñanza del alumno y la clase individuales todos los días para personalizar y el aprendizaje con ello optimizarlo” (HILL y BARBER, 2014, pág. 55). En particular, Pearson promueve la “aplicación de la analítica de datos y la adopción de nuevos sistemas de medición para generar ideas más profundas a partir de una información más rica sobre el aprendizaje y la enseñanza”, así como “sistemas inteligentes de aprendizaje online” y el uso de la analítica de datos y de

119

sistemas automáticos de inteligencia artificial para obtener “retroalimentación permanente con el fin de personalizar la instrucción y mejorar el aprendizaje y la enseñanza” (2014, pág. 58). Además, el informe de Pearson promueve una revolución en la política educativa. Sus autores defienden un cambio de foco, el paso de la gobernanza de la educación a través de la institución escolar, al “estudiante como foco de la política educativa y la atención conjunta a la personalización del aprendizaje” (HILL y BARBER, 2014, pág. 23). En pocas palabras, el informe pretende hacer de la analítica inteligente el instrumento político fundamental con el que la política se concentre en el seguimiento inmediato del individuo, en lugar de la medición planificada y secuenciada de la institución o el sistema. En este sentido, los autores señalan que la propia OCDE avanza hacia nuevas formas de aprendizaje automático en sus tecnologías de evaluaciones internacionales, utilizando “una evaluación basada completamente en el ordenador en la que el estudiante actúa con un colaborador simulado o ‘avatar’ para resolver un problema complejo” (2014, pág. 49). Una de las manifestaciones del uso de los big data en la gobernanza educativa son los Computer Adaptive Testing, CAT (tests adaptativos informatizados). El funcionamiento de los CAT se basa en la realización de análisis continuos, automáticos e inmediatos de las respuestas de una persona en un determinado test o examen, utilizando los datos generados en las situaciones de test para hacer previsiones sobre el progreso futuro. El sistema mide si las respuestas a las preguntas son correctas y cuánto tarda en responder quien hace el test, y después, como respuesta a ambas circunstancias, adapta automáticamente la materia del test: Una de las promesas un tanto utópicas de la mediciones de los CAT es que pueden funcionar como “máquinas docentes” porque son capaces de responder a los patrones del alumno más deprisa que el profesor individual o un test convencional. En este sentido, reflejan claramente una filosofía de gestión técnica de la educación. Además, el aprendizaje se construye como algo evolutivo, medible y formado mediante un conocimiento, una destreza o una actuación exteriores que los estudiantes pueden “interiorizar”. (T HOMPSON, 2016, pág. 4) Los sistemas CAT se están aplicando en Australia como parte específica del Programa de Evaluación Nacional: Lengua y Matemáticas (NAPLAN). Los datos recogidos previamente mediante pruebas de lápiz y papel de NAPLAN ya están disponibles en la web My School como mecanismo de dación pública de cuentas. Con el sistema CAT los exámenes de NAPLAN son manifiestamente más rápidos y más precisos: Se asegura, además, que las pruebas online reportan muy diversos beneficios, desde mejores resultados del alumno gracias a unos mejores datos para la enseñanza

120

efectiva, mayor precisión en vistas a la rendición de cuentas, y la posibilidad de vincular las pruebas nacionales con otras internacionales… incluso los protocolos digitales interoperables que vinculan bases de datos para que estos sean más completos. En resumen, uno de los objetivos de los exámenes NAPLAN online es crear una infraestructura de datos que conecte bases de datos, acelere el proceso de retroalimentación y sea más exacta y más atractiva para los alumnos —la rendición de cuentas y la auditoría como “invitación” a participar y ser objeto de la participación—. (T HOMPSON, 2016, pág. 5) El uso de sistemas CAT en tiempo real dentro de NAPLAN es, por tanto, parte de “una reconfiguración de las intensidades, o ‘velocidades’, de la vida institucional” porque “ahora está conectada a redes de información” (T HOMPSON, 2016, pág. 2), lo cual convierte la recolección, el análisis y la retroalimentación de los ítems de los exámenes en un bucle sincrónico que funciona a gran velocidad. El uso de este tipo de tecnologías siempre está impulsado por deseos, supuestos e imaginarios subyacentes. ROBERTS-MAHONEY y col. (2016, pág. 2) han rastreado la aparición de un discurso político en torno a la analítica de los big data en la educación infantil y primaria de Estados Unidos, con un análisis crítico de documentos políticos relacionados con las emergentes “tecnologías de aprendizaje personalizado” de la minería de datos, la computación algorítmica, la analítica del aprendizaje y los sistemas de aprendizaje adaptativo, de acuerdo con los valores y los supuestos que animan su uso y definen su finalidad: Los defensores de la tecnología de aprendizaje personalizado… señalan que si las plataformas digitales como Google, Netflix, Amazon y Facebook han transformado nuestra forma de hacer negocios, trabajar, comprar, comunicarnos, viajar, organizarnos y entretenernos, tiene pleno sentido aplicar la lógica operacional de estas plataformas a los sistemas educativos en aras del progreso y la innovación. Estos autores entienden las tecnologías impulsadas por los datos como parte de un movimiento de “reforma escolar corporativa” que pone el énfasis en la libre competencia de los mercados y la gestión de empresa como claves de la mejora educativa. Los procesos de reforma corporativa incluyen la privatización y comercialización de las escuelas, y hacer a estas y a los profesores responsables del rendimiento académico del alumno mediante la estandarización del currículo, sistemas de evaluación del profesor y exámenes de alta repercusión. Señalan 12 informes fundamentales de Estados Unidos (de departamentos del gobierno, empresas comerciales y grupos de defensa) que abogan por el uso de las tecnologías impulsadas por datos, y explican cómo estas producen un discurso básico del desarrollo del capital humano que pone el acento en la preparación profesional y el potencial para la productividad económica en sectores basados en la tecnología y de alta cualificación. Estos documentos políticos y los instrumentos políticos

121

técnicos que promueven: Sitúan la enseñanza y el aprendizaje en un reducido conjunto de objetivos y fines económicos que subrayan el desarrollo del capital humano y la formación de los futuros trabajadores… defienden la expansión de la instrucción y la toma de decisiones basadas en datos, y conceptualizan el aprendizaje como la adquisición de habilidades concretas y la modificación de la conducta, con independencia de contextos sociales más amplios y de formas culturalmente relevantes de conocimiento e indagación. (ROBERTS-MAHONEY y col., 2016, pág. 2) Dicho de modo sencillo, “la enseñanza y el aprendizaje se miden y cuantifican cada vez más de modo que posibilite un análisis de la relación entre los inputs (por ejemplo, la financiación) y los outputs (por ejemplo, el rendimiento del alumno) con el objetivo de maximizar el crecimiento económico y la productividad e incrementar el capital humano” (FONTAINE, 2016, pág. 2). Junto a este énfasis en el desarrollo del capital humano, hay un reposicionamiento de los profesores como entrenadores o guías cuyo juicio profesional deber ser como mínimo aumentado, cuando no desplazado, por formas objetivas de evaluación y valoración algorítmicas. En algunos casos, los defensores de los big data tratan a los profesores como “recolectores de datos” que “ya no toman decisiones pedagógicas, sino que se ocupan de gestionar la tecnología que va a tomar por ellos las decisiones referentes a la instrucción”, ya que “las decisiones curriculares y las prácticas docentes se reducen a algoritmos y están determinadas por sistemas de base informática que crean un ‘aprendizaje personalizado’, lo cual permite que la toma de decisiones se produzca fuera del aula” (ROBERTS-MAHONEY y col., 2016, pág. 10). El movimiento de reforma corporativa de la educación que estas tecnologías representan y las aspiraciones políticas que lo animan parten fundamentalmente de la idea de que las decisiones sobre el currículo, la didáctica y la evaluación deben pasar de la escuela pública a los proveedores privados de tecnología comercial y plataformas digitales de aprendizaje, de que la enseñanza debe estar orientada sobre todo hacia una preparación eficaz de los alumnos para la economía global del siglo XXI, y de que hay que minimizar la autonomía profesional del profesor, porque la experiencia, la práctica y las deliberaciones se consideran menos relevantes, menos precisas y menos eficientes que los algoritmos (SALTMAN, 2016). Los nuevos instrumentos de datos inmediatos como CAT y las tecnologías de aprendizaje personalizado pasan de poner el énfasis en la “rendición íntima de cuentas” de la institución a través de sus conjuntos históricos de datos, a ponerlo en una “analítica íntima” del individuo a través de flujos digitales de datos en tiempo real. Como ya hemos visto, se ha escrito mucho sobre la comparación en la gobernanza educativa, pero la mayor parte de esta literatura se ocupa de la comparabilidad global de diferentes países facilitada por la recolección y el análisis de series de datos de evaluación internacionales.

122

Las plataformas de analítica de macrodatos cambian el foco de estas técnicas de comparación, porque permiten comparar de forma recurrente el flujo de datos del alumno individual con conjuntos de datos globales de (potencialmente) millones de otros estudiantes. Con la monitorización del rendimiento del individuo en una determinada tarea, ese rendimiento se compara de forma continuada con normas deducidas algorítmicamente de un conjunto global de datos, una comparación que después se utiliza para customizar la instrucción futura. Igualmente significativo es que muchas plataformas de analítica están programadas con capacidad para anticipar o predecir el probable progreso futuro de los alumnos. Las técnicas de analítica predictiva forman la base de muchos medios sociales y “sistemas de recomendación” al usuario (por ejemplo, Amazon y Spotify) (BULGER, 2016). Trasladado al ámbito educativo, este tipo de generación predictiva de perfiles ofrece a las instituciones una inteligencia procesable que se puede usar para determinar adecuadas intervenciones pedagógicas preventivas. Además de las funciones de analítica predictiva, algunas plataformas de “aprendizaje adaptativo” también poseen capacidades de “analítica prescriptiva”. La analítica prescriptiva puede automatizar las actuaciones en un bucle de retroalimentación que puede modificar, optimizar o prever los resultados. La lógica de los big data de los medios sociales se expresa firmemente en las prácticas de gobierno de la educación mediante ese tipo de instrumentos, que funcionan siguiendo los mismos principios de sistemas de recomendación como los de Facebook o TripAdvisor. De este modo, la lógica de la comparación global se convierte en un evento en tiempo real concentrado a escala del individuo en medio de las masas globales. Básicamente, la analítica que se propone para el accionamiento del análisis político y el proceso de toma de decisiones anticipa una nueva forma de gobernanza educativa “en tiempo futuro”. Con esta analítica, todo estudiante individual se convierte en objeto de una acumulación constante y recurrente de datos, su análisis y presentación, de una retroalimentación inmediata, de predicciones probabilísticas y de prescripciones en futuro para la actuación pedagógica. Estas capacidades analíticas complementan las actuales técnicas de gobernanza asentadas en grandes bases de datos, como las de los departamentos de educación de los distintos países, las agencias estadísticas y organizaciones internacionales como la OCDE. Pero el uso de las prácticas de los big data en las escuelas también tiene el objetivo de acelerar las temporalidades de la gobernanza educativa, convirtiendo la recolección de datos, los procesos de cálculo y sus consecuencias en un procedimiento automático e inmediato activado “cerca” del aula y regulado “a distancia” por centros especializados en cálculo algorítmico. Los datos de la OCDE influyen en el comportamiento de los legisladores nacionales en distintos intervalos temporales, en cambio, los defensores de la analítica de macrodatos aspiran a incidir en la conducta del alumno individual en tiempo real y de forma automática, para determinar su rendimiento y progreso en clase, y así modelar su conducta de acuerdo con normas deducidas de una creciente base de datos global. Basadas en la lógica

123

económica, las normas presentes en la base de datos tienden a centrarse en la medición, la monitorización y la consiguiente disposición prescriptiva del desarrollo del capital humano. Estos avances forman parte de la transformación llamada “política rápida” (P ECK y T HEODORE, 2015). En el campo de la educación, los datos cuantitativos han adquirido especial importancia para la política rápida, ya que la evaluación, la medición, la clasificación y la comparación contribuyen a crear nuevos flujos y continuidades capaces de superar la distancia física en un mundo digital acelerado y cada vez más interconectado (LEWIS y HOGAN, 2016). Las cifras forman el flujo de evidencias de la política rápida, de modo que los complejos problemas sociales, políticos y económicos, se pueden traducir a tablas, diagramas y gráficos de fácil comprensión y rápida circulación entre los enclaves legislativos con la ayuda de agentes transnacionales, y pueden influir en la toma de decisiones y otros procesos. El potencial de la analítica de datos es el de acelerar procesos de política rápida por encima de los ritmos temporales inmediatos del flujo digital de datos. Las tecnologías de política rápida en tiempo real representan una nueva forma de intervención activa en la gobernanza de la educación.

Conclusión La gobernanza digital sigue siendo una forma emergente de práctica de gobierno pero, en el campo específico de la educación, la actual aceptación de un imaginario asociado a los big data digitales indica que se está dando paso a la gobernanza digital de la educación. En este modelo, las autoridades comienzan (o se las anima) a participar en el flujo temporal digital de datos educativos tal como estos se generan, para después activar los datos obtenidos de ese flujo para una mejor toma de decisiones relativas a la política, la gestión institucional e incluso la práctica pedagógica en el aula. Los conjuntos de datos históricos y ligados al tiempo relacionados con los actuales regímenes de gobierno a través de los datos —la llamada “infraestructura de rendición de cuentas basada en exámenes” (ANAGNOSTOPOULOS y col., 2013)— están aumentando con enfoques de política rápida que utilizan flujos inmediatos de datos que se pueden analizar de forma automática para después actuar sobre ellos. La gobernanza educativa se está practicando cada vez más mediante nuevas técnicas digitales y métodos de analítica política, de modo que “se crean nuevas disposiciones de gobierno que vinculan el ámbito digital del código, el software y la programación con diversos ámbitos de la política, la administración o la práctica escolar” (HARTONG, 2016, pág. 532). La integración de muchos tipos de prácticas educativas en entornos altamente codificados significa que los valores, las visiones del mundo y los objetivos de programadores, diseñadores de algoritmos y de interacción entre humanos y ordenadores, los de analistas especialistas en educación y expertos de los departamentos educativos gubernamentales, y los de mediadores independientes de laboratorios de datos

124

y de ideas y de empresas comerciales y consultoras, pueden actuar a distancia para dirigir los modos de conocer las instituciones, los asuntos y a los profesionales educativos y actuar sobre ellos. Así pues, la expresión “gobernanza digital de la educación” refleja el desplazamiento de la dirección educativa a nuevos enclaves digitalizados expertos en la recolección y el análisis de datos, y, además, reconoce el papel del software, el código y los algoritmos digitales en el gobierno y la dirección del comportamiento de los diversos actores e instituciones educativos. La educación se gobierna cada vez más mediante los conocimientos obtenidos de sus rastros y flujos temporales digitales, y con nuevas formas de experiencia técnica como la ciencia y la analítica de datos que hacen posible la producción de conocimiento sobre los problemas educativos y la concreción de sus posibles soluciones. Tales técnicas de gobernanza digital de la educación se aplican hoy en muchos departamentos gubernamentales, pero también los aplican otras autoridades y expertos educativos como las organizaciones internacionales, las agencias independientes de análisis de datos y las empresas comerciales, una realidad de no menor importancia que la anterior. En todo ello, las actuales técnicas de rendición de cuentas, performatividad y desarrollo del capital humano se están recomponiendo, reforzando y reproduciendo, se les da mucha más velocidad, una capacidad de mucho mayor volumen y se amplía su alcance para que abarquen una mayor diversidad de inputs. Así pues, aunque la gobernanza digital como estrategia de Estado siga estando subdesarrollada, las aspiraciones de gobernar con macrodatos importantes sectores de la sociedad como el de la educación van aumentando. Está emergiendo una visión futura compartida de la gubernamentalización de los big data. En otras palabras, la gobernanza digital forma parte de un imaginario más amplio de los macrodatos al que hoy se puede llegar a través de prácticas e infraestructuras de datos específicas. En ciertos sentidos, la educación actúa de enclave en que se someten a prueba técnicas de gobernanza digital destinadas a convertirse en estrategia de Estado.

125

126

127

La minería de datos educativos, la analítica del aprendizaje y las plataformas de aprendizaje adaptativo se han convertido en tecnologías fundamentales para la mejora imaginada de la educación. Cuando Max Ventilla, antiguo ejecutivo de Google, creó una cadena de escuelas nuevas en San Francisco en 2013, su intención era transformar el modo de dirigir los centros educativos. La cadena ALTSCHOOL que creó se ha convertido en lo que los emprendedores de Silicon Valley llaman una empresa full-stack o de “pila llena”: una organización formada a la vez por una plataforma digital y un servicio físico, por ejemplo, Uber en el sector del transporte y Airbnb en el del hospedaje. En esas escuelas trabajan profesores y también ingenieros de software y analistas de datos, de modo que parte del tiempo de desarrollo de su personal se dedica a “hackatones” en los que colaboran para delegar “tareas de robot” como la de la entrada rutinaria de datos en el software. En la base de las escuelas que forman ALTSCHOOL está una plataforma de software compuesta de una potente herramienta informática y de analítica de datos que: Mediante evaluaciones del trabajo del alumno, los proyectos y los estándares de terceras partes, forma una imagen completa del progreso del alumno en cada área. El educador puede ver de forma inmediata dónde el alumno ha demostrado plena competencia y dónde necesita mejorar determinadas habilidades.

128

(ALT SCHOOL, 2016) La plataforma de software, definida como un nuevo “sistema operativo central para las escuelas”, se compone de dos aplicaciones principales: la herramienta “Playlist” para los alumnos y la herramienta “Progression” para los profesores, además de una aplicación para la comunicación con los padres. “Una Playlist es una lista de ‘pendientes’ customizada para que el alumno gestione su trabajo”, se dice en la web de ALTSCHOOL (ALTSCHOOL, 2016). “Los educadores administran una Playlist para cada estudiante. En ella, el alumno puede ver sus deberes, comunicarse con el profesor y entregar sus trabajos. Después, los educadores pueden retroalimentar al alumno y evaluar su trabajo”. Además, la herramienta Progression para el profesor “ofrece un retrato completo del progreso del alumno en Matemáticas, Lengua y Desarrollo socioemocional. Sigue la práctica y la trayectoria del alumno… y proporciona al educador una rica visión de experiencias de aprendizaje, patrones, éxitos y áreas que necesitan apoyo. Las ideas obtenidas con Progression sirven al educador para planificar las experiencias de aprendizaje futuras y fijar objetivos” (ALTSCHOOL, 2016). Estas herramientas, afirma el fundador de ALTSCHOOL, forman parte de una “concepción revisada de lo que ha de ser el profesor: ‘Estamos cambiando realmente la función del educador, que pasa a ser más un detective habilitado por los datos’” (MEAD, 2016). Junto a ello, la filosofía y los valores por los que se rige ALTSCHOOL parten de la idea del progreso centrado en el alumno. ALTSCHOOL pone el énfasis en “la personalización del aprendizaje en función de las necesidades y los gustos del alumno” mediante “el aprendizaje experiencial” y “el aprendizaje social y emocional”. En otras palabras, ALTSCHOOL es tanto una cadena de centros privados que se rigen por los principios progresistas del aprendizaje personalizado y centrado en el alumno, como una empresa de desarrollo de software con ambiciones de llevar su producto a niveles superiores. En un reciente perfil de ALTSCHOOL, la revista Wired decía que la cadena era: Un claro experimento del Área de la Bahía con una filosofía educativa conocida como aprendizaje centrado en el alumno… Sin embargo, ALT SCHOOL añade a esta filosofía gran cantidad de tecnología para gestionar el caos, y lo remata con un claustro de profesores de ideas avanzadas con libertad para customizar la enseñanza para cada alumno… Esto coloca a ALT SCHOOL en la intersección de dos movimientos educativos en rápido crecimiento: por un lado, las muchas startups de tecnologías educativas que desarrollan aplicaciones para las escuelas; por otro, los miles de centros educativos progresistas que cada vez más se rigen por la idea de una educación personalizada. (LAPOWSKY, 2015) Un dato especialmente significativo es que Max Ventilla fue en su día el jefe de “personalización” de Google, uno de los principales ejecutivos responsables de Google Now, el servicio que rastrea las actividades online, la ubicación y la comunicación de sus

129

usuarios para ofrecer experiencias digitales automatizadas mediante algoritmos. Como ideal, la personalización ha captado por igual la imaginación de nuevas startups de tecnología educativa y de inversores de capital riesgo, y ha contribuido a la inversión masiva en tecnología educativa desde 2010 (EDSURGE, 2016). ALTSCHOOL es, básicamente, una mezcla de plataforma de software, centro educativo y compañía emprendedora, de modo que traslada la experiencia de personalización de los medios sociales, y los sistemas técnicos específicos, al aprendizaje experiencial progresista centrado en el alumno. En el otoño de 2016, ALTSCHOOL anunció que iba a empezar a ofrecer su plataforma de software a otras escuelas, con el objetivo de “aplicar la fórmula de la compañía a una red de escuelas públicas, privadas y concertadas de todo Estados Unidos” (ALBA, 2016). En otra pieza de su perfil se señalaba que los fundadores e inversores de ALTSCHOOL confiaban en que “contribuyera a ‘reinventar’ la educación americana: primero, con la innovación de sus microescuelas; segundo, facilitando software a los educadores que quieran montar sus propias escuelas; y, por último, ofreciendo su software para uso en centros públicos de todo el país, un objetivo que la empresa espera alcanzar en un período de entre tres y cinco años” (MEAD, 2016). ALTSCHOOL es significativa porque demuestra cómo el discurso del aprendizaje personalizado centrado en el alumno se utiliza para estructurar y justificar el uso de la analítica de macrodatos directamente dentro del aparato de la escuela. Sin embargo, esta idea de escuela impulsada por los datos no es mero fruto de ambiciones empresariales, sino producto de un auge reciente de la concepción del aprendizaje y de las instituciones y las prácticas educativas desde la perspectiva científica de los datos. En Learning with Big Data: The future of Education, MAYER-SCHONBERGER y CUKIER (2014, pág. 4) señalan que “los big data invaden todos los aspectos de la educación, con profundas implicaciones para la forma de aprender del mundo”: Los big data nos dan ideas completamente nuevas sobre lo que funciona y lo que no funciona. Son una forma de mejorar el rendimiento del alumno mostrando aspectos del aprendizaje que antes era imposible observar. Las clases se pueden adaptar a las necesidades individuales del alumno, estimulando así su comprensión y mejorando sus notas. Ayudan a los profesores a identificar qué es más efectivo… y a los administradores y legisladores educativos, a ofrecer más oportunidades a menor precio. “Por primera vez”, concluyen los autores, “disponemos de una robusta herramienta para entender cómo enseñamos y cómo aprendemos”. Como bien indican estas palabras, todas las posibilidades de aprendizaje con big data que los autores relacionan se asientan fundamentalmente en prácticas científicas de datos, métodos y formas de pensar basadas en la objetividad y la neutralidad técnicas de la observación y el análisis empíricos. Está emergiendo un nuevo tipo de ciencia de datos como forma entender el aprendizaje, un sistema que entusiasma a los comentaristas y promueve para la escuela nuevos sistemas

130

de analítica de datos como los de ALTSCHOOL. En este capítulo analizo la aparición y el desarrollo del campo de la “ciencia de datos educativos” (véase también WILLIAMSON 2016b, 2016c). Se trata de un campo emergente de investigación y desarrollo académico y comercial centrado en el diseño de técnicas y aplicaciones para el análisis de datos educativos y del aprendizaje, mediante técnicas como la minería de datos educativos y la analítica del aprendizaje (BAKER y SIEMENS, 2013; COPE y KALANTZIS, 2016). El capítulo se ocupa de modo especial de desvelar la “vida social” de la ciencia de datos educativos, tanto desde el punto de vista de su producción social como campo —formado a partir de la amalgama de la ciencia de datos y las “ciencias del aprendizaje”, además de aspectos de la psicometría y la metrología— y desde el de su productividad social como conjunto de técnicas y aplicaciones que están reconfigurando el modo de conocer el aprendizaje, medirlo y actuar sobre él mediante los datos. Después, me ocupo más en general de las implicaciones que la ciencia de datos educativos tiene para los estudios sobre educación. Se ha dicho que en “la era del aprendizaje mediado digitalmente y registrado incidentalmente, las ciencias de datos pueden convertir en anacrónicos (caros, ineficaces, imprecisos y muchas veces irrelevantes) muchos de nuestros métodos de investigación tradicionales”, y que “es necesaria la creación de nuevas infraestructuras para la investigación” y marcos éticos para los futuros estudios educativos (COPE y KALANTZIS, 2015, págs. 219, 229). Tales afirmaciones apuntan al examen de cómo la ciencia de datos educativos produce “una infraestructura de big data” que puede confinar la producción de conocimiento y el desarrollo de teorías en enclaves comerciales y laboratorios académicos especializados, ambos perfectamente dotados de recursos. Tal circunstancia plantea cuestiones fundamentales de privacidad y protección, en este caso los del alumno. Por último, en la conclusión se reflexiona sobre el modo en el que la ciencia de datos educativos está reconfigurando instituciones educativas como las escuelas, los institutos y las universidades como “plataformas metrológicas”, donde la ciencia de la medición define los propios fines y prácticas de la institución. La ciencia de datos educativos es ante todo un campo de estudio y desarrollo, pero exige que sus objetos de estudio —escuelas, universidades y aulas— cuenten con todos los instrumentos necesarios para la recolección de datos. Las técnicas y aplicaciones de esta ciencia han de estar integradas en el programa universitario o en el aula escolar mediados digitalmente. ALTSCHOOL es tal vez el prototipo de prácticas de ciencia de datos educativos integradas en el entorno y el funcionamiento de la escuela. La ciencia de datos educativos constituye, fundamentalmente, una infraestructura para el análisis de los macrodatos y su aplicación a la educación. Aúna tecnologías y prácticas de todo el ámbito I+D comercial y disciplinas de investigación académica, y produce sistemas de analítica informática que se pueden incorporar al aparato administrativo y pedagógico de las instituciones. Mi intención, como en los demás capítulos, es analizar cómo el imaginario de los big

131

data ha empezado a animar los avances técnicos y materiales que están cambiando la naturaleza y los fines de la educación. Gran parte de lo que se dice en el capítulo gira en torno a la aplicación de los algoritmos a la actuación de la ciencia de datos educativos, un campo fundamentalmente algorítmico en sus operaciones, en el sentido de que en sus análisis utiliza en abundancia formas de cálculo algorítmicas, y de que sus promotores en cierto modo apelan a la aparente neutralidad y objetividad de los algoritmos. En este sentido, la ciencia de datos educativos trata los algoritmos como cosas materiales que pueden realizar un trabajo productivo y también como concepto acreditado: Entender el poder social de los algoritmos es entender el poder de los algoritmos como código intentando al mismo tiempo comprender cómo las ideas del algoritmo pasan al mundo, cómo el discurso configura a sus estructuras y qué es lo que se dice que son capaces de hacer. (BEER, 2017, pág. 10) Por esta razón, el método que empleo en este capítulo es considerar el marco social y discursivo más amplio en el que se encuadra la ciencia de datos educativos como campo algorítmico de experiencia y actuación: es decir, su “vida social” como campo de pensamiento y acción especializado. Empiezo por situar mi análisis de la ciencia de datos educativos en los recientes debates sociológicos sobre la “vida social de los métodos”, para examinar después la “socialización” de la ciencia de datos educativos tal como ha surgido de enclaves especializados en ámbitos de actividad académicos y comerciales.

La vida social de los métodos La ciencia de datos educativos engloba técnicas de investigación sobre educación y aprendizaje, y el desarrollo de nuevas aplicaciones. En este sentido, es un campo en gran medida metodológico que incluye una amplia diversidad de actividades I+D basadas en datos, como la analítica de macrodatos, la minería de datos, la analítica del aprendizaje y el desarrollo y la verificación de una plataforma de aprendizaje adaptativo. Como campo de experiencia metodológica, la ciencia de datos educativos se ocupa principalmente del desarrollo de técnicas y aplicaciones analíticas en el ámbito de la enseñanza superior (ES). Con la reciente proliferación de Cursos Online Abiertos Masivos (MOOC, Massive Open Online Courses), en los centros de ES se han desarrollado sistemas de gestión del aprendizaje y la disponibilidad de la analítica institucional del campo de la inteligencia empresarial, todo lo cual ha generado figuraciones de la “universidad inteligente” impulsada por los big data (LANE, 2014). Vendedores interesados de estos sistemas de software dirigidos por datos han establecido los sistemas de la ciencia de datos educativos en el ámbito de la universidad. Muchas universidades ofrecen MOOC como parte de su aparato docente y utilizan sistemas de gestión, analíticas y herramientas de visualización de datos, por ejemplo, las tablas de datos, como sistemas de apoyo para la planificación

132

y la gestión estratégicas (WOLF y col., 2016). Sin embargo, la ciencia de datos educativos ha empezado a extender su imaginario de la educación impulsada por los big data también al sector de la enseñanza no universitaria. Por ejemplo, el gobierno de Nueva Zelanda anunció un nuevo marco regulador para el aprendizaje online que abrirá un mercado para que cualquier proveedor privado o comercial obtenga financiación para ofertar educación online, en competencia con las escuelas públicas (New Zealand Ministry of Education, 2016). Esta evolución no solo conecta las plataformas online que se pueden utilizar para reunir y analizar datos del estudiante con los centros públicos, sino que también apunta a la posibilidad de que las escuelas públicas convencionales queden incluso marginadas porque la flexibilidad de los cursos online atraiga más a los estudiantes. Este cambio, si se produce a gran escala, sin duda abriría la puerta a la expansión generalizada de las técnicas de la ciencia de datos educativos más allá de la ES. ALTSCHOOL es un caso prototípico de integración de aplicaciones de la ciencia de datos educativos como una especie de “sistema operativo” que estructura todo el sistema administrativo y docente de la escuela. En particular, a finales de 2016, en Estados Unidos, con la llegada de una nueva administración, empresas comerciales, fundaciones sin ánimo de lucro y coaliciones de campaña manifestaban un renovado entusiasmo por la educación basada en datos. Nuevos grupos de presión de la reforma educativa como la Fundación para la Excelencia Educativa, KnowledgeWorks, Escuelas Preparadas para el Futuro y el Consocio de Tecnología para la Educación, se habían percatado de las nuevas oportunidades de lanzamiento de plataformas informáticas para el aprendizaje personalizado, además de un mayor apoyo a los centros concertados (LEVY, 2016; P ACE, 2016). Como indican estos ejemplos, la ciencia de datos educativos aspira a aplicar su experiencia a los centros no universitarios y a los de enseñanza superior, y también a diversos tipos de entornos de aprendizaje no formal online. Lo que hasta la fecha se ha conseguido en la ES no es más que un indicio de sus ambiciones de progresar en la aplicación de tecnologías de analítica de datos a todo el espectro de la oferta educativa. Como campo primordialmente metodológico, la ciencia de datos educativos se debe situar en los debates recientes sobre la “vida social de los métodos”. Por tal se entiende una aceptación crítica de los dispositivos metodológicos que se opone a considerarlos simples herramientas técnicas, y que hace de sus prestaciones y capacidades objeto de indagación científica social (SAVAGE, 2013). Desde esta perspectiva, los métodos son sociales porque están determinados por las circunstancias sociales, culturales, económicas y políticas en que se han producido y de las que forman parte (LAW y col., 2011). Los métodos se diseñan con unos fines determinados, mediante el trabajo de sus defensores, como dispositivos para examinar, ver, conocer e interpretar el mundo. Los métodos también son sociales porque a su vez ayudan a configurar el mundo. Los descubrimientos realizados con la investigación llevada a cabo con determinados

133

dispositivos metodológicos no son facsímiles objetivos de un mundo existente, sino consecuenciales para “las formas de saber” y de actuar en él (RUPPERT y col., 2013, pág. 24). Los métodos de estudio de los big data han sido el objeto particular de la vida social de los estudios sobre metodología. La razón es la amplia promoción de los macrodatos como ventana estadística a las realidades sociales, y su percepción como representantes de una innovación en la ciencia social (LUPTON, 2015a). De ello se deduce que dispositivos metodológicos digitales como las tecnologías de analítica y minería de datos, reconfiguren de modo fundamental las formas en que se pueda hacer ciencia social, y los tipos de análisis, interpretaciones e ideas sobre los mundos sociales que esas tecnologías posibilitan (MARRES, 2012). Los nuevos “métodos digitales” permiten explorar de nuevas formas los datos digitales, y generan nuevas ideas que pueden cambiar el modo de percibir los fenómenos sociales y la posterior actuación sobre ellos (ROGERS, 2013). La idea de “métodos socializadores” registra un doble proceso de producir y aplicar métodos socialmente, y de utilizarlos para interpretar el mundo social y determinar nuevas normas sociales en torno a ellos (RUPPERT y col., 2013). Así pues, los apartados siguientes se ocupan de estos dobles procesos de socialización de los métodos, empezando por considerar los orígenes sociales, organizativos y disciplinares del campo de la ciencia de datos educativos.

Socialización de la ciencia de datos educativos La propia ciencia de datos educativos es un campo emergente interdisciplinar asentado en prácticas científicas de los datos y en conocimientos y métodos sacados de las “ciencias del aprendizaje” psicológicas y cognitivas (COPE y KALANTZIS, 2016). Como conjunto de prácticas, la ciencia de datos educativos se está desarrollando tanto en ámbitos académicos como en organizaciones comerciales, y representa una redistribución de métodos a través de las fronteras sectoriales (WILLIAMSON, 2017b). En una visión general histórica del campo emergente, P IETY y col. (2014) definen la ciencia de datos educativos como una mezcla de “Analítica Académica/Institucional”, “Analítica del Aprendizaje/Minería de Datos Educativos”, “Analítica del Estudiante/Personalización” y “Mejora Instruccional Sistémica”. En los últimos diez años, estas áreas de estudio y desarrollo han empezado a converger en torno a preguntas, problemas y supuestos compartidos, en particular con la formación de determinadas asociaciones profesionales, diversas conferencias y revistas académicas. Estos autores subrayan en particular cómo, a partir de más o menos 2005, una comunidad de investigadores empezaron a converger en torno a la minería de datos educativos, y de 2010 en adelante se unieron a la comunidad de analítica del aprendizaje para formar un campo que “ha comenzado a recibir la atención conjunta de los legisladores federales y los creadores de fundaciones, una comunidad de la que se dice a

134

menudo que se ocupa de los ‘Big Data’ en la educación” (P IETY y col., 2014, pág. 3). Una comunidad a la que los autores denominan “movimiento sociotécnico” con intereses comunes que traspasan las fronteras de sus comunidades originales. Por movimiento sociotécnico entienden “las condiciones posibilitadoras y las tecnologías fundamentales que emergen en los distintos sectores y dan origen a diversas innovaciones que a veces pueden parecer inconexas, pero que suelen ser interdependientes y mutuamente relacionadas” (2014, págs. 4-5). Señalan también que cuando “las expectativas de la sociedad son tales que las innovaciones llegan en un momento en que existe otro interés general por los tipos de cambios que las innovaciones hacen posibles”, puede cobrar impulso un movimiento sociotécnico (2014, pág. 5). Por ello, dicen, en los últimos años ha habido una mayor capacidad de producir datos y más apetito público de utilizarlos en muchos ámbitos de la educación. Insisten también en que nuevos tipos de evidencia — archivos de registro, registro de conversaciones, evaluaciones entre iguales, búsquedas y navegación online, etc.— están planteando grandes preguntas y “perturbando” las formas tradicionales de trabajo de la investigación educativa, “actuando de modo parecido al de las innovaciones disruptivas que alteran las prácticas culturales e históricas y los sistemas de actividad” (2014, pág. 5). La ciencia de datos educativos abarca una red transectorial e interorganizativa de actores, tecnologías y prácticas. Uno de los actores fundamentales de esta red es el Lytics Lab (abreviación de Learning Analytics Laboratory) creado en la Universidad de Stanford para “desarrollar la ciencia del aprendizaje mediante el uso de datos y la tecnología digital” (Lytics Lab, 2016). El Lytics Lab es un punto importante en la corta vida de la ciencia de datos educativos. En 2011, sus fundadores organizaron una serie de eventos en red que convocaron a representantes de organizaciones de diversos departamentos académicos, fundaciones filantrópicas, departamentos del gobierno de Estados Unidos, empresas comerciales de tecnologías educativas, agencias de verificación y corporaciones informáticas, para desarrollar la agenda de la ciencia de datos educativos, una actividad que culminó en un importante informe (P EA, 2014). Gracias a estos esfuerzos de los fundadores del Lytics Lab, se ha desarrollado rápidamente una red de organizaciones centradas en la analítica del aprendizaje y la minería de datos educativos. La edu-empresa global Pearson, una de las organizaciones participantes en los talleres del Lytics Lab, ha creado el Centro para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo para practicar ella misma la ciencia de datos educativos, y un Centro para el Aprendizaje y la Evaluación de la Próxima Generación para desarrollar nuevos tipos de calificación y sistemas de análisis automáticos. El Centro de Inteligencia Conectada de la Universidad de Tecnología de Sídney, el Instituto de Tecnología de la Open University, el Laboratorio de Investigación LINK (siglas inglesas de Innovación del Aprendizaje y Conocimiento en Red) de la Universidad de Texas en Arlington, y el Centro de Investigaciones sobre Educación Digital de la Universidad de Edimburgo, son importantes enclaves académicos de I+D en analítica del aprendizaje,

135

con un sustancial cuerpo creciente de literatura sobre minería de datos educativos y analítica del aprendizaje (por ejemplo, BAKER y SIEMENS, 2013; CLOW, 2013; SIEMENS, 2013). La Sociedad para el Estudio de la Analítica del Aprendizaje (SoLAR, en sus siglas inglesas) y la conferencia de Conocimientos y Analítica del Aprendizaje (LAK) que ha organizado todos los años desde 2011, son también fundamentales en la emergencia del campo de la ciencia de datos educativos (SIEMENS, 2016). La ciencia de datos educativos, además de ser una red interoganizativa con su propia vida social, también desarrolla una agenda altamente performativa relativa a la transformación educativa. Como organización que enlaza a diversos actores y organizaciones de la red de la ciencia de datos educativos, SoLAR tiene objetivos explícitos en lo que se refiere tanto al I+D técnico como a la innovación pedagógica: Los avances en el modelado y la representación del conocimiento, la red semántica, la minería de datos, la analítica y los datos abiertos forman la base de nuevos modelos de desarrollo y análisis del conocimiento. La complejidad técnica de este campo emergente va acompañada de una transición dentro de todo el espectro del aprendizaje (la educación, el aprendizaje en el puesto de trabajo, el aprendizaje informal) hacia el aprendizaje social y en red. Estos ámbitos técnico, pedagógico y social deben dialogar entre sí para garantizar que las intervenciones y los sistemas organizados atiendan las necesidades de todos los interesados. (SIEMENS, 2016) Así pues, la ciencia de datos educativos se compone de una red de organizaciones y asociaciones, eventos y publicaciones con los que se pueden compartir conocimientos, técnicas y aspiraciones normativas, y se aplica mediante una diversidad de prácticas técnicas especializadas de minería y analítica de datos. La ciencia de datos educativos requiere una amplia experiencia técnica y metodológica. Se ha dicho que “la analítica del aprendizaje y la minería de datos educativos se ocupan de la cuestión de lo que puedan decirnos los datos a quienes los estudiamos, en cambio, hasta la fecha se ha prestado relativamente poca atención a la trayectoria mental, profesional y de las destrezas de quienes utilizan estas herramientas” (BUCKINGHAM SHUM y col., 2013). Los científicos de datos educativos han de ser expertos en analítica del aprendizaje, en minería de datos educativos y en otras muchas técnicas afines. Los orígenes de la ciencia de datos educativos se han situado en las técnicas informáticas de estadística computacional, minería de datos, aprendizaje automático, procesado del lenguaje natural e interacción entre humanos y ordenadores (P IETY y col., 2013). Para cultivar la experiencia del campo como “infraestructura de big data” para la educación, P EA (2014), fundador y director del Lytics Lab, pide mucho más apoyo público a este sector, y explica la necesidad de nuevos cursos de grado y posgrado que contribuyan a su desarrollo. En su informe, P EA habla de la necesidad de un nuevo tipo de “infraestructura profesional en el campo de la analítica del aprendizaje y la minería de

136

datos educativos, compuesta por científicos de datos (a caballo entre la estadística y la ciencia informática) que sean también científicos del aprendizaje e investigadores educativos” (P EA, 2014, pág. 17). Concretamente, señala “varias competencias para la ciencia de datos educativos” que contribuirían a esta infraestructura profesional, entre ellas: (1) herramientas informáticas y estadísticas y métodos de investigación, incluidas las destrezas estadísticas tradicionales además de técnicas más recientes como el aprendizaje automático, el análisis en red, el procesado del lenguaje natural y el modelado basado en agentes, (2) la ciencia cognitiva educativa general, y los principios socioculturales de las ciencias del aprendizaje, (3) los principios de la interacción entre humanos y ordenadores, el diseño de la experiencia del usuario y la investigación basada en el diseño, y (4) la apreciación de los intereses y las cuestiones éticas y sociales en torno a los big data, para entornos tanto de educación formal como de aprendizaje al margen de la escuela (P EA, 2014). En su intento de establecerse como campo independiente, la ciencia de datos educativos también ha promovido técnicas especializadas de psicometría y medición educativa, neurociencia cognitiva, bioinformática, estadística informática y otros métodos computacionales. Estas prácticas y competencias disciplinares dan una idea clara del estilo de pensamiento en que se asienta la ciencia de datos educativos, en particular de sus orígenes en la ciencia informática y la ciencia de datos unidas sobre todo a las teorías psicológica, cognitiva y neurocientífica del aprendizaje —o “ciencia del aprendizaje”—. COPE y KALANTZIS (2016, pág. 9) señalan también que la ciencia de datos educativos resitúa a los investigadores de la educación como “colaboradores de datos” que pueden trabajar con los diseñadores de software instruccional, los profesores y los estudiantes, ya que “en la era de los big data, la división entre instrucción y evaluación se desdibuja” como “se difumina también la división entre los datos usados con fines didácticos y los que utilizan los investigadores en las ciencias de datos educativos ”. Señalan, además, que la gran cantidad de macrodatos educativos exige que los científicos de datos (1) desarrollen técnicas y metodologías adecuadas para ocuparse de todo el “censo” de datos y no de “muestras de datos”, (2) adopten perspectivas “multiescalares” con las que “escalar o desescalar, aproximarse o distanciarse, y ofrecer diversas perspectivas viables sobre la fuente de datos compartidos”, (3) adopten “marcos temporales cortos”, impulsando la reintroducción de pequeños cambios incrementales en el entorno de aprendizaje, y también “marcos de tiempo longitudinales” como consecuencia de la persistencia de los datos, (4) rastreen la “heterogeneidad de los datos, por ejemplo, diferentes vías en los entornos de aprendizaje adaptativo, actividades destacadas de los casos atípicos”, (5) realicen “análisis causales microgenéticos, por ejemplo, el progreso en el aprendizaje de los diferentes alumnos, los efectos diferenciales rastreables en diversas vías de aprendizaje”, y (6) incorporen “análisis cuantitativos y cualitativos, dando mayor importancia a la teoría en los análisis de los datos” (COPE y KALANTZIS, 2016, pág. 10). Como bien demuestra esta lista, la ciencia de datos educativos es un

137

campo altamente técnico de producción de conocimiento emergente, y está dirigida por aspiraciones altamente normativas en relación con la mejora de los resultados del aprendizaje. La ciencia de datos educativos depende de los discursos y prácticas paralelos tanto de la ciencia de datos, con sus promesas de calculabilidad y objetividad algorítmicas, como de las ideas de la ciencia del aprendizaje según las cuales este se compone de procesos psicológicos que se pueden medir a través procesos computables. En este sentido, la ciencia de datos educativos es una evolución de formas psicométricas de experiencia y de práctica disciplinar. Como campo de medición psicológica, la psicometría ha estado en el centro de técnicas de evaluación educativa como la de las pruebas estandarizadas a gran escala (O’KEEFFE, 2016). La psicometría combina teorías psicológicas con instrumentos, métodos, materiales y herramientas de producción de datos que parecen ser una prueba científicamente objetiva de los rasgos psicológicos, las habilidades y el aprendizaje. En el contexto de los big data, la psicometría se une hoy, además, a la analítica de datos en tiempo real y los sistemas de aprendizaje automáticos, para producir una nueva subdisciplina de “psicoinformática”, que se ha presentado como un cambio histórico en la ciencia de la medición psicológica. Se dice: La psicoinformática está a punto de provocar el mayor cambio metodológico desde el inicio de la psicología o la psiquiatría. La consiguiente diversidad de aplicaciones determinará absolutamente las rutinas diarias de los investigadores y los profesionales de la medicina. En efecto, el traslado de técnicas de la ciencia informática a la psiquiatría y a la psicología está a punto de alumbrar la Psicoinformática, toda una nueva vía de investigación. (MARKOWETZ y col., 2014, pág. 405) Partiendo de “la idea de humano transparente” (MARKOWETZ y col., 2014, pág. 410), la psicoinformática utiliza sensores portátiles que pueden rastrear los movimientos y los teléfonos inteligentes para seguir las actividades online, y a continuación utiliza la minería de datos y el aprendizaje automático para detectar, caracterizar y clasificar los patrones y las tendencias conductuales a medida que van cambiando. La ciencia de datos educativos, al igual que la psicoinformática, se basa en una nueva visión tecnológica del rastreo del comportamiento y la actuación del estudiante mediante los macrodatos, y su análisis con técnicas algorítmicas de la minería de datos y el aprendizaje automático. Este enfoque psicoinformático trata la vida mental y el aprendizaje como si fuera posible conocerlos matemática y computacionalmente, y, una vez hechos medibles, como si se pudieran mejorar u optimizar. Estas notas sobre la vida social de la ciencia de datos educativos indican que sus orígenes están en una mezcla organizativa de centros de investigación académicos y comerciales, unidos por asociaciones y afiliaciones a una red global de I+D y de trabajo de defensa. Es una ciencia que aúna métodos y epistemologías de la ciencia de datos y

138

los de las ciencias psicológicas, en especial, la psicometría y la emergente psicoinformática del seguimiento de la conducta mediante la analítica de datos. Básicamente, la ciencia de datos educativos actúa como un nuevo tipo de campo metrológico dirigido por datos cuyo objetivo es la medición científica del aprendizaje, y que aspira también a una visión normativa de cómo se puedan mejorar los procesos de enseñanza y aprendizaje con los big data.

La pedagogía de la ciencia de datos En el verano de 2016, la empresa de medios sociales Facebook anunció que se asociaba con Summit Schools Network, una red de centros concertados con base en Silicon Valley, para introducir un nuevo “sistema de aprendizaje basado en el alumno”. La Summit Personalized Learning Platform desarrollada por esa sociedad es un sistema de aprendizaje basado en datos con cursos integrados compuestos de proyectos y áreas de atención, revisado por el centro de evaluación y aprendizaje de la Universidad de Stanford (SUMMIT LEARNING, 2016). Con el seguimiento de la participación y el progreso de los estudiantes de cada curso, el sistema se adapta automáticamente para que el alumno pueda “trabajar a su ritmo mediante listas de contenidos, y realizar evaluaciones cuando lo solicite”, y para que los profesores puedan “usar estos datos para personalizar la instrucción y ofrecer apoyo adicional a través de la mentoría y el entrenamiento”. La Summit Personalized Learning Platform se puede obtener gratuitamente online, y es un ejemplo sumamente indicativo de la migración de sistemas de la ciencia de datos educativos como la minería de datos, la analítica del aprendizaje y las plataformas de aprendizaje adaptativo, desde los laboratorios de I+D al aparato didáctico de la escuela. Los centros que no pertenecen a la Summit Schools Network también pueden participar en un programa de Summit Basecamp que “ofrece a los profesores y centros de todo Estados Unidos los recursos que necesitan para llevar el aprendizaje personalizado al aula” (Summit Basecamp, 2016). En la base de la Summit Personalized Learning Platform hay una serie de potentes técnicas y aplicaciones de la analítica del aprendizaje. La analítica del aprendizaje tal vez sea la aplicación de la ciencia de datos educativos más destacada para el aprendizaje personalizado. El software de analítica del aprendizaje está diseñado para poder seguir a cada alumno a través de su rastro digital en tiempo real, hacer previsiones automáticas del progreso futuro y, con ello, optimizar el aprendizaje y los entornos en que se produce (SIEMENS, 2013). En un estudio internacional sobre la analítica del aprendizaje se señala una serie de principios fundamentales: Con la fusión del conocimiento previo que se tenga de cada persona —por ejemplo, sus cualificaciones previas— con los datos acumulados sobre su progreso educativo, se puede identificar antes a los estudiantes que previsiblemente vayan a abandonar. Después se puede recurrir a intervenciones personalizadas como la asesoría por parte

139

de un tutor para intentar retener a esos alumnos… Cabe suponer que los educadores tienen interés en maximizar el rendimiento académico de sus alumnos y mejorar la experiencia general de asistir a sus instituciones… La analítica del aprendizaje puede dar a los profesores información sobre la calidad de los contenidos y las actividades educativos que ofrecen, y sobre sus procesos de enseñanza y aprendizaje. Se utiliza cierta analítica… para monitorizar el rendimiento de sus alumnos mientras se está aplicando el módulo, una analítica que puede ayudar al profesor a adaptar su enseñanza. (SCLATER y col., 2016, pág. 12) En el informe se destaca el uso de las plataformas de analítica del aprendizaje con fines de eficiencia y rendición de cuentas, para identificar a los alumnos en peligro, para revisar los contenidos curriculares y mejorar la didáctica, y también para dar a los estudiantes “más control” sobre su aprendizaje “ofreciéndoles sistemas de base analítica que les ayuden a elegir futuros módulos a partir de datos sobre sus elecciones profesionales y sus aptitudes y calificaciones en módulos anteriores, de modo que les abran las mejores vías para sus estudios”. (SCLATER y col., 2016, pág. 9). La analítica del aprendizaje se define también como “capacitadora del desarrollo y la introducción del aprendizaje adaptativo, es decir, el aprendizaje personalizado impartido a escala, con el que se orienta a los alumnos hacia materiales de aprendizaje sobre la base de sus interacciones anteriores con contenidos y tareas afines, y la comprensión de unos y otras” (SCLATER y col., 2016, pág. 5): Los sistemas de aprendizaje adaptativo nacen para ayudar a los alumnos a desarrollar destrezas y conocimientos de forma más personalizada y a un ritmo individualizado. Dichos sistemas también pueden depender de datos sobre la aptitud y el rendimiento del alumno, además de minuciosos detalles sobre su interacción con una determinada web (clickstream), de modo que los contenidos educativos se puedan adaptar al nivel de comprensión a medida que el alumno va avanzando en ellos. (SCLATER y col., 2016, pág. 13) Juntas, la analítica del aprendizaje y las plataformas de aprendizaje adaptativo parecen prometer un análisis detallado del rendimiento, el progreso y la conducta del estudiante, muy en línea con el enfoque psicoinformático de la comprensión de conductas a partir del rastro de macrodatos, y transformar la provisión de contenidos. La analítica del aprendizaje se define a menudo desde el punto de vista de sus técnicas y aplicaciones. Las técnicas implican los algoritmos y los modelos específicos para la realización de la analítica; las aplicaciones, las formas en que las ideas generadas a partir de la analítica se codifican después en productos de software diseñados para incidir en la enseñanza y el aprendizaje y mejorarlos. Por ejemplo, “un algoritmo que recomiende contenidos curriculares adicionales para el estudiante se puede clasificar como técnica.

140

Una técnica, como la predicción del riesgo de abandono del alumno, puede llevar después a una aplicación, por ejemplo, la personalización de los contenidos del aprendizaje” (SIEMENS, 2013, pág 1386). Con el desarrollo de aplicaciones específicas de analítica del aprendizaje, los enfoques científicos de la educación basada en datos se han traducido en potentes didácticas diseñadas como apoyo de la “personalización” y la “optimización” del aprendizaje a través de su integración en cursos e instituciones. Sin embargo, en la base de los objetivos pedagógicos de la ciencia de datos hay técnicas como la de construcción de modelos. Con los avances en el aprendizaje automático, las técnicas de inteligencia artificial y el análisis estadístico, “se hacen nuevos descubrimientos basados en datos y se comprende mejor la conducta del estudiante… donde el descubrimiento se produce a través de modelos y algoritmos” (SIEMENS, 2013, pág. 1386). Asimismo, “un objetivo preeminente” de la ciencia de datos educativos es: Crear un modelo del estudiante. ¿Qué características son importantes como predictores de lo que conviene aplicar para apoyar el progreso personalizado del estudiante? ¿Cuáles son las clases de variables y de fuentes de datos para construir un modelo de los conocimientos, las dificultades y los falsos supuestos del estudiante como individuo? (P EA, 2014, pág, 24, cursiva en el original) El modelado del estudiante, el modelado cognitivo, el modelado de la probabilidad y el “modelado del ámbito de conocimientos” (el mapeado de la estructura de conocimientos como una disciplina) son predictores esenciales en cualquier plataforma de analítica del aprendizaje. Una vez mezclados, estos predictores se puede utilizar después para producir modelos predictivos de los avances del estudiante, y para prescribir automáticamente cambios en un curso o una prueba que el individuo pueda requerir. En todo el sector de la enseñanza universitaria y no universitaria, estas técnicas y aplicaciones de la ciencia de datos educativos las están poniendo en práctica proveedores comerciales cada vez más fuertes y más ricos. La empresa start-up Knewton se ha convertido en una de las plataformas de analítica del aprendizaje de mayor éxito del mundo, y da apoyo a los contenidos educativos elaborados por Pearson (el mayor editor educativo y proveedor de aprendizaje electrónico del mundo) y otros muchos. En uno de sus papeles blancos técnicos, se dice de la plataforma Knewton que es “un sistema flexible y escalable de provisión de experiencias de aprendizaje adaptativo y de analítica predictiva entre las series arbitrarias de contenidos de los diferentes entornos de aprendizaje” (WILSON y NICHOLS, 2015, pág. 4). KNEWTON dice que apoya el proceso de aprendizaje mediante tres servicios básicos: recomendaciones personalizadas al estudiante, analítica para profesores y alumnos, e ideas sobre contenidos para creadores de aplicaciones y contenidos. Para KNEWTON, el valor de los big data en la educación es concretamente que son “datos que reflejan la cognición”, es decir, inmensas cantidades de “datos significativos

141

registrados durante la actividad del alumno y que se pueden aprovechar continuamente para impulsar el aprendizaje personalizado de cada individuo” (KNEWTON, 2013, pág. 13). La recolección y el análisis de estos “datos que reflejan la cognición” son un complejo logro técnico y metodológico. Como se dice en los documentos científicos de la web de KNEWTON: La plataforma KNEWTON condensa en un punto la ciencia de datos, la estadística, la psicometría, los gráficos de contenidos, el aprendizaje automático, el etiquetado y la infraestructura, para posibilitar la personalización a escala masiva… Con la avanzada ciencia de datos y el aprendizaje automático, la sofisticada tecnología de KNEWTON determina, en tiempo real, las capacidades, los defectos y el estilo de aprendizaje de cada alumno. De este modo, la plataforma KNEWTON es capaz de tomar los datos mezclados de millones de otros estudiantes para ayudar a cada uno de ellos a aprender cualquier concepto con el que pueda encontrarse. (KNEWTON, 2013, pág. 2) Los métodos analíticos en que se basa KNEWTON incluyen “complejos algoritmos para recomendar la actividad perfecta para cada alumno, constantemente” (KNEWTON, 2013, pág. 8). El funcionamiento de KNEWTON se basa en la recogida de toda una variedad de datos diferentes sobre logros educativos mezclados con información psicométrica y rastros de los medios sociales, para producir un nuevo tipo de “nube” de datos sobre cada individuo que se puede utilizar como registro cuantitativo para la minería de datos y la analítica predictiva. Gran parte de la actividad de KNEWTON estuvo antes limitada a la enseñanza superior, pero al asociarse con Pearson las dos empresas aspiran a llevar la analítica del aprendizaje y los sistemas de aprendizaje adaptativo a todo el mercado de la enseñanza. Con esta sociedad, KNEWTON une el poder y el potencial de su plataforma de aprendizaje adaptativo a los contenidos y la distribución de Pearson, con la promesa de “estar presente en una nueva era de productos educativos personalizados y customizables”: La KNEWTON Adaptive Learning PlatformTM utiliza algoritmos patentados para ofrecer una vía de aprendizaje personalizado a cada alumno… “La plataforma de aprendizaje adaptativo de KNEWTON, con toda su fuerza, no sería más que líneas de código si no contara con Pearson” decía José Ferreira, fundador y consejero delegado de KNEWTON. “Pronto se verán productos de Pearson que diagnostiquen la competencia de cada alumno en cada concepto, y proporcionen exactamente los contenidos necesarios en el estilo óptimo de aprendizaje para cada uno. Estos productos utilizarán la fuerza de datos combinados de millones de estudiantes para ofrecer un aprendizaje exclusivamente personalizado”.

142

(KNEWTON, 2011) Esta sociedad responde exactamente a los actuales intentos de Pearson de reposicionarse como importante fuente de experiencia sobre la analítica de los big data en educación. En 2012 se creó su Centro para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo, con el objetivo de usar métodos de la ciencia de datos para “capturar el flujo o el rastro de datos a partir de las interacciones” del estudiante con materiales de aprendizaje, posibilitar el análisis informático para detectar “nuevos patrones que evidencien la existencia de aprendizaje”, y “tomar el perfil de los conocimientos del estudiante, sus destrezas y atributos, y determinar la mejor actividad siguiente” (DICERBO y BEHRENS, 2014). La actual ambición de Pearson de buscar patrones en los datos del alumno se basa en la idea de que “ante una gran cantidad de variables posibles, el ordenador puede realizar tareas de identificación de patrones que no están al alcance de las capacidades humanas… no solo para reunir información, sino también para detectar patrones en ella” (DICERBO y BEHRENS, 2014). El funcionamiento del sistema informático de reconocimiento de patrones que aplican Pearson y Knewton consiste en tomar el rastro de datos de la actividad del estudiante y someterlo después a un minucioso análisis utilizando diversas mediciones; los datos capturados de un solo individuo se pueden sumar después a los de otros usuarios para ver si se pueden combinar para generar indicadores generalizables de aspectos del aprendizaje. Para ello, en el informe de Pearson se detalla cómo se puede utilizar el análisis de reconocimiento de patrones para rastrear y emparejar patrones en las actividades de los estudiantes: Las interacciones del estudiante con las actividades generan datos que se pueden analizar para buscar patrones… La actuación en actividades individuales suele posibilitar una retroalimentación inmediata… basada en el reconocimiento de patrones locales, mientras que la actuación en diversas actividades puede conducir a actualizaciones del perfil, lo cual puede facilitar deducciones sobre la actuación general. (DICERBO y BEHRENS, 2014) El objetivo del centro es fomentar la aplicación de la analítica de datos para generar ideas sobre la enseñanza y el aprendizaje, pero también ofrecer un flujo constante de retroalimentación que se pueda usar para personalizar la experiencia de aprendizaje para cada alumno, y así mejorar el resultado medible de su aprendizaje. En el marco de este discurso del aprendizaje personalizado, la ciencia de datos educativos está socavando la idea de que los conocimientos de la escuela deben estar contenidos en currículos estandarizados, y en su lugar propone que el acceso de los alumnos a los conocimientos esté determinado por procesos y técnicas algorítmicos automáticos. Las técnicas de aprendizaje automático algorítmico permiten prever el probable progreso futuro de los alumnos a través de procesos de analítica predictiva, y después, en forma de analítica prescriptiva, adaptar el acceso personal de cada alumno a

143

los conocimientos mediante las conexiones modulares que el algoritmo haya considerado adecuadas. Por ejemplo, en la documentación científica de KNEWTON se dice: : Todos los contenidos de la plataforma están enlazados por el gráfico de conocimientos de KNEWTON, un gráfico interdisciplinar de conceptos académicos. El gráfico de conocimientos representa estos conceptos, definidos por conjuntos de contenidos y las relaciones entre estos conceptos. Las recomendaciones de KNEWTON dirigen a los estudiantes por vías personalizadas y hasta interdisciplinares representadas en el gráfico de conocimientos, hacia los objetivos últimos del aprendizaje basados tanto en lo que alumno sabe como en su forma de aprender. (KNEWTON, 2013, pág. 6) El “gráfico de conocimientos” de la plataforma de KNEWTON trata el conocimiento en términos de módulos individuales de contenidos que se pueden enlazar para producir vías personalizadas conectadas. En este sentido, los conocimientos se abordan desde la perspectiva de una red de nodos individuales con multitud de líneas de conexión posibles, y la plataforma de KNEWTON “pule las recomendaciones mediante efectos en red que aprovechan la fuerza de todos los datos reunidos de todos los alumnos para optimizar el aprendizaje de cada uno de ellos” (KNEWTON, 2013, pág. 8). Para KNEWTON, los conocimientos son nodales como una compleja red digital, y se pulen constantemente a medida que los algoritmos del aprendizaje automático aprenden de la observación de gran número de estudiantes en su uso de la plataforma. “Cuantos más alumnos utilicen la plataforma KNEWTON, más exactas serán las relaciones entre contenidos y conceptos, y más precisas las recomendaciones que se hagan a través del gráfico de conocimientos” (2013, pág. 7). Con técnicas de personalización como el gráfico de conocimientos, fuertes empresas de la ciencia de datos educativos como Pearson y Knewton pretenden controlar cada vez más los datos de la educación, un deseo que afecta a lo que “cuenta” como conocimientos de la escuela, cómo se organizan y cómo se ofrecen al alumno mediante una disposición personalizada en forma de vías de aprendizaje individualizado a través de plataformas de analítica del aprendizaje adaptativo. La escuela deja de transmitir los conocimientos oficiales por medio de currículos y asignaturas, y en su lugar las plataformas de analítica del aprendizaje adaptativo se ocupan automáticamente de los encuentros del alumno con los conocimientos, con un permanente diagnóstico sobre sus progresos en el aprendizaje, la previsión de resultados y la posterior recomendación de vías de aprendizaje personalizadas que orienten al alumno a través del gráfico reticular de conocimientos, con sus contenidos modulares y “nodales”.

Métodos predictivos productivos 144

Los sistemas métricos como la analítica del aprendizaje pueden afectar de forma productiva a la vida de las personas. En el contexto social general, “la forma en que se mide a las personas” después “circula por los sistemas de datos de las organizaciones que los reúnen”, y ello “determina las posibilidades de tratamiento de cada individuo. Esto también tendrá después implicaciones para cómo vivan las personas, porque pasan a vivir una vida predecible en la que se adaptan a las mediciones” (BEER, 2016a, pág. 8). Los avances en la analítica del aprendizaje referentes a los algoritmos predictivos que determinan la personalización de los contenidos y su adquisición, plantean una cuestión particular. A los algoritmos del aprendizaje automático en que se sustentan la mayoría de paquetes analíticos —en particular los predictivos, como la analítica del aprendizaje: Hay que enseñarles a aprender de una muestra de datos que alguien ya ha clasificado y etiquetado. La existencia de las clasificaciones es fundamental para el funcionamiento de las técnicas. La clasificación se convierte en lo que las técnicas de minería de datos pretenden aprender o modelar para que en casos futuros se puedan clasificar de modo parecido. (MACKENZIE, 2015, pág. 433) Las plataformas de analítica de datos, incluida la analítica del aprendizaje adaptativo, generan conocimientos aprendidos algorítmicamente que se pueden utilizar para configurar actividades futuras, un uso, sin embargo, que depende del trabajo de clasificación de los diseñadores de algoritmos. Incluso los sistemas avanzados de aprendizaje automático necesitan retroalimentarse para confirmar que están procesando y organizando los datos tal como sus diseñadores habían previsto. Miembros de la comunidad de la ciencia de datos educativos reconocen las actividades prácticas de entrenamiento y clasificación de los datos: Los patrones estadísticos de los datos del aprendizaje automático son en gran medida criaturas de patrones ya construidos en modelos de entrenamiento supervisado. En el caso del aprendizaje automático no supervisado, los patrones estadísticos solo tienen sentido cuando se les ponen etiquetas explicativas. (COPE y KALANTZIS, 2016, pág. 11) En este sentido, cómo se diseñen los sistemas de aprendizaje automático para que aprendan de los datos cobra especial importancia para cómo se generen las ideas a partir de los datos o cómo se puedan determinar futuras intervenciones para el alumno. Por ejemplo, KNEWTON, como veíamos antes, depende para su funcionamiento de un gráfico de conocimientos y de técnicas de clasificación y taxomización. Si no se producen estos procesos de categorización, es imposible encajar los contenidos en el gráfico de conocimientos. Una vez hecha la clasificación de los contenidos, después: se pueden organizar en una estructura tipo gráfico, lo cual significa que el paso del

145

alumno de concepto a concepto se puede optimizar con el tiempo, porque KNEWTON, a través de los datos, va sumando conocimientos sobre las relaciones entre esos conceptos. Cada acción y reacción del alumno en torno a cada contenido afecta a la comprensión por parte del sistema de todos sus contenidos y todos los estudiantes de la red. (KNEWTON, 2013, pág. 14) El acto humano de enseñar al algoritmo a identificar y aprender de las cosas que se han clasificado o etiquetado para su inclusión en el gráfico de conocimientos, indica que el aprendizaje automático es una forma de producción automática de conocimientos pero, a la vez, está determinado por personas que trabajan en unas condiciones laborales específicas, en marcos institucionales concretos, sometidas a compromisos profesionales, y a visiones del mundo y teorías disciplinares sobre cómo funciona el mundo. Estos factores contextuales inciden en la formación del aprendizaje automático, su reformación y su verificación para garantizar la exactitud y la posible generalización de sus modelos, y tienen importantes implicaciones para cómo se puedan comunicar y visualizar los datos para las prácticas de comprensión e interpretación de las personas. Las plataformas de analítica del aprendizaje adaptativo, más allá de basar su formación en datos seleccionados por sus ingenieros, tienen también sus propias reglas algorítmicas y matemáticas. Estudios anteriores demuestran la necesidad de invertir muchos esfuerzos en el tipo de prácticas de cálculo que generan datos educativos a partir de pruebas y evaluaciones estandarizadas, lo cual demuestra que las promesas matemáticas de “objetividad” se producen, en última instancia, en contextos sociales y, a su vez, cambian las perspectivas sobre las propias cosas que enumeran (SELLAR, 2015b). Pasar algo a números —por ejemplo, una tarea de aprendizaje— transforma ese algo porque altera cómo se pueda entender y actuar sobre ello. Llevando tal realidad a la analítica del aprendizaje, técnicas algorítmicas básicas como el “análisis de conglomerados” funcionan de acuerdo con propiedades operacionales que no se limitan a descubrir patrones en los datos, sino que constituyen a estos activamente. El análisis de conglomerados consiste, básicamente, en el uso de técnicas matemáticas o algorítmicas para organizar los datos en grupos de otros objetos similares. Se utiliza a menudo en fases exploratorias del análisis y la investigación de datos, como forma de buscar patrones en grandes cantidades de información desorganizada. La regla fundamental del análisis de conglomerados es la de agrupar objetos que parezcan tener un alto grado de similitud y relación. Se trata de encontrar estructuras entre puntos de datos: El algoritmo empieza por establecer una serie de conglomerados, cada uno con su propio centro, y a continuación toma los puntos de datos y los asigna a los conglomerados usando como criterio la distancia desde los centros. Después se recalculan los centros y el proceso vuelve a empezar hasta que la distancia se reduce al

146

mínimo, de modo que se puedan obtener resultados estables. (P ERROTTA y WILLIAMSON, 2016, pág. 9) En muchas plataformas de analítica del aprendizaje se utilizan técnicas de conglomerado para analizar los datos del estudiante —por ejemplo, en el sistema de conglomerado acumulativo jerárquico de KNEWTON—. En este sentido, la cuestión fundamental es que para que los datos encajen en un conglomerado o un grupo de otros datos similares, hay que establecer de antemano ciertos parámetros o criterios. El análisis de conglomerados no “descubre” necesariamente patrones en los datos, pero puede construir activamente una estructura mientras calcula la distancia entre puntos de datos de acuerdo con criterios preestablecidos. Por lo tanto, para estabilizar los datos en una solución “adecuada”, hay que realizar ciertas imposiciones operacionales y formalizaciones matemáticas: En la minería de datos, el conglomerado jerárquico es un sistema de análisis que pretende construir una jerarquía o estructura de conglomerados. En KNEWTON, la técnica se utiliza para detectar estructuras latentes en grandes grupos y construir algoritmos que determinen cómo se deben agrupar los alumnos y las características por las que conviene agruparles. (KNEWTON, 2013, pág. 5) Así pues, con la analítica del aprendizaje esos algoritmos de conglomerados imponen cómo hay que prescribir las vías de aprendizaje a los usuarios del sistema. Estas reglas algorítmicas producen vías de aprendizaje personalizado como patrones que dictan cómo los estudiantes encuentran contenidos e información, y estructuran su manera de formar conocimientos. En resumen, los números y los cálculos que se hacen con ellos cambian el proceso de aprendizaje que se haya enumerado. Las plataformas de analítica del aprendizaje provienen de tipos específicos de prácticas de cálculo que, por tanto, están socialmente producidas pero que también son socialmente productivas. Sus procesos internos se basan en prácticas humanas como el diseño de algoritmos de conglomerado, y el entrenamiento y la clasificación puestos en práctica para que los algoritmos de aprendizaje automático actúen “en estado salvaje”. Ampliando esta misma idea, en RUPPERT y col. (2015) se detalla cómo los big data cobran vida a través de prácticas sociales y técnicas en enclaves especializados específicos, unas prácticas que no solo generan estos datos sino que los “ordenan, gestionan, interpretan, distribuyen, reutilizan, analizan, relacionan y eliminan” de acuerdo con “los imperativos y la decisiones normativos, políticos y técnicos… de los actores e instituciones que configuran a los big data”. Pero estos procesos no son simple producto de prácticas humanas, sino que superan las capacidades humanas y permiten realizar de forma automática trabajos que las manos humanas no podrían hacer. La clasificación de los contenidos en un gráfico de contenidos por parte de KNEWTON, y la estructuración de conglomerados tanto de alumnos como de contenidos mediante algoritmos de análisis de

147

conglomerados, son, en este sentido, consecuenciales para “lo que se sabe” sobre los estudiantes con el análisis y la medición que el sistema hace de su participación, y para “lo que saben” los estudiantes al ser dirigidos por medios algorítmicos a través de conocimientos que han sido “desplegados” en nodos modulares en redes de contenidos.

Conocimiento, teoría y propiedad El dominio del mercado de la analítica del aprendizaje y del aprendizaje adaptativo por empresas como Pearson y KNEWTON, plantea cuestiones importantes sobre la propiedad y el control de los datos educativos. Unas cuestiones que, a su vez, plantean otra más: la de “a quién pertenecen los big data” (RUPPERT, 2015) cuando los datos digitales son utilizados cada vez más por poderosas organizaciones técnicas para producir conocimiento y dirigir la toma de decisiones: Construir una base de datos que contenga todos los conocimientos del mundo se ha convertido en rentable. Las pocas empresas con ánimo de lucro que poseen los datos y las herramientas para su minería —la infraestructura de datos— tienen un inmenso poder de comprender y predecir el mundo. (NIELSEN, 2015) Estas tecnologías y técnicas de producción de conocimiento plantean retos distintivos a la educación, debido en buena parte a que se movilizan nuevos tipos de plataformas de analítica educativa para generar flujos constantes e inmediatos de datos sobre el estudiante, para después transformarlos en conocimiento predictivo que se pueda utilizar como inteligencia práctica y procesable para determinar la intervención pedagógica. A empresas como Knewton y Pearson hoy les interesa construir una base de datos que contenga inmensas cantidades de datos educativos, unas empresas que poseen los datos y las herramientas para analizarlos y así comprenderlos y hacer predicciones basadas en ellos. En este sentido, Knewton y Pearson son “propietarias” de los big data educativos, y quieren obtener beneficios con la generación de conocimiento a partir de ellos. La actuación de Pearson y Knewton se sustenta sobre un poderosos aparato disciplinar asociado al trabajo de conocimiento científico de los datos, un trabajo que da valor a una “epistemología de los big data” (KITCHIN, 2014b) de la objetividad científica —que pretende utilizar conocimientos numéricos para informar nuevas prácticas de gestión educativa— pero también a la generación de teoría. Por ejemplo, John BEHRENS, director fundador del Pearson’s Center for Digital Data, Analytics and Adaptive Learning, dice que practicar la minería de datos con “miles de millones de bits de datos digitales generados con las interacciones de los estudiantes con las clases online y con actividades digitales cotidianas”, pondrá en entredicho los propios marcos teóricos de la educación, cuando “nuevas formas de datos y experiencia abran una brecha de teoría entre el espectacular crecimiento de los resultados basados en datos y la base teórica para

148

integrarlos” (BEHRENS, 2013). Pearson dice que está abriendo una “brecha teórica” en los modos de entender la educación y el aprendizaje efectivos, y al mismo tiempo está trabajando en nuevos métodos digitales y enfoques propios de la ciencia de datos que podrían generar nuevos conocimientos para salvar esa brecha. Como empresa global de medios educativos e influyente político de importancia cada vez mayor, Pearson está bien situada para utilizar los conocimientos que obtiene de los datos para encontrar nuevos tipos de soluciones en forma de nuevos productos de software para las escuelas, y hasta nuevas soluciones políticas para los gobiernos (HOGAN y col. 2015). Todos estos avances evidencian la actual construcción de una infraestructura de datos para la producción de conocimiento y generación de teoría en la educación, una base dirigida por poderosas empresas tecnológicas y sus especialistas técnicos, y que se va aplicando progresivamente mediante prácticas de cálculo codificadas en algoritmos que superan la capacidad humana. KNEWTON está a punto de convertirse en “la plataforma más poderosa de infraestructura de datos de la educación” (KNEWTON, 2013). La idea de una infraestructura de datos es particularmente importante porque las infraestructuras son el material físico y las estructuras organizativas que subyacen en la vida social, política y económica (BOWKER y STAR, 1999). Otros proponen la idea de una “infraestructura de conocimiento” después de “las enormes transformaciones que en los últimos 20 años se han producido en nuestros sistemas para generar, compartir y debatir conocimiento humano” (EDWARDS y col., 2013, pág. 1). Han proliferado por doquier nuevos macrodatos, medios sociales e infraestructuras para la producción y la comunicación de conocimientos relacionados con Internet, un incremento que lleva a “un mundo en que el conocimiento está en movimiento continuo. Hoy, lo que llamamos ‘conocimiento’ está permanentemente en entredicho, se cuestiona, se reelabora y se reescribe” y “las normas de lo que cuenta como ‘conocimiento’ están cambiando de forma evidente” (2013, págs. 6-7). Estos autores señalan que las nuevas estructuras de conocimiento, además de ser sistemas técnicos, refuerzan o redistribuyen la autoridad, la influencia y el poder, porque promueven los intereses de unos, desplazan las expectativas de otros y, al mismo tiempo, afectan a la forma y la posibilidad del conocimiento en general. En los anteriores ejemplos del ámbito educativo, las infraestructuras de generación de datos y producción de conocimiento cambian a medida que organizaciones de la ciencia de datos educativos como Pearson y Knewton entran en escena y llenan esas estructuras con sus prácticas científicas de datos y los correspondientes planes de negocio. El dominio de la ciencia de datos educativos por un reducido número de organizaciones conectadas significa que la producción de conocimiento en el campo de la propia educación se está redistribuyendo, a menudo a enclaves comerciales donde se puede disponer de tecnologías especializadas y técnicos expertos. En este enclave se genera también teoría educativa. En una reseña de métodos de la ciencia de datos educativos, se señala que “hoy se necesita más que nunca una teoría para estructurar modelos de datos, crear ontologías que estructuren los campos para la recogida de datos, y para el

149

seguimiento de modelos” (COPE y KALANTZIS, 2016, pág. 11). Esta alusión a la creciente importancia de la teoría en el análisis de los big data plantea cuestiones relevantes sobre los sitios de experiencia en que se pueda producir esta generación de teoría. Como bien indican los ejemplos del Lytics Lab de Stanford y el Centro para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo de Pearson, la ciencia de datos educativos se está concentrando en centros de investigación y laboratorios que disponen de muchos recursos materiales y económicos. Estas organizaciones tienen acceso a la infraestructura técnica, profesional y económica para la recogida y el análisis de macrodatos educativos, de modo que su capacidad de generar nuevos conocimientos e ideas a partir de esos datos no deja de aumentar. Pueden excavar en ellos en busca de patrones y así intentar formular nuevas explicaciones y teorías sobre los procesos de aprendizaje que esos datos indiquen o revelen. Con los gobiernos cada vez más decididos a usar los big data con fines de investigación educativa, Pearson, Lytics Lab, Knewton y demás se están posicionando como centros importantes de inteligencia de datos, con la infraestructura necesaria para el análisis de la realidad educativa a partir de los datos. En otras palabras, la propiedad de las bases de datos es requisito previo para producir conocimiento y generar teoría, y sitúa a las poderosas organizaciones de la ciencia de datos educativos en posición de ventaja competitiva sobre otros espacios de la investigación educativa. En este sentido, podemos considerar la ciencia de datos educativos como un campo cada vez más influyente y poderoso de producción de conocimiento y generación de teoría en la educación. El hecho de que este campo esté concentrado en manos de laboratorios y centros que disponen de extraordinarios recursos, como los asociados a Stanford y Pearson, plantea serias cuestiones sobre la generación de nuevas teorías que puedan reconfigurar las formas de conocer, entender y aceptar de manera más amplia los procesos de aprendizaje en el campo de la investigación educativa. Pocos departamentos universitarios cuentan con la infraestructura de inteligencia de datos necesaria para realizar los estudios avanzados sobre big data que Pearson y Stanford pueden hacer. En otras palabras, en la teorización educativa hay una dimensión de economía política, porque parece que está migrando hacia centros comerciales que disponen de buenos recursos, como los de Pearson, o hacia instituciones académicas con estrechas relaciones con la industria y el gobierno, como Stanford. Parece que la forma de entender, conceptualizar y teorizar el aprendizaje está cada vez más determinada por actores que tienen acceso a la infraestructura técnica, profesional y económica para generar ideas a partir de los big data. Algunos de ellos, como Pearson, podrían después obtener beneficios comerciales con el diseño y la patente de recursos de software de aprendizaje electrónico basado en las teorías que hayan generado —un caso, en esencia, de fijar una teoría a una innovación técnica específica—. El futuro tecnológico de la educación es el de patentes de software que “se convierten en teoría”, lo cual “no garantiza que esas empresas hayan desarrollado tecnologías que ayuden a aprender a los estudiantes. Pero

150

podría significar que habrá derechos de propiedad que vender o sobre los que litigar o negociar” (WATTERS, 2016). Con las prácticas de los big data cada vez más presentes en la investigación educativa, y los análisis educativos realizados por empresas con ánimo de lucro y propietarias de la relevante infraestructura de big data y de los algoritmos del aprendizaje automático, la cuestión de quién es el propietario de la teoría educativa, y de cómo se traduzca esta en productos patentados de tecnología educativa, adquiere especial relevancia y es motivo de seria preocupación. La propiedad de los macrodatos educativos, la generación de teoría educativa y la aplicación de estas teorías a sistemas de propiedad y patentes de software, pueden conducir a un escenario futuro próximo donde las compañías privadas con imperativos de mercado y sistemas de propiedad se conviertan en enclaves autorizados por el gobierno de experiencia en el aprendizaje y los procesos docentes. En este contexto, parece probable que el modo de conceptualizar y entender el aprendizaje se convierta en una especie de propiedad para los centros de investigación con recursos privados.

La protección y la privacidad de los datos El auge de la ciencia de datos educativos como infraestructura para la analítica de los big data de la educación plantea importantes cuestiones sobre la privacidad, la protección y el uso responsable de los datos del estudiante. En un reciente artículo de prensa, se decía, por ejemplo, que la compañía Blackboard había realizado un ejercicio masivo de minería de datos sobre los de alumnos de 70.000 cursos disponibles en su plataforma de gestión del aprendizaje. En respuesta a este estudio, un comentarista decía: Hemos entrado en un mundo en que muchas de las organizaciones más ricas en datos sobre la enseñanza y el aprendizaje del alumno no son los centros educativos: son sistemas de gestión del aprendizaje, son proveedores de MOOC, son otros proveedores de servicios docentes… Hemos de empezar a pensar en cómo gobernar los datos y la investigación en este nuevo ámbito plural… Tenemos todas las razones para pensar que el sector propietario asumirá el liderazgo en la construcción de esta ciencia, pero el límite está en cómo la diseñemos y gobernemos. (YOUNG, 2016) Estos comentarios son, básicamente, la propuesta de una agenda para regular y gobernar la ciencia de datos educativos, en particular para asegurar que se rija por estrictos códigos de conducta en lo que respecta a la privacidad y la protección de datos, por la creciente cantidad de estudios que se realizan fuera del ámbito de la investigación académica y sus consejos y marcos éticos. Otros autores señalan que los profesores de centros universitarios y no universitarios deben “alfabetizarse en datos” para poder “tomar decisiones y desarrollar destrezas para

151

analizar las necesidades del estudiante y adaptar las prácticas a partir de los datos sobre el rendimiento del alumno”: La alfabetización en datos para la enseñanza es la capacidad de transformar información en conocimiento y prácticas docentes procesables, mediante la recogida, el análisis y la interpretación de todo tipo de datos (de evaluación, del ambiente del centro, conductuales, inmediatos, longitudinales, momento a momento, etc.) y así determinar mejor los pasos a seguir en la instrucción. Esta alfabetización comprende la interpretación de los datos por medio de estándares, conocimientos y prácticas disciplinares, conocimiento curricular, conocimiento de contenidos pedagógicos, y conocimiento de cómo aprenden los niños. (MANDINACH y GUMMER, 2016, pág. 44) La alfabetización en datos del profesor incluye el uso responsable de los del alumno, teniendo en cuenta la privacidad y la protección de los datos, una obligación complicada por el hecho de que la mayor parte de los datos del alumno la reúnen y analizan sistemas de propiedad que escapan del control de los profesores. Se está reconociendo cada vez más que la recolección y el análisis de datos del estudiante, en particular entre vendedores comerciales y sus sistemas de propiedad, pueden incluso provocar daños. El jurista SOLOVE (2006) ha elaborado una influyente taxonomía de “daños a la privacidad” relacionados con los sistemas de información. Organiza tales daños en cuatro categorías: (1) la recolección de datos, que se refiere a cómo las empresas, las personas y los gobiernos reúnen información sobre un “sujeto de datos” individual, (2) el procesado de la información, realizado por quienes reúnen los datos —los “titulares de los datos”— y después los procesan, almacenan, combinan, manipulan, buscan y utilizan, (3) la difusión de la información, en la que los titulares de los datos transfieren o publican la información, y la alejan del control del individuo, y (4) las invasiones, que se refiere a los efectos inmediatos sobre el individuo. En el primer apartado, la recolección de datos, se incluyen técnicas específicas de vigilancia, es decir, para observar, escuchar o registrar las actividades de una persona, y de interrogatorio, consistentes en preguntar o indagar en busca de información. En los ejemplos que veíamos más arriba, es evidente que los estudiantes son cada vez más sujetos de datos de actividades de analítica vigilante que permiten que su información personal sea sondeada e investigada, a menudo sin su conocimiento y muchas veces de forma automática mediante técnicas algorítmicas. La segunda categoría, el procesado de la información, incluye la agregación, la combinación de diferentes fragmentos de información sobre una persona, la identificación, o la vinculación de la información con las personas, la inseguridad, el descuido en la protección de la información almacenada, el uso secundario, o el uso de la información recogida con fines distintos de los previstos sin el consentimiento del sujeto de los datos, y la exclusión, es decir, no permitir que el sujeto de los datos sepa lo que se hace con ellos, cómo se manipulan y se utilizan.

152

También aquí, las plataformas de analítica del aprendizaje proceden mediante la agregación de datos de los alumnos para ofrecer un detallado flujo temporal digital de sus vidas, con el consiguiente riesgo de inseguridad y de uso secundario de sus datos. La tercera categoría, la información y la difusión, incluye la violación de la confidencialidad, el incumplimiento del compromiso de mantener en secreto los datos personales, la divulgación, la revelación de información que puede afectar a la opinión que otros tengan del individuo, la mayor accesibilidad a los datos de la persona y su mayor disponibilidad, la apropiación de la identidad del sujeto de los datos en interés de otros, y la distorsión, es decir, la difusión de información engañosa o falsa sobre el sujeto de los datos. El auge de una importante industria comercial en torno a los datos de los estudiantes indica que este tipo de información se emplea hoy para obtener beneficios comerciales. Los datos también pueden ser objeto de usos no previstos y ataques informáticos. Es posible que tales distorsiones no se produzcan de forma explícita, pero también es evidente que la agregación de rastros de datos del alumno puede llevar a la formación de identidades digitales —o “dobles de datos”— que solo son parcialmente representativas de su vida, y que se pueden utilizar como sustituto informacional para explicar sus experiencias subjetivas, personificadas y sensoriales. Por último, en la cuarta categoría, la de las invasiones, están los daños que la intromisión en la vida privada provoca en la privacidad, y la interferencia decisional, es decir, los intentos de intervenir en la toma de decisiones de la persona. En vez de promover el derecho del alumno a participar en decisiones sobre asuntos importantes que afectan a su propia vida, parece que muchos sistemas de analítica delegan la toma de decisiones en sistemas de propiedad automáticos donde los alumnos tienen pocas posibilidades de participar en el manejo o uso de sus propios datos. La recogida, el procesado y la difusión de datos del alumno pueden ser intrusivos, porque se utilizan para informar la toma de decisiones que toman otros y pueden afectar a la vida de los estudiantes, o incluso pueden interferir en su propia toma de decisiones, porque les convencen para que decidan sobre su vida a partir de una información que ha sido configurada a través de múltiples capas de intervención humana y técnica. El uso de técnicas predictivas de aprendizaje automático en las plataformas de analítica del aprendizaje tal vez sea el ejemplo paradigmático de interferencia decisional, ya que los diseñadores de los algoritmos los programan y optimizan para que prevean las decisiones del alumno y le inciten a cambiar su vida de acuerdo con las normas deducidas de cálculos realizados de forma automática por series algorítmicas dentro de gigantescas bases de datos. Como consecuencia del creciente reconocimiento de los perjuicios y riesgos para la privacidad relacionados con los big data en la educación, la protección de los datos del alumno ha pasado a ser objeto de gran preocupación. Por ejemplo, en 2016 la asesoría educativa Ithaca S+R y el Centro de Estudios Avanzados mediante el Aprendizaje Online (CAROL, en sus siglas inglesas) de la Universidad de Stanford, pusieron en marcha un

153

proyecto colaborativo sobre “El uso responsable de los datos del alumno en la enseñanza superior”. El proyecto incluía un informe en que se repasaban los nuevos usos de los datos del estudiante para la investigación (donde se utilizan para realizar estudios empíricos y desarrollar conocimientos), la aplicación (para informar los cambios en las prácticas, los programas y las políticas docentes), la información (para comunicar a públicos internos y externos las experiencias y logros educativos de los estudiantes) y las principales cuestiones prácticas y éticas en torno a esos usos (ALAMUDDIN y col., 2016). Los autores del informe se refieren en particular a la dificultad de controlar el uso de los datos de los estudiantes cuando pasan de unas instituciones a otras y a plataformas digitales que son propiedad de entidades comerciales: Muchos de los nuevos usos dependen de la integración de datos procedentes de múltiples sistemas de las instituciones, unos sistemas que son propiedad de distintas empresas comerciales. Además, los proveedores externos quedan integrados a través del proceso de generación, recogida y análisis de datos de los alumnos. Debido en parte a la naturaleza reacia a las fronteras de su trabajo, los investigadores, las instituciones y otra organizaciones implicadas en estas áreas suelen afanarse en definir sus propios datos, quién tiene autoridad sobre ellos, de qué forma, y con qué fines… En un entorno en que la propiedad y la gobernanza están difusas, el mayor riesgo es extralimitarse, emprender acciones que traspasen la línea ética. (ALAMUDDIN y col., 2016, págs. 3-4) Como respuesta a estas preocupaciones, la definición que el proyecto Uso Responsable de los Datos del Estudiante da de “uso responsable” incluye cuestiones de privacidad y protección de los datos, pero también recoge valores como la transparencia, la autonomía del alumno y la obligación de intervenir para reducir los efectos adversos o los perjuicios a la privacidad. No obstante, siguen sin resolver muchas cuestiones sobre la adecuación de las actuales políticas y estructuras de privacidad del alumno y protección de sus datos, en lo que se refiere al auge de las prácticas de la ciencia de datos educativos de analítica y minería de los big data (ZEIDE, 2016).

Conclusión La ciencia de datos educativos y sus aplicaciones están convirtiendo las instituciones educativas —sean escuelas, institutos o universidades— en plataformas metrológicas que llevan a cabo una forma científica permanente de medición de los procesos de aprendizaje. ALTSCHOOL es quizás la plataforma metrológica prototípica para los centros educativos, un servicio full stack o de “pila llena” que yuxtapone técnicas y aplicaciones de la ciencia de datos sobre el espacio físico y el aparato didáctico de la escuela. DESROSIERES (2001), sociólogo y estadístico, define el “realismo metrológico” como la asunción de que la estadística es un reflejo más o menos exacto de la realidad. Se puede

154

decir que la ciencia de datos educativos es un campo de realismo metrológico, cuyo proceder parte del supuesto de que los macrodatos pueden revelar comportamientos humanos, rasgos psicológicos y procesos mentales como los del aprendizaje a través de la constante medición y cuantificación científica. En consecuencia, la ciencia de datos educativos, al igual que otros campos nuevos similares como la psicoinformática, persigue con entusiasmo la producción de conocimientos nuevos y la generación de teorías siguiendo principios metrológicos realistas. Pero, como subraya DESROSIERES (2001), enumerar algo equivale a cambiarlo en el momento en que su representación cuantitativa penetra en la toma de decisiones y en otras actividades. Por lo tanto, lo que se conoce como aprendizaje se convierte en objeto de una posible transformación cuando se cuantifica en sistemas de analítica del aprendizaje. Antes incluso de que se pueda contar, el aprendizaje ha de ser enmarcado y clasificado de modo que se pueda incluir en una base de datos. ¿Qué conductas o señales específicas del alumno pueden indicar que se está produciendo aprendizaje? La propia ciencia de datos educativos debe ocuparse de estas cuestiones. En el esfuerzo por hacerlo, busca el modo de generar nuevas teorizaciones e interpretaciones que puedan transformar el modo en que se organizan las instituciones educativas y se llevan a cabo las prácticas pedagógicas. Con la ciencia de datos educativos se produce en la educación un proceso nuevo de “infraestructuración” (EDWARDS y col., 2013). Con la construcción de una nueva infraestructura de macrodatos para la educación, la red organizativa de que se compone la ciencia de datos educativos genera datos sobre prácticas y procesos educativos, de modo que permite que unas y otros tengan diversos efectos. En primer lugar, se está haciendo de los big data una nueva forma de conocimiento especializado y de idea procesable que pueden informar la toma de decisiones de los profesores, pero que también los podrían utilizar sistemas autónomos de aprendizaje automático para generar recomendaciones para la intervención didáctica. Segundo, se utilizan conocimientos obtenidos de “datos que reflejan cognición” para determinar de qué modo el alumno accede al conocimiento, lo encuentra, experimenta y recibe por vías de aprendizaje personalizadas definidas algorítmicamente, y no por vías pedagógicas a través de los conocimientos escolares definidos por los profesores. En tercer lugar, estas organizaciones están reelaborando los propios conocimientos de la escuela, redefiniendo la forma del conocimiento como una red nodal de contenidos y conceptos que se pueden conectar a vías óptimas para cada individuo. Gran parte de los conocimientos que contiene el currículo escolar necesitaría una importante reconfiguración y reorganización para adaptarse a las bases de datos, reposicionando con ello la educación de acuerdo con una “concepción estrecha del aprendizaje como adquisición de destrezas individuales… independiente de los contextos sociales más amplios y las formas culturalmente relevantes de conocimiento e indagación” (ROBERTSMAHONEY y col., 2016, pág. 1). Y cuarto, estas organizaciones están construyendo una

155

nueva infraestructura organizativa en red de producción de conocimiento y generación de teoría, una infraestructura con los recursos económicos y las redes sociales necesarios para convertirse en importante fuente de influencia en la investigación educativa. Están produciendo nuevos tipos de evidencia sobre el aprendizaje y la educación de acuerdo con una epistemología de big data de realismo metrológico y técnicas metodológicas de psicoinformática que cada vez atraen más a legisladores y gobiernos. El gran alcance de los sistemas de propiedad que han sido programados para interpretar los datos de los estudiantes genera hoy serias preocupaciones por la privacidad, la protección de los datos y los daños potenciales relacionados con su recogida, procesado y difusión. En particular —y tal vez sea esto lo más notable— la ciencia de datos educativos lleva consigo la capacidad de usar los datos del alumno para interferir en las decisiones, mediante oportunidades algorítmicamente limitadoras y previstas vías de aprendizaje de cada individuo disfrazadas de “aprendizaje personalizado”. El enfoque metrológico de la cuantificación del aprendizaje cambia básicamente la idea que el alumno tenga de sí mismo, y permite que sistemas algorítmicos decidan en su nombre sobre la dirección de su aprendizaje, incluso interfiriendo en su propia toma de decisiones mientras se le estimula para que se evalúe en términos metrológicos. La capacidad de utilizar los datos para interferir en las decisiones se agudiza de modo especial con el uso de nuevas tecnologías de analítica de datos emocionales y conductuales, un tema del que nos ocupamos en el capítulo siguiente.

156

157

158

¿Es posible la minería de datos sobre aspectos conductuales y emocionales del aprendizaje? En la novela de ciencia ficción The Red Men de Matthew DE ABAITUA (2007), una pudiente organización comercial llamada la Mónada se pone a construir una simulación pormenorizada de una ciudad británica entrenando a su sistema de inteligencia artificial con datos acerca de su entorno y sus habitantes. Mediante una minería de datos masiva y minuciosa de los detalles íntimos personales, la vida y la conducta de cada uno de sus habitantes, la Mónada aspira a crear el grupo objetivo simulado definitivo, un banco de pruebas en el que se puedan aplicar políticas de gobierno para prever y modelar sus resultados en tiempo real. Los datos simulados sobre los que se modela la ciudad acaban por convertirse en un complejo laboratorio psicológico para la experimentación política, por medio de la cual se pueden prever predecir y en última instancia prevenir los sentimientos y comportamientos de la población. The Red Men es una exposición ficticia, pero representa a la perfección un imaginario sociotécnico actual que contempla un futuro en que las poblaciones se pueden someter a íntima medición emocional y a una auditoría conductual, con el objetivo de hacer predicciones sobre sus sentimientos futuros, y así diseñar estrategias preventivas que puedan servir a los intereses del gobierno y, al mismo tiempo, afectar positivamente a las conductas colectivas e individuales. Ya se están diseñando nuevas tecnologías para hacer posibles la medición y la gestión emocionales en las instituciones educativas. La minería de datos educativos y la analítica del aprendizaje han demostrado la posibilidad de obtener nuevas ideas sobre el aprendizaje académico a partir de fuentes de macrodatos, pero otras formas de

159

recolección y análisis de datos digitales plantean que los aspectos no académicos y no cognitivos del aprendizaje también se pueden conocer, entender y someter a la minería de datos. Como veíamos en el capítulo anterior, las promesas de la “psicoinformática”, o la aplicación de métodos de la ciencia informática al seguimiento y el análisis psicológicos de los comportamientos, despiertan ya un gran interés. En este capítulo, nos centramos en el desarrollo y la aplicación de nuevos tipos de dispositivos y plataformas que pueden medir el cuerpo, el comportamiento y el estado de ánimo del estudiante, e intervenir en todos ellos. Como ocurre con muchas de las tecnologías emergentes de los big data que hemos visto en otros capítulos, el intento de capturar —y actuar sobre— el aprendizaje no cognitivo a través de sistemas de datos digitales está impulsado por un potente imaginario compartido que, a su vez, cataliza proyectos de desarrollo técnico aplicado. En el núcleo de este capítulo está la tesis de que las formas psicológicas de la experiencia están entretejidas con las prácticas educativas y los consiguientes métodos informáticos de análisis de los big data. Se están elaborando nuevos vocabularios para entender el aprendizaje de los niños, un léxico reforzado con el diseño de tecnologías específicas de recolección y análisis de datos psicológicos. En la primera parte del capítulo explico el concepto de “complejo CompPsi” (WILLIAMSON, 2016c) para delimitar las emergentes interdependencias de la computación y la psicología, y su objetivo “biopolítico” de reconfigurar las conductas de los ciudadanos como sujetos gobernables del capitalismo digital. A continuación hablo del sumo interés que el “aprendizaje no cognitivo” despierta en la educación, y de cómo ha pasado a formar parte de un nuevo conocimiento científico de la mente que se ha trasladado a la política y la práctica educativas. Después, veremos ejemplos del complejo CompPsi aplicado a proyectos e iniciativas educativos concretos. El apartado se centra en nuevas técnicas biométricas para la detección del estado de ánimo y la medición de la implicación, en nuevos tipos de analítica del cuerpo que miden la actividad física como indicador de salud y bienestar, en la aparición de la “analítica del aprendizaje emocional”, y en dispositivos de control y gestión de la conducta que hacen del aula destino de técnicas de gobernanza psicológica y estratégica del “cambio conductual”. En la exposición analizo el lugar que la medición psicológica del aprendizaje no cognitiva ocupa entre las emergentes “psicopolíticas” que pueden responsabilizar a las escuelas del desarrollo afectivo y las cualidades personales del alumno de forma equivalente a un estrategia biopolítica de mejora del “carácter”. Al igual que en la ciudad ficticia de The Red Men, la educación se sitúa como laboratorio psicológico para medir y experimentar sobre las mentes, los estados de ánimo y las conductas encarnadas de los niños, como ciudadanos de los estados que hoy se caracterizan por la minería de los big data. En la base del imaginario de los big data del complejo CompPsi está la idea de que los estados emocionales de los alumnos se pueden descodificar científicamente con la lectura del cuerpo, más que sonsacando las voces de los alumnos.

160

La computación psicológica La psicología influye desde hace mucho tiempo en la organización de la gobernanza de las sociedades actuales. La opinión autorizada de ROSE (1999b) es que las formas psicológicas de conocimiento, experiencia y autoridad, o las “psi-ciencias”, han desempeñado desde finales del siglo XIX un importante papel en la determinación de la idea que las personas puedan tener de sí mismas, cómo puedan hablar de ellas mismas y vivir de unas determinadas formas. En particular, ROSE sostiene que un “psi complejo” de formas relacionadas de ciencia psicológica y experiencia psicológica ha desempeñado una función clave en la construcción de “sujetos gobernables” y en las actuales formas del poder político. Con ello se refiere a que la psicología ha hecho posible la comprensión de la conducta humana y, por lo tanto, el desarrollo de técnicas prácticas y de know-how para la gestión de las capacidades humanas y la intervención en ellas con fines específicos. En otras palabas, la psicología ha posibilitado el gobierno y la administración del individuo y de las comunidades más amplias. El auge de la experiencia psicológica a lo largo del siglo pasado forma parte de lo que Michel FOUCAULT describía como “biopolítica”, un término que significa “la entrada de fenómenos particulares de la vida de la especie humana en el orden del conocimiento y el poder, en la esfera de las técnicas políticas” (FOUCAULT, 1990, págs. 141-142). Disciplinas como la estadística, la demografía, la epidemiología, la psicología y la biología se han convertido en la base de nuevas estrategias de “bio-poder” que han llevado la vida humana al “reino del cálculo explícito” (1990, pág. 143) y han puesto al individuo y a las poblaciones a disposición del control y la gestión sociales: Estas disciplinas hacen posible el análisis de procesos de la vida a nivel de las poblaciones, y el “gobierno” de los individuos y los colectivos mediante prácticas de corrección, exclusión, normalización, disciplina, terapéutica y optimización… El descubrimiento de una “naturaleza” de la población… en la que pueden influir iniciativas y medidas específicas es condición previa para su dirección y gestión. (LEMKE, 2011, págs. 5-6) Así pues, la idea de “biopolítica” expresa cómo campos especializados como la ciencia de la vida y las ciencias psicológicas han desarrollado peculiares prácticas disciplinares, formas acreditadas de conocimiento y verdades históricas sobre las vidas humanas, todo lo cual se pudo traducir después en prácticas específicas para intervenir en las vidas humanas y gobernarlas (RABINOW y ROSE, 2006). En otras palabras, la vida humana ha sido anatomizada en términos de sus características biológicas y psicológicas, de formas que permiten medir, comparar y evaluar a las personas para que después puedan actuar sobre ellas diversas autoridades psicológicas, médicas y administrativas. Con la creciente influencia de la economía conductual, las prácticas biopolíticas de “gobernanza psicológica” han cobrado especial fuerza en los últimos años. Como

161

disciplina psicológica especializada, la economía conductual aporta cada vez más sus ideas a las raíces del comportamiento humano para cambiar las “agendas conductuales” de los gobiernos de todo el mundo. Esta nueva psi-ciencia confirma que los seres humanos somos susceptibles de emociones y pareceres inconscientes y, por consiguiente, se nos puede “empujar” a cambiar nuestras conductas, elecciones y procesos de toma de decisiones hacia modos de vida más sanos y una mayor plenitud emocional (JONES y col., 2013). La economía conductual se ha convertido en un “nuevo conocimiento político” que se ha trasladado a diversos ámbitos de intervención gubernamental (MCGIMPSEY y col., 2016). Como tal, la “teoría del empujón” da por supuesto que: La toma de decisiones de todos los días se puede y se debe estructurar de forma que anime (“empuje”) a la persona a decidir en su propio beneficio. Es una idea que reestructura el diseño de sistemas a gran escala (por ejemplo, el ahorro, la sanidad y la educación) como “arquitecturas de decisión” diseñadas para la producción de los resultados óptimos (desde la perspectiva del diseñador del sistema) sin privar a la persona de la libertad de elección. (BRADBURY y col., 2013, pág. 247) En los planteamientos del cambio conductual se asume que la política (por ejemplo, en la educación) se puede diseñar para reconocer los componentes irracionales y emocionales del comportamiento humano. Parten de una idea psicológica según la cual los seres humanos tomamos de forma habitual “malas” decisiones que de poco nos sirven para la salud y el bienestar, y se centran en el diseño de sistemas sociales y económicos que puedan promover “buenas” decisiones y elecciones que conduzcan a resultados positivos. Así pues, los diseñadores de políticas pueden cambiar las conductas de las personas para orientarlas hacia una mayor plenitud emocional, más felicidad y mejor bienestar, sin dejar de atender a las ambiciones del gobierno y a los objetivos comerciales. La economía conductual y las técnicas del empujón se han instalado hoy en el modelo operativo dominante de muchos gobiernos. En 2008, la Oficina Gubernamental para la Ciencia del Reino Unido elaboró un informe titulado Capital mental y bienestar, en el que se afirmaba que la prosperidad y el bienestar futuros de la sociedad en un mundo cada vez más interconectado y competitivo exigirían mayor atención política a los recursos mentales y materiales (FORESIGHT, 2008). El informe explica cómo la mejora psicológica de las personas con el fin de “corregir” sus conductas y sentimientos, ha pasado a ser el objetivo de los esfuerzos del gobierno por asegurar el orden social y la productividad y prosperidad económicas mediante la felicidad y el bienestar de los ciudadanos. Posteriormente, el gobierno de Reino Unido ha empezado a medir el bienestar y la felicidad de la población a través del estudio anual Medición del Bienestar Nacional que realiza la Oficina de Estadística Nacional; organizaciones benéficas y laboratorios de ideas han puesto en marcha iniciativas como la campaña Acción por la

162

Felicidad; y se ha producido un rápido traslado de la experiencia psicológica —vía mediadores como los laboratorios de ideas— a políticas públicas diseñadas para fomentar que las personas cambien su modo de vivir y comportarse y orientarlo hacia la felicidad y el bienestar. Esta nueva experiencia del bienestar se centra en “el yo como punto de intervención, de modo que el… sujeto se articula desde la perspectiva de la medición abstracta de estados y capacidades emocionales… con profundas resonancias del principio de ‘inversión inteligente’” (MCGIMPSEY y col., 2016, pág. 8). Con esta lógica de la inversión inteligente, se exhorta a los ciudadanos a que empleen sus vidas “en un ejercicio de optimización del bienestar”, como parte de una “bioética” emergente que exige que los individuos actúen para ser más felices y gozar de mejor salud, pese a los recortes que, en aras de la austeridad, el gobierno ha practicado en el bienestar y en los servicios sociales (CERDERSTROM y SPICER, 2015, pág. 3). En otras palabras, las ciencias de la felicidad y el bienestar afirman hoy que la medición de las emociones y la teoría del empujón se pueden emplear para ayudar al “ciudadano subóptimo” a tomar las decisiones que mejor convengan a su bienestar y al de la sociedad. Estas técnicas psicológicas y aspiraciones se están implantando hoy en la vida cotidiana mediante tecnologías digitalizadas de computación persuasiva, análisis de opiniones y analítica emocional. Las psi-ciencias han empezado a recibir con los brazos abiertos los análisis de macrodatos “psicoinformáticos” (MARKOWETZ y col., 2014), los programas de lectura facial, los análisis de opiniones y “ordenadores emocionalmente más inteligentes” a los que se puede enseñar a interpretar los comportamientos emocionales humanos y generar datos de tendencia social sobre el estado de ánimo de la población (DAVIES, 2015). El sector comercial ya se ha percatado de los grandes avances en el desarrollo de aplicaciones de “inteligencia emocional automática” diseñadas para detectar el parecer y los sentimientos humanos por medio del análisis facial, textual y del habla. Las tecnologías de lectura facial suelen estar basadas en la detección gestual de la cara, el seguimiento de la vista y la analítica específica de las posiciones faciales; el análisis del sentimiento textual se puede realizar a través del procesado del lenguaje natural, el análisis de tonos y el análisis lingüístico; y las aplicaciones de análisis del habla pueden detectar la emoción a partir de señales biológicas comunes en la voz humana mediante algoritmos sónicos. Estas tecnologías se basan en una síntesis de tecnologías de analítica de datos y psicología, y la mayoría de ellas detectan las emociones basándose en siete principales categorías de emoción humana: alegría, tristeza, enfado, miedo, sorpresa, satisfacción y aversión. Por ejemplo, la clasificación de las emociones contenidas en las tecnologías de detección facial se basa en técnicas como el sistema fisio-psicológico de codificación de la acción facial (FACS) desarrollado en los pasados años setenta. Se utiliza para explicar cómo las caras expresan emoción a través de los músculos. Otros sistemas de clasificación de las emociones desarrollados desde entonces están diseñados de modo similar para correlacionar índices fisiológicos con su explicación emocional (ROSE y col., 2016).

163

Estas tecnologías se resumen en la expresión “computación afectiva”, y tienen importantes consecuencias: Entre los intereses más amplios de la computación afectiva no solo está identificar las emociones humanas y reaccionar adecuadamente, sino también… poder simular emociones humanas que puedan hacer reconocible para un humano la emoción en cuestión, incrementando la capacidad de persuasión y, en algunos casos, generar deliberadamente en el usuario una determinada respuesta emocional. (ROSE y col., 2016, pág. 23) Así pues, el objetivo de las formas automáticas de inteligencia emocional o computación afectiva no es solo realizar funciones de detección de emociones, sino también simular estas y con ello influir en las personas y convencerlas a través del registro afectivo. El campo de la “computación persuasiva” representa en particular la estrecha relación entre las técnicas psicológicas para cambiar el comportamiento y los métodos informáticos dirigidos por datos. El objetivo de los investigadores y los desarrolladores de computación persuasiva es crear y aplicar ideas sobre cómo diseñar los productos informáticos —desde los sitios web al software de los teléfonos móviles— para cambiar lo que las personas creen y lo que hacen (FOGG, 2002). La computación persuasiva demuestra que las teorías psicológicas en que se cimientan las agendas de cambio de conductas en el ámbito político, han sido trasladadas al diseño de productos digitales con los que se pretende influir, con unos determinados fines, en las conductas habituales a largo plazo y las rutinas persistentes. Estas tecnologías persuasivas se pueden diseñar para dar “hiperempujones” que puedan dirigir u orientar las tomas de decisiones en el sentido que el correspondiente algoritmo de software considere “óptimo”, mediante sugerencias destinadas a incitar al usuario a tomar decisiones y de este modo modificar su comportamiento (YEUNG, 2017). Los macrodatos y las tecnologías persuasivas están al alcance de empresas comerciales y de las agencias gubernamentales, una disponibilidad que genera una nueva forma de “capitalismo digital” donde el intercambio de información digital a través de redes de datos se está convirtiendo en el centro de muchas actividades económicas y sociales (SHILLER, 2015). La forma de proceder del capitalismo digital es convertir la creación y el intercambio de información y datos —incluidos los generados y compartidos por los usuarios— en fuente de beneficios comerciales. Las plataformas de medios sociales han adquirido especial importancia en este cambio, dando lugar al “capitalismo de las plataformas”, en el que estas, mediante la cultura participativa, los códigos de movilización y el análisis de datos, enrolan al usuario para aplicar un modelo de negocio que da prioridad a la escalada rápida y la obtención de beneficios del rastro de datos de ese usuario (LANGLEY y LEYSHON, 2016, pág. 1). Un modelo similar de gobierno está en la base de los sistemas de “gobernanza digital”, o el diseño del Estado en la era de los

164

medios sociales y los big data (DUNLEAVY y MARGETTS, 2015). La gobernanza digital asume que las actividades, las conductas y el sentir de los ciudadanos —y sus transacciones con las organizaciones y sus interacciones mutuas— se pueden explotar en tiempo real a partir de flujos de datos disponibles a través de las plataformas, y que se pueden crear nuevas formas de diseños digitales para los servicios gubernamentales que puedan empujar y configurar su comportamiento hacia los resultados deseados, por ejemplo, el de mejor salud y bienestar emocionales. El flujo de datos sobre el comportamiento de los ciudadanos a los que se puede acceder a través de las plataformas sociales comerciales, y los recursos de macrodatos que reúnen, son, pues, de gran valor para los gobiernos que quieran entender y configurar los sentimientos y las actuaciones de los ciudadanos. Los datos emocionales que se pueden obtener de todos estos sistemas y tecnologías se están convirtiendo en elementos fundamentales de un nuevo estilo de gobierno, en el que la constante auditoría del estado de ánimo público y el sentir de los ciudadanos se puede utilizar para informar nuevas intervenciones políticas. Las ciencias de la teoría del empujón, los indicadores de felicidad y bienestar, y la movilización de técnicas de análisis del sentimiento, representan la vigilancia psicológica masiva del estado de ánimo de la población a cargo de expertos científicos en nombre de los gobiernos. Estas tecnologías permiten seguir y dirigir, como nunca antes se ha hecho, las emociones de las personas y de la población, pero también se pueden programar para juzgar y empujar sentimientos mediante técnicas de computación persuasiva. En consecuencia, “la verdad de nuestras emociones, se dice, se hará evidente, una vez que los investigadores hayan descodificado nuestro cerebros, nuestras caras y nuestros pareceres no intencionados” y “la sociedad pase a ser diseñada y gobernada como un inmenso laboratorio, en el que residimos de forma casi permanente en nuestra vida cotidiana” (DAVIES, 2015). Así pues, entre los enfoques paralelos del capitalismo y la gobernanza digitales, emerge una nueva forma de “biopolítica blanda”, que funciona mediante la clasificación algorítmica de los datos de los usuarios y está “incrustada e integrada en un sistema social cuyos principios, normas y funcionamiento explícito se emplean en determinar las nuevas condiciones de posibilidades de la vida de los usuarios” (CHENEY-LIPPOD, 2011, pág. 167). En otras palabras, la dataficación de la vida cotidiana permite que poderosos actores sociales, comerciales y políticos realicen un permanente diagnóstico algorítmico de los patrones de la vida humana, el sentir emocional y las conductas, y usar estos conocimientos adquiridos con los datos para deducir nuevos modelos, clasificaciones y teorías de las conductas tanto individuales como sociales (RUPPERTY, 2012). De ahí deriva el diseño de determinadas tecnologías destinadas a maximizar las conductas que la experiencia psicológica considera adecuadas, configurando a los individuos con el adecuado comportamiento conductual y afectivo para un orden social deseado. En este sentido, las “líneas de código” de que están compuestas muchas tecnologías de análisis de sentimientos, persuasivas y de cambio conductual, son también “códigos de

165

conducta”, formas particulares de organizarse la vida que se anima a los usuarios que asuman, interioricen y personalicen en su forma de comportarse y expresarse conductual y emocionalmente. Por consiguiente, las tecnologías persuasivas basadas en datos son medios ideales para ofrecer a los ciudadanos formas particulares de pensar y de comportarse: en otras palabras, para educar a los ciudadanos para que participen en los estilos de gobierno dominantes de la sociedad. Con la expresión “complejo CompPsi” intento expresar que la ciencia de la computación (CompCi) se ha mezclado con las psi-ciencias como estrategia biopolítica de optimización psicológica del ciudadano en el capitalismo digital y modos equivalentes de gobernanza digital. Con el análisis de los sentimientos de los ciudadanos mediante aplicaciones de inteligencia emocional automática, y con la mejora psicológica de las personas con tecnologías de empuje y persuasivas basadas en datos, diversas autoridades comparten hoy el intento de construir el capital mental, la felicidad, la salud emocional y el bienestar de los ciudadanos como forma de asegurar el buen funcionamiento y la prosperidad del conjunto de la sociedad. Tanto los individuos como las poblaciones están cada vez más a disposición de una analítica psicológica y emocional constante, lo cual genera una pista de auditoría que el gobierno puede explotar mediante nuevos tipos de “psicopolíticas” con fines de predicción y prevención (FRIEDLI y STEARN, 2015). Esta nueva racionalidad política de la medición del estado de ánimo y gestión de la conducta por medio de la analítica de datos digitales, se manifiesta en la educación con la fusión de la experiencia psicológica con tecnologías educativas y agendas de los gobiernos destinadas a maximizar el bienestar emocional de los niños y niñas y otros aspectos del aprendizaje no cognitivo.

El aprendizaje no cognitivo Las estrategias psicológicas desempeñan su papel en la medición y posterior configuración de la conducta de los niños y jóvenes en los centros educativos, un papel hoy generalizado y de antiguos orígenes históricos (P OPKEWITZ, 2012). Con las técnicas psicológicas desarrolladas a lo largo del último siglo, los niños se han hecho visibles y objeto de evaluación a través de clasificaciones, gráficos, representaciones visuales y otras etiquetas relacionadas con las normas de posición y movimiento, los hábitos personales, la personalidad y diversas formas de conducta (ROSE, 1996). Debido en parte a formas psi-científicas de conocimiento, experiencia y autoridad, desde los pasados años noventa las escuelas se han ido centrando progresivamente en el control y la gestión de la salud emocional de los niños, su bienestar y otras cualidades personales no cognitivas o no académicas y factores afectivos del aprendizaje. Importantes organizaciones internacionales como el Foro Económico Mundial han empezado a promover el desarrollo y la medición de habilidades sociales y emocionales, en particular con medios tecnológicos (WEF, 2016). La Organización para la Cooperación

166

y el Desarrollo Económicos (OCDE) ha establecido su proyecto Educación y Progreso Social para desarrollar instrumentos específicos de medición para habilidades sociales y emocionales como la “perseverancia” y la “resiliencia”. El objetivo del proyecto es reunir pruebas sobre la vida emocional de los niños “para que legisladores, administradores escolares, profesionales y padres ayuden a los niños a alcanzar su pleno potencial, mejorar sus expectativas vitales y contribuir al progreso societal” (OECD, 2015). En estos informes se promueve la idea de que los resultados educativos dependen de que los alumnos desarrollen habilidades sociales y emocionales y otros indicadores de “carácter”, y contribuyan al avance de nuevas técnicas de medición social y emocional. Propuestas políticas introducidas en Estados Unidos están convirtiendo la medición de las habilidades sociales y emocionales de los niños en importante agenda del gobierno (ZERNIKE, 2016). Destaca, en este sentido, un informe de 2013 del Departamento de Educación en el que se apostaba por un “cambio en las prioridades educativas para promover no solo el conocimiento de contenidos, sino también la determinación, la tenacidad y la perseverancia” (SCHECHTMAN y col., 2013, pág. V). Uno de los resultados ha sido el desarrollo de nuevos instrumentos para medir “cualidades personales” como el autocontrol, la determinación, el carácter, la mentalidad de crecimiento y muchas otras (DUCKWORTH y YEAGER, 2015). En 2015, el gobierno de Estados Unidos puso en marcha la Ley Every Student Succeeds Act, una ley federal por la que todos los estados deben reunir información sobre al menos un aspecto “no cognitivo” o “no académico” del aprendizaje. El resultado han sido propuestas de nuevas formas de medir el aprendizaje social y emocional (FONTAINE, 2016). Se han creado nuevas iniciativas como el Character Lab para desarrollar la ciencia y la práctica de la medición social y emocional y el desarrollo del carácter, una iniciativa que promueve diversas “fortalezas de carácter” distintivas: la curiosidad, la gratitud, la determinación, la mentalidad de crecimiento, el optimismo, el propósito, el autocontrol, la inteligencia social/emocional y el disfrute (Character Lab, 2016). El estado de California es pionero en el uso de instrumentos de seguimiento para reunir datos sociales y emocionales, unos datos que después se utilizarán para evaluar el rendimiento de las escuelas de modo muy parecido al uso las calificaciones de los exámenes académicos para medir el rendimiento. Con los centros californianos sometidos hoy a la presión de dar pruebas medibles de progreso en el desarrollo de las cualidades personales de los alumnos, este “nuevo sistema de rendición de cuentas se considera el mayor esfuerzo por tratar y evaluar los hábitos mentales de los alumnos” (ADAMS, 2014). Al mismo tiempo, en Reino Unido la “educación terapéutica” ha ido en aumento tanto en la política como en la práctica, con el énfasis puesto en los aspectos sociales y emocionales del aprendizaje, en el bienestar, la felicidad, la autoestima, la resiliencia psicológica y demás (ECCLESTONE y HAYES, 2009). El objetivo de campañas como Acción por la Felicidad es introducir el “bienestar” y el “desarrollo del carácter” en los currículos escolares, un empeño más o menos asumido por el gobierno. El giro

167

terapéutico ha abierto nuevos campos profesionales para los especialistas en psicología, todos ellos basados en la idea de que hay que abordar el problema de cierto tipo de déficit psicológico en el individuo, más que centrarse en las causas sociales, medioambientales o materiales de los problemas emocionales (FUREDI, 2009). La tendencia terapéutica de la educación va asociada a la emergencia de la psicología positiva en las escuelas a partir de los años noventa y el objetivo de enseñar a los niños a ser felices y sentirse bien. Estas iniciativas son producto de expertos y gurús de la psicología, cuyas teorías y técnicas de optimización del bienestar atraen sumamente a los gobiernos como forma de romper la tendencia ascendente de la ansiedad y la depresión entre los jóvenes. Gran parte del interés de las escuelas por “el carácter”, “la resiliencia” y la conciencia plena nace de la preocupante evidencia de que la depresión y la ansiedad han aumentado rápidamente entre los más jóvenes en la última década, con el resultado de mayores índices de autolesiones. Parece evidente que los profesores y responsables de la salud busquen terapias y formas de enseñar que puedan acabar con parte de estos daños… En la era de los medios sociales, la propaganda ubicua y la turbulenta economía global, no se puede proteger a los niños de las fuentes de depresión y ansiedad. La única solución es ayudarles a construir defensas psicológicas más duraderas. (DAVIES, 2016) Todas estas circunstancias explican por qué las ideas psicológicas han tenido tan fuerte impacto en muchas políticas gubernamentales relativas a la medición y gestión de la mente de los niños, al tiempo que se han reducido las políticas centradas en determinantes sociales, políticos y medioambientales más generales. La consecuencia es que los niños y jóvenes no se ven como individuos, “sino como una medición abstracta del desarrollo emocional, como un punto cuantitativo de una correlación estadística con la consiguiente proyección de futuros resultados” (MCGIMPSEY, 2016, pág. 9). Como ejemplificación de esta tendencia terapéutica de la educación, en el momento de escribir estas páginas, se presta mucha atención el mindfulness, la plena conciencia, en la educación. Las iniciativas de mindfulness escolar se basan en gran medida en el supuesto de que los pequeños son vulnerables y se pueden estresar, y por ello pueden serles beneficiosas las prácticas meditativas que centren sus energías en las tareas inmediatas, y no en preocupaciones por el futuro provocadas por procesos sociales externos incontrolables. Pero desde una perspectiva más crítica, el mindfulness representa “una estrategia biopolítica de mejora humana” para aislar a los jóvenes de patologías que derivan del “capitalismo digital” —“un ejercicio de inmunología como próxima generación de trabajadores digitales sin sueldo” (REVELEY, 2015, pág. 804)—. En otras palabras, el mindfulness se considera una cura psicológica para problemas causados por cambios más amplios en el paisaje social y medioambiental de una forma de capitalismo

168

que se beneficia de la constante minería y el permanente análisis de la información y los datos sobre la vida cotidiana y la conducta de las personas. El auge de “la industria de la felicidad” en los últimos años es una respuesta comercial e interesada a las patologías y angustias provocadas originariamente y en conjunto por el actual capitalismo, la austeridad económica y las prioridades de los gobiernos en torno a la medición de resultados (DAVIES, 2015). En lugar de ocuparse de las causas que subyacen en las angustias y preocupaciones de los niños, iniciativas como el mindfulness —y otras estrategias de bienestar afines— son una técnica biopolítica que se ocupa de asegurar que los niños estén bien adaptados y emocionalmente moldeados para poder enfrentarse psicológicamente a un exigente entorno social y técnico, un entorno que, para proyectar resultados futuros, ha de medir constantemente el desarrollo emocional de los jóvenes. El giro terapéutico de la educación y el énfasis en el aprendizaje no cognitivo, el desarrollo del carácter, etc., se traducen básicamente en un nuevo vocabulario psicológico para clasificar y evaluar a los niños e intervenir en ellos. Son desarrollos continuados con técnicas previas inventadas por las ciencias psicológicas que han aportado formas de describir, representar y visualizar las capacidades mentales y las características conductuales de la persona. La psicología ha convertido al individuo humano en “calculable y gestionable”, convirtiendo espacios como el aula en “minilaboratorios” para “cuantificar todas las cualidades del alma humana” (ROSE, 1996, pág. 112). Hoy, mediante nuevos tipos de analítica, técnicas de computación afectiva y tecnologías educativas, se están introduciendo en la educación diversas ideas, conceptos, iniciativas y técnicas psicológicas destinadas a reconfigurar las conductas, optimizar el bienestar emocional y personalizado, y mejorar el “capital mental” medible para que se ajuste a las demandas del capitalismo digital. En el resto del capítulo documento la aplicación actual en las escuelas, a través de productos y proyectos tecnológicos específicos destinados a ellas, de un complejo CompPsi derivado de la yuxtaposición de sistemas de recolección y análisis de datos de la ciencia informática, con teorías psicológicas y aspiraciones gubernamentales.

La detección biométrica del estado de ánimo Las tecnologías biométricas desempeñan un papel cada vez más importante en la educación, con tecnologías como el reconocimiento de las huellas digitales, de las venas de los dedos o del iris del ojo (P ATTON, 2016). Diversas fuentes señalan que se han recogido datos biométricos de en torno a un millón de alumnos de centros de secundaria del Reino Unido, se ha almacenado en bases de datos información biométrica de los alumnos, o se han usado esos datos como parte de un proceso electrónico, por ejemplo, comparándolos con información biométrica de una base de datos para identificar o reconocer a los alumnos (BIG BROTHER WATCH, 2014). Tales tecnologías forman parte

169

del auge constante de la “vigilancia de las escuelas” y representan un avance de sistemas ya existentes de vigilancia educativa como las cámaras de seguridad CCTV. Las tecnologías biométricas están pasando rápidamente de ser simple técnicas de vigilancia por vídeo a incluir el reconocimiento facial y tecnologías portátiles diseñadas para recoger datos biométricos de la piel. Muchas de estas tecnologías biométricas se han desarrollado específicamente como parte del movimiento del “Yo cuantificado”, la tendencia global de monitorizar y medir uno mismo su actividad física, sus emociones, el sueño, etc. (LUPTON, 2016). Estas tecnologías funcionan con minúsculos dispositivos biosensores que combinan un elemento biológico (el sudor, la saliva, una muestra de sangre o CO2) con un detector fisioquímico que lo convierte en señal eléctrica que a partir de ahí puede pasar a formar parte de una plataforma mayor, donde se puede transformar en datos y visualizaciones que aparecen en pantalla (NAFUS, 2016). Como parte de un campo más amplio de computación afectiva, se han desarrollado tecnologías biométricas y de biosensores para medir el estado de ánimo de los niños en las escuelas, aunque hasta hoy muchas no son más que prototipos. Uno de estos prototipos, llamado EngageSense, está compuesto de una webcam montada en un ordenador y conectada a un programa de reconocimiento facial y algoritmos de visión computarizada diseñados para medir y monitorizar los niveles de implicación de los niños a través del seguimiento de la vista y la expresión facial. El objetivo de EngageSense es facilitar al profesor una medición automática de la participación del alumno a lo largo del día, una información que se puede utilizar para personalizar posteriores rutinas didácticas con el fin de intensificar las respuestas emocionales, como la motivación, la atención y la implicación, y minimizar emociones negativas como la confusión, la distracción o la ansiedad. La visión automática se está convirtiendo en una importante industria, a medida que las imágenes que se comparten en los medios sociales y los sistemas de vigilancia permiten que procesos algorítmicos, como DeepFace de Facebook y TensorFlow de Google, identifiquen las caras y sus emociones (P AGLEN, 2016). EngageSense es el prototipo de la posible introducción de sistemas de identificación facial algorítmica en las escuelas. Se ha diseñado otro tipo de tecnología prototípica para detectar directamente a través de la piel el entusiasmo, el estrés, el miedo, la implicación, el aburrimiento y la relajación. Se han diseñado sensores pulsera o “podómetros de la implicación” para enviar una pequeña corriente por toda la piel y medir los cambios de carga eléctrica a medida que el sistema nervioso responde a los estímulos. Desarrolladas originariamente por investigadores de la computación afectiva del Instituto Tecnológico de Massachusetts, y financiadas por la Fundación Bill y Melinda Gates, estas pulseras de reacción electrodérmica —conocidas como Q Sensores— miden la calidad de la conducción de la electricidad por parte de la piel, una calidad que varía con el nivel de humedad de esta. El sistema nervioso controla las glándulas sudoríparas de modo que la conductancia de la piel se puede utilizar como indicador fisiológico de una reacción provocada

170

emocionalmente (SIMON, 2012). Aunque el sensor Q nunca se comercializó para su uso en centros educativos, sus desarrolladores del MIT lo han transformado en el sensor Embrace, parecido a un reloj de pulsera (P ICARD, 2016). El informe del Foro Económico Mundial sobre el uso de las tecnologías para fomentar el aprendizaje social y emocional habla con entusiasmo del reloj Embrace: El reloj Embrace… es un dispositivo ponible que sigue la actividad y el estrés fisiológicos. Se puede programar para que vibre cuando el estrés alcanza un determinado nivel, dando tiempo a que el interesado pase a una reacción más positiva antes de que el estrés se descontrole. La conjunción de la funcionalidad del reloj Embrace y el trabajo de orientación de padres y profesores puede ampliar aún más las oportunidades de construir una inteligencia social y emocional del niño. (WEF, 2016, pág. 14) En sentido más amplio, el FEM defiende el uso de los sensores biométricos ponibles para seguir las reacciones físicas en situaciones de aprendizaje, por ejemplo, las fluctuaciones del estrés y las emociones, y también “para ofrecer un registro del estado emocional de la persona minuto a minuto, un registro que puede ayudar a generar autoconciencia e incluso empatía, ambas componentes fundamentales de las destrezas sociales y emocionales” (WEF, 2016, pág. 14). El informe del Departamento de Educación de Estados Unidos Promoting Grit, Tenacity and Perseverance (SCHECHTMAN y col., 2013) también pone gran énfasis en el uso de las tecnologías biométricas para la medición de los aspectos afectivos del aprendizaje. El informe subraya el uso posible de los sistemas de sensores biométricos para medir factores no cognitivos y actitudes del alumno como la determinación, la tenacidad y la perseverancia que implican la medición de los procesos psicológicos, y para medir y reunir datos sobre las disposiciones y la participación, por ejemplo, los niveles de frustración, motivación, confianza, aburrimiento y fatiga. Las tecnologías de biométrica, biosensores y lectura facial registran las señales biofísicas del cuerpo del niño como indicadores de procesos emocionales ocultos, siguiendo las formas psicológicas de clasificación y modelado de las emociones. Tales tecnologías se componen de una amalgama de experiencia técnica en computación afectiva, ciencia biomédica y técnicas biométricas de monitorización electrodérmica, además de la psicología de la implicación emocional. La razón velada de la promoción de estos dispositivos en la educación es detectar y medir los sentimientos de los niños, para después abordarlos como objetivo de la modificación del estado de ánimo.

Analítica del aprendizaje emocional El análisis de datos emocionales del niño despierta un gran interés en el nuevo campo

171

de la ciencia de datos educativos. Por ejemplo, P EA (2014, pág. 28), notable científico de datos educativos, propone el uso de sistemas científicos de datos para ocuparse de “factores no cognitivos del aprendizaje”, por ejemplo, la persistencia/perseverancia académica (o determinación), la autorregulación, la implicación o la motivación”, que “con prácticas adecuadas se pueden mejorar”. Algunas de las diversas técnicas de medición del “estado emocional” de los estudiantes son la recolección de “indicadores cercanos relativos al aprendizaje” mediante técnicas como “las expresiones faciales detectadas por una webcam durante el aprendizaje”, además de otras fuentes de datos como “el vídeo, el seguimiento de la vista y la temperatura y conductividad de la piel” (2014, págs. 32 y 46). La medición informatizada del estado emocional de quien aprende es un ejemplo claro de computación afectiva en el campo de la educación. El informe del FEM sobre el desarrollo del aprendizaje social y emocional mediante la tecnología, por ejemplo, detalla explícitamente las posibilidades de la computación afectiva en la educación: La computación afectiva abarca un nuevo conjunto de innovaciones con las que los sistemas pueden reconocer, interpretar y simular emociones humanas… Es una tecnología muy prometedora para el desarrollo de habilidades sociales y emocionales como una mayor empatía, mejor autoconciencia y unas relaciones más sólidas… La inteligencia artificial y la computación social multimodal podrían contribuir a mejorar las destrezas cognitivas, sociales y emocionales. (WEF, 2016, pág. 15) La identificación y medición de indicadores psicológicos mediante el análisis de contenidos, el procesado del lenguaje natural, cuestionarios sobre emociones, y también con técnicas de análisis de los sentimientos con macrodatos y la “inteligencia emocional automática”, son nuevas técnicas especializadas para la minería de las emociones del niño. En consecuencia, se ha dicho que “con las mayores prestaciones para la continua medición facial y de la voz mediante tabletas y teléfonos inteligentes, podría ser factible monitorizar las emociones del estudiante en tiempo real” (RIENTIES y RIVERS, 2014, pág. 15). En este mismo sentido, los científicos de datos educativos P IETY y col. (2014, pág. 3) apuestan también por los métodos de la ciencia de datos para medir “características del estudiante” tales como “las diferencias de grado de motivación académica, las actitudes ante los contenidos, los estilos de atención e implicación, los de expectativa e incentivo… la constancia en la adversidad… y la tenacidad o determinación”. Todos los términos relativos a las características no cognitivas del alumno, como motivación, implicación, determinación, autorregulación, estado emocional, etc., son altamente indicativos de la genealogía fuertemente psicológica del propio campo de la ciencia de datos educativos. Apuntan en particular a la posibilidad de utilizar dispositivos digitales para reunir y calcular datos inmediatos sobre las emociones del niño durante las experiencias

172

educativas, para después ofrecer recetas de base psicológica para la maximización emocional. El propio campo más general de la analítica del aprendizaje se asienta en modos psicométricos de medición psicológica y técnicas emergentes de psicoinformática. El subcampo de la “analítica del aprendizaje emocional” lleva la psicometría y formas relacionadas de monitorización y perfilado psicológicos a un grado mucho más refinado e íntimo. Las plataformas de analítica del aprendizaje emocional están diseñadas para captar datos inmediatos sobre experiencias afectivas y no afectivas del niño mientras aprende, con un uso extensivo de la psicometría, el análisis del sentir y el procesado del lenguaje natural, para posibilitar la detección automática, la evaluación, el análisis y la predicción de emociones mediante indicadores conductuales medibles. El objetivo de la analítica del aprendizaje emocional es: incorporar el análisis automático de las emociones… a las mediciones de la analítica del aprendizaje para obtener una imagen holística del progreso del discente y descubrir posibles riesgos debidos a emociones negativas… [y] el uso de la detección automática, la evaluación y el análisis de las emociones para ofrecer mayor asistencia, retroalimentación y orientación personalizadas en los cursos online. (MONTERO y SUHONEN, 2014, pág. 165) Los promotores de las formas automáticas de analítica del aprendizaje emocional las dan por supuestas para que: (1) el profesor disponga de la información relevante necesaria para decidir sobre la adecuada intervención didáctica, (2) los científicos de datos educativos tengan nuevas visiones sobre las dimensiones afectivas de la educación, (3) la administración educativa acceda a visualizaciones de experiencias afectivas de los alumnos, y (4) los propios niños comprendan sus emociones. Es significativo que la analítica del aprendizaje emocional y aplicaciones afines dependan de técnicas especializadas capaces de clasificar el sentimiento humano. RIENTIS y RIVERS (2014) reseñan más de 100 sentimientos medibles diferentes que pueden ser captados por las plataformas de analítica del aprendizaje emocional, cada una vinculada a distintos métodos de identificación, clasificación y medición. La investigación sobre los sentimientos en la educación tiene sus raíces en diferentes ramas de las psi-ciencias que han sometido conceptos como alegría, satisfacción, motivación, orgullo y felicidad, y conceptos negativos como frustración, aburrimiento, confusión, estrés y ansiedad, a sistemas de clasificaciones medibles. La experiencia y el conocimiento psicológicos especializados sobre las dimensiones afectivas de la vida humana están codificados en las plataformas de analítica del aprendizaje emocional, con lo que se generan formas automáticas de estudiar, codificar, calcular, prever y maximizar el funcionamiento emocional de quien aprende. Estas tecnologías de detección del estado de ánimo y cambio del comportamiento son la evidente continuación de una historia más larga de vigilancia psicológica, medición e inscripción del joven como “niño-objeto”, representado

173

en “rasgos manipulables, codificados, materializados, matematizados y bidimensionales, que se puedan utilizar en cualquier proceso de cálculo” (ROSE, 1996, pág. 112). Pero también hacen “procesables” los datos emocionales de los jóvenes para que las percepciones derivadas de ellos se puedan utilizar para informar (y potencialmente automatizar) la intervención inmediata con nuevas formas de computación afectiva.

La analítica del cuerpo Estrechamente relacionados con los dispositivos dirigidos por datos de detección de los sentimientos y de computación afectiva, están los diseñados para medir la actividad física del cuerpo como una serie de indicadores proxy del estado general de salud, la forma física y el bienestar de la persona. En los centros educativos se comercializan hoy dispositivos para medir las actividades físicas de los jóvenes, en especial para la educación física. Son unos dispositivos muy parecidos a productos comunes utilizados como parte del movimiento del “Yo cuantificado”, por ejemplo, los de Fitbit. El Yo cuantificado no es una simple moda técnica, sino que se ha convertido en un fenómeno cultural, y las costumbres, los discursos y las tecnologías relacionados con el autoseguimiento son producto de procesos sociales, culturales y políticos, y función de determinados especialistas en el cuerpo y la salud (LUPTON, 2016). Se promueven estas tecnologías para su uso en la educación, de modo que también se invierte en ellas con objetivos específicamente pedagógicos y de planes políticos referentes a la salud y el bienestar de los niños (WILLIAMSON, 2015b). Estas tecnologías son una forma emergente de “biopedagogía” de aplicación digital, o una pedagogía centrada en el comportamiento del propio cuerpo, que transmite conocimientos, competencias, destrezas y códigos éticos relacionados con lo que el cuerpo es y debería ser, y sobre qué “trabajo corporal” hay que hacer para poner el cuerpo “en forma” desde el punto de vista de la salud y el del orden social (EVANS y RICH, 2011). En la actualidad se está promoviendo para los centros educativos un mercado de monitores ponibles de la actividad física que aúnan capacidad de seguimiento, biosensores y algoritmos para calcular y evaluar la salud en grados de estado de forma. Son tecnologías que combinan los teléfonos inteligentes, las tabletas y los dispositivos informáticos ponibles con plataformas online para el análisis de la salud y la forma física, y pueden reunir y difundir grandes cantidades de datos biofísicos personales. Muchas apps de seguimiento de la salud para niños están diseñadas para fomentar estilos de vida sanos, ayudar a la planificación dietética y estimular la actividad física. Algunas de las características habituales de las aplicaciones para niños relacionadas con la salud son la idea de cuidar de criaturas virtuales atendiendo sus necesidades dietéticas y de salud, combinada a menudo con diversos elementos de juego y competición y plataformas de medios sociales online. Una aplicación para controlar el estado de forma para niños lanzada en 2016, Monsuta

174

Fitness, combina la atracción popular por los juegos de realidad aumentada como Pokémon GO (cuyos jugadores han de localizar personajes virtuales en el mundo real a través del teléfono móvil) con un régimen de puesta en forma. Diseñada para la educación física en las escuelas, con Monsuta Fitness los profesores pueden colocar monstruos virtuales por todo el centro, para que los alumnos vayan a su caza utilizando el teléfono móvil y los combatan con ejercicios físicos de progresiva dificultad y dureza. Entendida como una biopedagogía, la aplicación Monsuta Fitness no es un simple juego, sino el producto de “determinados conocimientos y verdades sobre cómo las personas deberían orientar sus vidas para la mejora propia y de la sociedad” (VANDER SCHEE, 2009, pág. 558). La tarea de mejorar la salud tanto propia como de la sociedad es uno de los objetivos fundamentales de FITNESSGRAM, “la herramienta de educación, evaluación e información sobre la forma física de los jóvenes más utilizada en el mundo”. Como plataforma informática de estado de forma, FITNESSGRAM consiste en una serie de pruebas, instrumentos y herramientas de presentación de datos con que los centros educativos pueden recoger y agregar datos y generar informes sobre la condición química, la salud y la aptitud física del cuerpo de los niños. En sus versiones más recientes, FITNESSGRAM se ha rediseñado para su uso en dispositivos móviles, y puede proporcionar a profesores y administradores escolares datos inmediatos sobre la actividad, el rendimiento y el estado de cada alumno a través de una tabla dinámica de datos: Basado en los estándares de Healthy Fitness Zone®, y creada por el FitnessGram Scientific Advisory Board, FITNESSGRAM usa estándares basados en criterios, cuidadosamente establecidos para cada edad y sexo. FITNESSGRAM evalúa los cinco componentes de la aptitud física relativa a la salud: la Capacidad Aeróbica, la Fuerza Muscular, la Resistencia Muscular, la Flexibilidad y la Condición Química del Cuerpo. Informes personalizados ofrecen un refuerzo objetivo, positivo y de retroalimentación fundamental para cambiar el comportamiento. (FITNESSGRAM, 2016) FITNESSGRAM se compone de una mezcla de estándares científicos, experiencia médica, normas relativas a la edad, técnicas de refuerzo, informes objetivos sobre datos biofísicos relativos a la salud y la forma física de los niños, y el compromiso de modificar la conducta. Es una tecnología de big data que combina el conocimiento numérico sobre el cuerpo del individuo con imperativos societales en torno al bienestar y el mantenimiento de un orden social saludable, y tiene la capacidad de estructurar y determinar decisiones pedagógicas sobre cómo intervenir en la vida y la salud de niños y jóvenes (P LUIM y GARD, 2016). Existen otras plataformas biopedagógicas ponibles. ZAMZEE, el “juego que hace mover a los niños”, combina tecnologías de acelerometría, diseño de juegos y “ciencia de la

175

motivación” (ZAMZEE, 2016). Consiste en un dispositivo “métrico” ponible para “medir la intensidad y duración de la actividad física”, una “web motivacional” online con ejercicios y programaciones de aula, y “analítica de grupos” para que profesores y administradores puedan “seguir el progreso individual y grupal con datos inmediatos”. El eslogan original del producto era “Motivar. Medir. Gestionar”, y ZAMZEE asume completamente las prioridades gubernamentales en torno a los programas de cambio y modificación de la conducta destinados a intervenir activamente en los estilos de vida insanos de las personas. En el vídeo promocional de ZAMZEE se dice de forma explícita que el dispositivo se basa en “la ciencia del cambio conductual”. Asimismo, SQORD, “tu mundo online, alimentado por el juego real”, se compone de un registrador de datos ponible, un entorno de medios sociales online y un avatar en pantalla personalizable (SQORD, 2016). SQORD se comercializa como “una parte de medio social, una parte de plataforma de juego y una parte de registro de la forma física”, y en la publicidad del dispositivo y la aplicación se dice que “motivan la actividad real y la construcción de hábitos sanos para toda la vida, con un mundo online lleno de amigos, desafíos, personajes, puntos y premios”. SQORD, como ZAMZEE y FITNESSGRAM, ofrece una herramienta de elaboración de informes administrativos con la que los profesores pueden medir los niveles de actividad física y la participación de cada jugador. Estos ejemplos demuestran que los seguidores de la actividad física y los biosensores pueden permitir que los profesores sometan a los jóvenes a una mirada vigilante a través de la enumeración y visualización de sus actividades físicas. Estos flujos de datos observados del alumno se pueden usar después para tomar decisiones y determinar intervenciones pedagógicas concretas acordes con los imperativos del bienestar societal. UNICEF promueve su iniciativa UNICEF Kid Power como forma de vincular el seguimiento móvil de uno mismo con la ciudadanía y la responsabilidad globales. Kid Power se compone de una pulsera de medición de la actividad y una plataforma digital con cuestiones de ciudadanía y responsabilidad globales, además de su competitivo atractivo inspirado en la ciencia de la motivación: UNICEF Kid Power te da el poder de salvar vidas. Con el uso activo de la Kid Power Band, puedes ir de misiones, ganar puntos y abrir paquetes de alimentos terapéuticos para niños con malnutrición grave de todo el mundo. (UNICEF Kid Power, 2016) Convierte la forma física en indicador fundamental de la responsabilidad global. Así pues, el diseño de dispositivos biosensores ha convertido un complejo fenómeno social de causas estructurales muy arraigadas en deficiencias personales que hay que resolver (NAFUS, 2016).La incorporación, a través de plataformas como ZAMZEE o KID P OWER, de técnicas de vigilancia biosensora en la educación física que se imparte en las escuelas es una forma de traducir problemas societales más generales de salud, bienestar y forma física en responsabilidades personales —y la evaluación continua— de los niños y los

176

jóvenes. Además, estos dispositivos de seguimiento y vigilancia de la salud demuestran que el bienestar de los jóvenes es objeto de cálculo en muy diversas disciplinas psi y médicas. Muchos dispositivos ponibles dependen de la existencia de formalizaciones matemáticas sobre los costes de energía de las actividades físicas calculados en términos de ritmo metabólico, como los que se especifican en el Compendium of Physical Activities (2011). ZAMZEE, por ejemplo, se basa específicamente en este Compendio. En otras palabras, colocar un monitor de la actividad física a un niño implica someter su cuerpo a cálculos matemáticos específicos sobre la intensidad física y el ritmo metabólico. Pero hay que señalar que recursos como el mencionado Compendio son producto de determinadas formas de experiencia y conocimientos científicos. La experiencia y el conocimiento biomédicos que sustentan el diseño de dispositivos ponibles de monitorización de la actividad influyen enormemente en lo que los dispositivos miden, cómo miden y presentan los datos, y cómo se entiende y trata a la persona objeto de la medición. La informática de la salud, la analítica psicológica, la bioinformática y la medicina digital también aportan conocimientos especializados sobre la actividad física para la que los monitores están programados. También influyen en todo ello campos psi como la ciencia de la motivación y las ciencias conductuales. Estos conocimientos se entrelazan después con la experiencia en algoritmos y analítica de datos en el diseño de dispositivos de control de la salud, para que estos puedan calcular o predecir la salud futura del usuario, y automáticamente hacer recomendaciones pedagógicas prescriptivas sobre la actividad física y la alimentación. Por consiguiente, con el sometimiento del cuerpo a la cuantificación, formas especializadas de conocimiento como las de la profesión médica y la investigación biomédica se han convertido en instrumentos de control social (NAFUS, 2016). Estos “interfaces de automediación con la salud” se están haciendo “inseparables de los conocimientos que las personas adquieren sobre su salud” y de su estilo de vida (RICH y MIAH, 2014, pág. 301). Los dispositivos y plataformas de seguimiento de la salud se pueden entender como extensiones tecnológicas del cuerpo, al que aumentan con datos y empujones motivacionales que incitan a los ciudadanos a cambiar sus hábitos de salud para orientarlos hacia un mayor bienestar general. A la figura idealizada producto de estas técnicas LUPTON (2015b) la llama “biociudadano socialmente en forma” que asume el deber de la autorresponsabilidad y la gestión emprendedora y la optimización de su propia vida, incluido el fomento y mantenimiento de la buena salud, el bienestar emocional y la forma física, como medio de asegurar la buena salud física y mental de la sociedad. El ciudadano socialmente en forma, por lo tanto, es una persona a la que sistemas de seguimiento de la salud han enseñado a su cuerpo a que se comporte de acuerdo con conocimientos médicos expertos y los códigos éticos normativos de conducta codificados en esos dispositivos.

177

La monitorización de la mentalidad Cada vez es mayor el interés por los determinantes psicológicos de la conducta de los alumnos, y en particular por el uso de las nuevas tecnologías para capturar datos sobre características conductuales de los estudiantes. Uno de los conceptos psicológicos de perfil más alto que en los últimos años han emergido a ambos lados del Atlántico es el de “mentalidades de crecimiento” (REYNOLDS y BIRDWELL, 2015). Asociada principalmente a Carol DWECK, psicóloga de la Universidad de Stanford, la idea de mentalidades de crecimiento se centra en las distintas formas que las personas tienen de percibir su inteligencia. Según esta teoría, una personas entienden la inteligencia como una entidad, algo fijo e inmutable, mientras que para otras es algo incremental y sometido al cambio, algo que se puede mejorar con el trabajo y el esfuerzo (DWECK, 2015). Las personas con una teoría incremental de la mente, o una mentalidad de crecimiento, son más proclives a buscar retos intelectuales y a reaccionar positivamente ante tareas complejas: Enseñar a las personas a tener una “mentalidad de crecimiento”, que estimule a ocuparse del “proceso” más que de la inteligencia o el talento, produce individuos de grandes logros en la escuela y en la vida. Padres y profesores pueden engendrar una mentalidad de crecimiento en los niños alabándoles por su constancia o sus estrategias (más que por su inteligencia), contándoles historias de éxito que pongan el énfasis en el trabajo y el amor por aprender, y hablándoles del cerebro como una máquina de aprendizaje. (DWECK, 2015) En 2013, la Oficina de Tecnología de Estados Unidos promovía decididamente los descubrimientos de DWECK sobre las mentalidades de crecimiento en las recomendaciones que hacía en su informe Promoting Grit,Tenacity and Perseverance, un informe en el que se relacionaba a DWECK como “informante clave” (SCHECHTMAN y col., 2013). Los estudios sobre las mentalidades de crecimiento están también asociados a la economía conductual. Según un informe reciente sobre las implicaciones de la economía conductual para la educación, el campo de estudio intenta integrar las investigaciones de la psicología, la neurociencia y la economía para desarrollar políticas que se ocupen de los fallos de las personas en los procesos de toma de decisiones, y reconoce que “la estructura del nuestro cerebro puede conducir a resultados subóptimos” (LAVECCHIA y col., 2014, pág. 4). El informe destaca el trabajo de Carol DWECK sobre las mentalidades de crecimiento, y vincula su idea de que “el cerebro es maleable y que con el trabajo se puede mejorar la inteligencia” con la de que hay que “empujar” a los alumnos con pequeñas intervenciones destinadas a “reducir la probabilidad de que fracasos de poca importancia lleven al alumno a pensar que el éxito académico es inalcanzable” (2014, pág. 67). Estos enfoques de la economía conductual se centran en empujar a la persona a

178

que, con su trabajo constante, invierta en su propia optimización. La teoría de la mentalidad de crecimiento y su asociación con la del empujón ha entrado en la práctica del aula de la mano de ClassDojo, la tecnología educativa de mayor éxito de la historia. Básicamente, ClassDojo es una aplicación sencilla diseñada para que el profesor reúna, almacene y visualice datos sobre el comportamiento de los niños en el aula. Lanzada como producto beta en 2011 y como plataforma estable en 2013, en los inicios de 2016 los fundadores de ClassDojo informaban que se habían suscrito a ella más de tres millones de profesores, que atendían a 35 millones de alumnos de 180 países de todo el mundo. A su éxito y rápido crecimiento ha contribuido un entusiasta fondo de capital riesgo, con más de 31 millones de dólares invertidos en la empresa ClassDojo hasta mediados de 2016 (KOLODNY, 2016). ClassDojo es una aplicación móvil gratuita con la que el profesor puede dar o restar puntos por la conducta y la participación del alumno en el aula, y funciona con diversas plataformas móviles o de mesa. El vídeo promocional de la web muestra su uso en un teléfono inteligente o una tablet, con el profesor dando puntos sobre la marcha y en tiempo real. Se pueden fijar pautas conductuales individuales o de grupo para conseguir objetivos positivos. A partir del análisis de series temporales, la suma y resta de puntos se convierte en una especie de cronograma de datos de conducta, unos datos que el profesor puede mostrar al alumno individual para que vea su progreso, o a toda la clase para que los alumnos se comparen mutuamente. Además, los padres pueden recibir mensajes, fotografías y vídeos del aula subidos por el profesor, y entrar en la web para ver los puntos y actualizaciones de sus hijos. En 2016, ClassDojo anunciaba elementos “para toda la escuela”, de modo que los centros se podían crear cuentas con las que “profesores y órganos de dirección compartieran de forma segura fotos, vídeos y mensajes con todos los padres conectados al centro en un determinado momento, acabando así con la incomodidad de las webs individuales de los centros, los hilos de correo electrónico grupal, los boletines y los folletos en papel”, a la vez que se incorporaban elementos que permitían que los niños crearan sus propios portafolios digitales (ClassDojo, 2016a). Se ha dicho que la capacidad del profesor de observar la conducta y premiarla con puntos de forma visible tanto para los padres como para los directivos del centro, es la vigilancia normalizadora de las escuelas a través de la evaluación permanente de la conducta (SOROKO, 2016). Al mismo tiempo, ClassDojo se ha unido a una serie de destacadas iniciativas de gestión del comportamiento dirigidas por diferentes organizaciones gubernamentales y comerciales, entre ellas PBIS y “The Leader in Me”. Positive Behavior Interventions and Supports, PBIS (Intervenciones y Apoyos a la Conducta Positiva), es un proyecto de la Oficina de Programas Educativos Especiales del Departamento de Educación de Estados Unidos cuyo objetivo es promover la adopción de la “ciencia aplicada” del fomento de la conducta positiva en las escuelas. “The Leader in Me”, por su parte, es un proyecto de la empresa FtanklinCovey, proveedor internacional de programas de liderazgo educativo y

179

“de procesos transformacionales”. También en 2016 ClassDojo anunció su asociación con el Project for Education Research that Scales , PERTS, un centro de investigación aplicada de la Universidad de Stanford, sede intelectual de la teoría de las mentalidades de crecimiento que dirige Carol DWECK. La sociedad de ClassDojo y PERTS se traduce en una serie de animaciones cortas que ayudan a explicar la idea de mentalidades de crecimiento a los profesores y los propios alumnos. En la nota de prensa se decía: ClassDojo se usa ya en la mitad de las escuelas de Estados Unidos, por lo que abre una oportunidad sin precedentes de llevar de forma continua prácticas educativas de éxito basadas en datos a millones de profesores y aulas. “La mentalidad de crecimiento es una idea de gran importancia”, decía Liam Don, cofundador y principal responsable de productos de ClassDojo. “Con el desarrollo de nuestras ‘Grandes Ideas’ queríamos facilitar estas ideas transformadoras para que el profesor las incorpore al aula, y para que el alumno disfrute con ellas. Nuestra sociedad con PERTS de Stanford es un buen ejemplo de cómo la tecnología puede contribuir a hacer accesibles las grandes ideas e ilusionar a los alumnos de todas las aulas. Nos entusiasma compartir esta ‘Gran Idea’ con nuestra comunidad de profesores, la primera de otras muchas por llegar”. (CLASSDOJO, 2016b) La asociación con PERTS también posiciona a ClassDojo como enclave a gran escala para la investigación sobre mentalidades de crecimiento. Dave Paunesku, director ejecutivo de PERTS, ha dicho que ClassDojo, con sus vídeos e instrumentos, puede rastrear la implicación del alumno, de modo que los investigadores de PERTS pueden reunir nuevas percepciones sobre el cambio que el mensaje de la mentalidad de crecimiento genera en los niveles de participación de los alumnos, y afirma: “Queremos que los profesores piensen en qué normas quieren establecer en el aula para integrar en ella la mentalidad de crecimiento” (VAN DIJK, 2016). En la práctica, esto significa que el objetivo de la sociedad con PERTS es fomentar que las escuelas ajusten su forma de premiar con puntos determinados tipos de conducta mediante ClassDojo a las normas conductuales establecidas por los expertos en mentalidad de crecimiento. Además de DWECK y PERTS, otras muchas influencias que los diseñadores originales de ClassDojo constatan están también estrechamente relacionadas con la economía conductual, el aprendizaje no cognitivo y el desarrollo del “carácter”. Sam Chaudhary, director fundador de ClassDojo, dice explícitamente que su objetivo es promover el “desarrollo del carácter” en las escuelas: La educación es algo más que calificar pruebas y exámenes para que el alumno se desarrolle como persona, incluidas todas las capacidades de carácter como la curiosidad, la creatividad, el trabajo en equipo y la constancia… No deberíamos

180

reducir a las personas a cuántos contenidos saben. Hemos de desarrollarlas como individuos. (CHAUDHARY, citado en Mead, 2013) Chaudhary habla también de las personas “cuyo ejemplo configura nuestro trabajo”, entre ellas: Los líderes del pensamiento en el campo de la conducta y de la forja del carácter: James Heckman y su trabajo sobre el poder de formar el carácter desde la infancia; el trabajo de Angela DUCKWORTH sobre la persistencia y la determinación; el trabajo de Carol DWECK sobre la mentalidad de crecimiento y el elogio a los niños. (CHAUDHARY, citado en Mead, 2013) Estos líderes del pensamiento representan una mezcla de economía conductual, experiencia en gestión del comportamiento, y teoría del aprendizaje no cognitivo. James Heckman es profesor de economía conductual en la Universidad de Chicago. Angela DUCKWORTH es profesora de psicología en la Universidad de Pensilvania, y organizadora del Character Lab para el estudio y fomento de cualidades del carácter como la determinación, la mentalidad de crecimiento y el autocontrol. En conjunto, estos líderes del pensamiento, como los define el fundador de ClassDojo, representan una alianza de conceptualizaciones psicológicas y económicas de la enseñanza y el aprendizaje. El mecanismo central de recompensa y resta de puntos basadas en la conducta actúa como técnica rigurosa de empujón conductista diseñada para incitar a los jóvenes a cumplir determinadas normas conductuales y psicológicas derivadas del trabajo de estos líderes del pensamiento. BURGER (2015, pág. 186) ha observado que: Cuando ClassDojo se usa, en la práctica los resultados asociados a su comportamiento inciden en los alumnos… Cuando el alumno recibe un punto positivo, los demás de la clase reconocen lo que ese alumno hizo para ganarse un punto positivo. Después piensan cómo pueden ellos comportarse del mismo modo y así obtener el mismo premio/beneficio. Entendida como técnica de empujón, ClassDojo representa cierto resurgimiento de la teoría conductista en la educación, una técnica que estimula al profesor para que premie las conductas observables y de este modo refuerce aquellas que se ajustan claramente a las normas psicológicas escritas en el dispositivo. Con su mecanismo de recompensa y refuerzo, la aplicación está diseñada para inculcar a los niños conductas habituales y rutinas persistentes en completa consonancia con el énfasis de la economía conductual, y también con los programas del gobierno para el cambio de comportamiento como el PBIS del Departamento de Educación de Estados Unidos y su plan de “determinación”. ClassDojo es, pues, un ejemplo de la agenda de cambio conductual en la educación, una agenda que ha pasado a formar parte de muchos aspectos de la política pública y la estrategia del Estado en los últimos años, y que se ha denominado “gobernanza psicológica” (JONES y col., 2013). Además, con el creciente influjo de la economía conductual en el desarrollo de la computación persuasiva, han surgido nuevas técnicas de

181

base informática que sitúan las conductas de las personas como objetivo de intervención a través de las plataformas de los medios sociales (YEUNG, 2017). La suma de la agenda del cambio conductual y la tecnología persuasiva representa el abandono de la imagen de neutralidad social por parte de los diseñadores técnicos, ya que “se han impuesto la tarea de ‘empujar’ a sus usuarios hacia ‘conductas’ adecuadas” (NAFUS, 2016, pág. xvii). Con su implicación en tecnologías como ClassDojo, figuras clave como Carol DWECK se han convertido en valedores del empujón y el hiperempujón en la educación, con máxima influencia sobre la percepción que la “mirada psicológica” (ROSE, 1999a) tiene de los niños. Con las cualidades, el carácter y las mentalidades personales de los niños cada vez más como objetivos de las políticas del gobierno, ClassDojo forma parte de ese plan más general de cambio conductual. Es una aplicación educativa de una “empujoncracia” gubernamental comprometida con el cambio y la gestión de la conducta, como demuestran iniciativas como PBIS (a la que la propia ClassDojo está adaptada). Con la normalización e incluso el carácter lúdico de mensajes fundamentales de la agenda del cambio conductual, ClassDojo se está convirtiendo en una tecnología para el gobierno a distancia, una tecnología que traduce los objetivos de los departamentos del Estado en objetivos comerciales de las empresas de tecnología persuasiva, en experiencia científica de las psicólogos, en objetivos institucionales de la escuela, y en prácticas y proyectos individuales de los profesores, los niños y los padres. Invita a las escuelas a clasificar y tratar a los niños de acuerdo con nuevas definiciones de desarrollo conductual y aprendizaje socioemocional. Los profesores aplican y reproducen este sistema de clasificación y miden a los niños de acuerdo con las categorías psicológicas presentes en el dispositivo y su tablero de datos.

La rendición de cuentas afectiva y las psico-políticas Al igual que en otros ámbitos de la educación en que hoy aparecen los big data, es importante señalar que la adopción en la educación de dispositivos de computación afectiva, analítica del cuerpo y monitorización de la conducta, se basa por igual en imaginarios de futuros deseados y prácticas existentes. ClassDojo, la analítica del aprendizaje emocional, los biosensores ponibles y similares no suponen una ruptura definitiva con el pasado, sino que sirven hoy para reforzar, aplicar y alterar las formas de abordar las emociones, los sentimientos y los aspectos no cognitivos y conductuales del aprendizaje en la educación. Las definiciones psicológicas de los aspectos conductuales, sociales, emocionales y otros no cognitivos del aprendizaje se están comercializando, a través de aplicaciones como ClassDojo, y a la vez pasan a integrarse en el gobierno a través de informes, proyectos y propuestas políticas. La psicología, el comercio y el gobierno de la educación se están haciendo interdependientes. La medición y monitorización de las dimensiones afectivas del aprendizaje están hoy

182

bien asentadas en los departamentos y las iniciativas de los gobiernos. En Escocia, por ejemplo, en 2016 se puso en marcha un nuevo programa de mejora nacional cuya prioridad es la recolección de datos sobre el bienestar de los estudiantes (SCOTTISH GOVERNMENT, 2016). En Inglaterra, el Departamento de Educación financia de modo sistemático las investigaciones sobre políticas del Centro para la Comprensión del Cambio Conductual, con el fin de investigar el modo de aplicar la economía conductual “para fomentar cambios de conducta en los jóvenes” (BRADBURY y col., 2013, pág. 251). También en Estados Unidos políticas recientes de algunos estados —a raíz de la Ley Every Student Succeeds Act en 2015— presionan a los centros educativos para que demuestren su rendimiento institucional con datos sobre el bienestar de sus alumnos. Nuevas mediciones de las mentalidades de crecimiento y otras cualidades personales se están convirtiendo rápidamente en nuevos instrumentos de rendición de cuentas, mientras el éxito de las escuelas se mide “cuantificando el crecimiento de las destrezas no cognitivas” (ADAMS, 2014; ZERNIKE, 2016). Como bien demuestran los informes y las iniciativas del FEM y la OCDE, la defensa de políticas globales y el deseo político de estas técnicas psicológicas de medición del estado de ánimo y modificación del comportamiento en las escuelas van en aumento. Del mismo modo que la cuantificación de las emociones ha pasado a ser objetivo deseable en el ámbito comercial, la medición y gestión de las destrezas sociales y emocionales de los alumnos se está convirtiendo en objetivo prioritario de las autoridades educativas de todo el mundo. Estos nuevos mecanismos de rendición de cuentas de los centros educativos son la imagen de “una filosofía que aúna ideas premodernas del ‘éxito’ y una obsesión hipermoderna por la medición y la clasificación de rendimientos”, unas ideas a las que “los legisladores recurren ansiosos para ajustar el mundo a sus interpretaciones numéricas” (DAVIES, 2016). En este sentido, el punto fundamental es que dispositivos y plataformas desarrollados comercialmente como ClassDojo, la analítica del aprendizaje no cognitivo, los monitores ponibles del bienestar, la computación afectiva y demás, se cruzan con nuevas estrategias oficiales que convierten la medición de los sentimientos en instrumento de rendición afectiva de cuentas. Las escuelas son responsables de medir y gestionar el bienestar de los alumnos, el desarrollo de su carácter, su felicidad y otras cualidades personales, unos aspectos de los que han de informar con cifras. Pero estas novedades también pueden intensificar las presiones y ansiedades ya existentes provocadas por la cultura política de la medición de resultados. Por lo tanto, los instrumentos que ayudan a capturar datos sobre el aprendizaje no cognitivo de los niños y a mejorarlo —concretamente “empujándoles” a adoptar las conductas “correctas”— se están convirtiendo en valiosos instrumentos para las escuelas, y en parte de un aparato gubernamental de gestión continua del rendimiento a nivel institucional e individual. Además, la dataficación del aprendizaje no cognitivo de los niños forma parte de una estrategia biopolítica diseñada para configurar al ciudadano y sus subjetividades como

183

individuo analizado patológicamente, y dotado de capacidades personales para ocuparse del estrés y la ansiedad provocados conjuntamente por las actuales políticas de los gobiernos y la cultura capitalista. Con la creciente producción de políticas gubernamentales para medir el “capital mental”, el “bienestar nacional” y conceptos similares, los niños y jóvenes son objeto de continua vigilancia psicológica y optimización, para que puedan contribuir al objetivo de bienestar y felicidad tal como los gobiernos los entienden. Estas iniciativas gubernamentales proponen una estrategia biopolítica de cálculo y transformación de la vida emocional del niño —como “inversión inteligente”—, una estrategia que después se aplica a la producción de determinados dispositivos y su implantación en las escuelas, y destinada a producir caracteres emocionalmente maximizados cuyo bienestar personal se considera requisito previo para el desarrollo de capital humano productivo en las condiciones del capitalismo digital. Las técnicas de mejora emocional y los mecanismos de rendición afectiva de cuentas en la educación reflejan, en parte al menos, “psico-políticas” gubernamentales que ponen el énfasis en la “psico-compulsión” o la “imposición de explicaciones psicológicas… además de actividades obligatorias destinadas a modificar las creencias, la actitud, la disposición y la personalidad” (FRIEDLI y STEARN, 2015, pág. 42). Los centros educativos se están convirtiendo progresivamente en enclaves de psico-compulsión, responsables de asegurar que sus alumnos sean “caracteres” de excelente salud emocional y con resiliencia, mentalidad de crecimiento y determinación para contribuir al “capital mental” nacional. Asimismo, los estudiantes individuales están sometidos a la compulsión psicológica, por la progresiva exigencia de tener que demostrar que tienen suficiente capacidad de resiliencia y emocional para afrontar las obligaciones del aprendizaje y la evaluación académicos. El giro terapéutico hacia el aprendizaje social y emocional en las escuelas parte del supuesto de que los jóvenes son emocionalmente vulnerables y necesitan de la intervención psicológica para desarrollar la resiliencia emocional que requiere el modelo de escuela de alto rendimiento —o del “primero la psicología y, después, la educación”— (ECCLESTONE y HAYES, 2009). Los jóvenes considerados emocionalmente frágiles, en riesgo, faltos de autoestima y demás, tienen más probabilidades de recibir un currículo de mucha intervención emocional y desarrollo de habilidades no cognitivas antes de ser sometidos al reto cognitivo del aprendizaje académico (FUREDI, 2009). Así pues, la recolección de datos psicológicos sobre los jóvenes y niños es importante tanto para los centros como para sus alumnos, porque las psico-políticas de los gobiernos les obligan por igual a demostrar un alto rendimiento psicológico a cambio del acceso a los contenidos académicos. Después se pueden aplicar nuevas tecnologías de cambio conductual y modificación emocional para impulsarles a alcanzar altos niveles emocionales.

Conclusión 184

El complejo CompPsi en la educación representa una yuxtaposición de conocimientos psicológicos y sistemas informáticos con imperativos educativos, planes gubernamentales de salud y bienestar y psico-políticas afines, además de innovaciones en la computación afectiva, las técnicas de vigilancia y las exigencias políticas de la economía conductual como nueva fuente de estrategia del Estado, inversión inteligente y control social. El complejo es una parte de la vigilancia, la gestión y el gobierno de los sentimientos humanos que se ha convertido en una estrategia política fundamental de los estados, los expertos en bienestar y la “industria de la felicidad”. La analítica política y modificación de los sentimientos de los ciudadanos, y la configuración de sus conductas en torno a un mayor bienestar emocional son, pues, fundamentalmente prioritarias en las técnicas emergentes de gobernanza digital, y son posibles gracias a los medios comerciales y las empresas de big data del capitalismo digital. Estas técnicas digitalizadas de psicocompulsión son llevadas a los espacios educativos por organizaciones internacionales como el FEM y la OCDE, y también a través de agendas gubernamentales relativas a las habilidades sociales y emocionales, las prioridades de la sanidad pública en torno al bienestar, y las ambiciones de la industria de vender productos que propicien la felicidad. En la base de estos esfuerzos, y en la del imaginario que los anima, está la idea de que la vida emocional de los alumnos se puede leer en su cuerpo y su comportamiento, mejor que en la opinión de los alumnos que se intente sonsacar a través del diálogo. El objetivo del complejo CompPsi es, en definitiva, producir ciudadanos conductualmente óptimos, que busquen activamente el bienestar psicológico y la salud física mediante la autovigilancia, comprendan su desarrollo emocional y su resiliencia, sean conscientes de ellos y los cuiden, demuestren un carácter sano como habitantes analizados patológicamente del capitalismo digital, y contribuyan al “capital social” del conjunto de la sociedad. Con las intervenciones de expertos y con las tecnologías y la psicología de la economía conductual, la idea de la educación está tomando la forma de un laboratorio de experimentación, medición y manipulación de las emociones, todo ello con el objetivo de configurar a los jóvenes como los ciudadanos gobernables del Estado futuro en la era de los big data y la computación persuasiva.

185

186

187

En 2011, la Royal Society publicó un informe sobre las implicaciones de la neurociencia para la educación como parte de su gran proyecto Brain Waves. Una de las declaraciones y recomendaciones fundamentales del informe eran las ideas de la neurociencia sobre la posibilidad de utilizar la adaptabilidad permanente del cerebro humano para informar el desarrollo de “tecnologías adaptativas para el aprendizaje y el desarrollo cognitivo”: El cerebro cambia constantemente como consecuencia del aprendizaje, y se mantiene “plástico” durante toda la vida. La neurociencia ha demostrado que aprender una destreza cambia el cerebro y que estos cambios revierten cuando cesa la práctica de esa destreza… Por lo tanto, la neurociencia tiene un papel fundamental en la investigación sobre medios para estimular el cerebro… Los conocimientos de la neurociencia son relevantes para el desarrollo y el uso de tecnologías digitales adaptativas. Estas tecnologías tienen el potencial de crear más oportunidades de aprendizaje dentro y fuera del aula y a lo largo de toda la vida. (Royal Society, 2011, pág. v). Estas afirmaciones entrelazadas sobre la “plasticidad” del cerebro discente, y el potencial de las tecnologías para el aprendizaje adaptativo, la mejora cognitiva y el “estímulo del poder del cerebro” son el punto de partida de este capítulo. Como demuestra el informe Brain Waves de la Royal Society, el cerebro humano se ha convertido en los últimos años en objeto de gran interés para legisladores, empresas

188

farmacéuticas, sociedades académicas, laboratorios de ideas, científicos, ingenieros y diseñadores, y para expertos en derecho, trabajo social y educación, entre otros sectores. En particular: Los esfuerzos por mapear el cerebro, aprovechar las inmensas bases de datos surgidas de la actual neurociencia, y al final desarrollar el poder informático para simular el funcionamiento neuronal, son los indicadores más recientes de una cultura en que el cerebro ocupa un lugar preeminente por su capacidad de explicar todo tipo de experiencias, decisiones, capacidades, actuaciones y relaciones humanas. (P YKETT , 2015, pág. ix) En otras palabras, la neurociencia ha “abandonado el laboratorio” y ha empezado a habitar en la imaginación y las iniciativas de expertos y profesionales de todo tipo de espacios, todos ellos con el objetivo de gobernar, configurar y gestionar la conducta humana mediante los “conocimientos cerebrales” (ROSE y ABI-RACHED, 2013). Además, las intersecciones de la neurociencia y las nuevas formas complejas de computación han sido un gran estímulo para la investigación y el desarrollo, en gran medida como una nueva frontera de la inteligencia artificial (IA). Un reciente informe “premonitorio” elaborado por el enorme Proyecto Cerebro Humano (PCH) de la Unión Europea documenta muchos de los avances recientes de la neurociencia, la IA, la computación cognitiva y sus implicaciones. Con el título de Future Computing and Robotics (ROSE y col., 2016), se ocupa de la “inteligencia automática”, la integración “máquina-ser humano” y otras tecnologías neurocomputacionales inspiradas en las redes neuronales del cerebro humano: El poder de estas innovaciones ha aumentado con el desarrollo de las técnicas de minería de datos y aprendizaje automático, que dan al ordenador la capacidad aprender de su “experiencia” sin estar programado de forma específica, formando algoritmos, haciendo predicciones y después mejorándolas con el aprendizaje de sus resultados, bajo supervisión o sin ella. De estas y otras formas, los avances en las TIC y la robótica están reconfigurando las interacciones humanas, en las actividades económicas, en el consumo y en nuestras relaciones más íntimas. (ROSE y col., 2016, pág. 5) El creciente interés por la IA se ha intensificado con la publicación del informe “Preparación para la futura inteligencia artificial” de la Casa Blanca (White House, 2016b), un informe del laboratorio de ideas Centro para la Innovación de los Datos sobre La promesa de la inteligencia artificial (CASTRO y NEW, 2016), la puesta en marcha del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge, y el proyecto Inteligencia y Autonomía centrado en los robots, los algoritmos y la inteligencia automática del Instituto de Estudios sobre Datos y Sociedad de Nueva York. En el otoño de 2016, Facebook, Amazon, Google, IBM y Microsoft anunciaron su unión en una

189

sociedad dedicada a la IA. El principio fundamental de la Sociedad sobre IA es que “las tecnologías de inteligencia artificial encierran grandes promesas de mejora de la calidad de vida de las personas, y se pueden utilizar para ayudar a la humanidad en su batalla contra importantes problemas globales como el cambio climático, la alimentación, la desigualdad, la sanidad y la educación” (P ARTNERSHIP ON AI, 2016). Todos estos avances apuntan a un creciente interés por las formas de inteligencia automática a veces llamadas “débiles” o “estrechas”. Una forma débil o estrecha de IA incluye técnicas como la computación cognitiva, el aprendizaje cognitivo, los algoritmos genéticos, al aprendizaje automático y otros procesos algorítmicos y automatizados, en lugar de aspirar a modelos “fuertes” o “generales” de IA que dan por supuesto que los ordenadores se pueden convertir en superinteligencias autónomas (FLORIDI, 2016). El razonamiento oculto en muchas afirmaciones y muchos debates sobre la inteligencia automática es que, dada la posibilidad actual de escanear el cerebro, obtener imágenes de él y entenderlo en grados de complejidad cada vez mayores, es posible construir tecnologías informáticas inspiradas en las estructuras y los procesos del cerebro. El foco de este capítulo está en las intersecciones de la neurociencia con aplicaciones de analítica de macrodatos e inteligencia automática en el ámbito de la educación, con especial énfasis en las nuevas aspiraciones de utilizar las tecnologías de IA inspiradas en el cerebro y la computación cognitiva como nueva forma de educación digital centrada en el cerebro. Es un campo emergente de desarrollo técnico con importantes consecuencias sociales para cómo haya que gobernar las actuaciones de los jóvenes. Por ejemplo, el Departamento de Educación de Estados Unidos ha propuesto la creación de un programa avanzado de I+D para estudiar de qué modo las tecnologías de IA, como el tutor o profesor particular digital, pueden mejorar los resultados de los alumnos (White House, 2016b). Estas aspiraciones de incorporar las inteligencias automáticas a los espacios educativos reproducen y refuerzan afirmaciones anteriores del proyecto Brain Waves de la Royal Society sobre la posibilidad de diseñar tecnologías adaptativas que ayuden a “estimular el poder del cerebro” simulando la plasticidad neuronal del cerebro discente. Otra faceta del imaginario emergente de los big data para la educación es evidente en las cada vez más frecuentes declaraciones de que las percepciones y los datos sobre el cerebro de la neurociencia se pueden trasladar al diseño de tecnologías educativas artificialmente inteligentes. Defensores y desarrolladores de estas tecnologías inspiradas en el cerebro y de estímulo cerebral fomentan los actuales avances en el campo de la ciencia de datos educativos, como la analítica del aprendizaje, las plataformas de aprendizaje adaptativo y de gestión de las emociones, para centrarse en la neurología humana y la base neurológica de los procesos cognitivos. La nueva variante neurocomputacional del imaginario de los big data para la educación ve en el propio cerebro el objeto de medición, gestión y modificación. En resumen, el capítulo parte de la contextualización de los nuevos conceptos y debates “biosociales”, pasa a exponer la aparición de la neurocomputación como

190

importante campo de desarrollo técnico y, después, el crecimiento de la neuroeducación en la que se han empleado conocimientos neurocientíficos relativos al aprendizaje y el desarrollo cognitivo. A continuación, expongo con detalle dos ejemplos de desarrollo de tecnologías basadas en el cerebro para su uso en la educación, con el foco puesto en primer lugar en las declaraciones que la edu-empresa Pearson hace sobre la IA y, en segundo lugar, en las aspiraciones de la empresa informática global IBM de construir sistemas cognitivos para el aprendizaje. Después de los ejemplos, expongo las implicaciones del modo de entender los procesos de aprendizaje y de intervenir en ellos, y concluyo con algunos importantes problemas y cuestiones sobre el emergente imaginario neurocomputacional de la educación y su potencial para crear nuevas estriaciones de capacidad neurobiológica, inteligencia híbrida y cognición mejorada. Para decirlo con claridad, el objetivo de este capítulo no es hacer una crítica al empeño neurocientífico, sino preguntar por la finalidad de las pretensiones neurocientíficas, concretamente en lo que se refiere a las nuevas tecnologías educativas dirigidas al cerebro, y determinar el imaginario sociotécnico subyacente en que se basan estos esfuerzos.

La vida biosocial del cerebro La neurociencia se ha convertido en objeto de apasionado interés en los últimos años. Hoy se habla de neuromarketing, neuroeconomía, neuropolítica, neurorrobótica, neuroderecho, neuroeducación y neurotecnología, y el prefijo “neuro” ha dado lugar a críticas como la neuromanía, los neuromitos y hasta las neuroestupideces. Todos estos ámbitos “neuro” se suman al “neurocomplejo” de declaraciones opuestas sobre el cerebro, un complejo que entiende a este como “orquestador de nuestros pensamientos, sentimientos, conductas y deseos, objeto de investigación e intervención científicas, y un refinado recurso cultural inagotable y punto de referencia... Lo ‘neuro’ es, pues, un complejo campo de disputadas verdades, afirmaciones y contraafirmaciones” (WILLIAMS y col., 2011, págs. 145-146). Más allá de su condición de disciplina diversificada que se aplica a todo tipo de ámbitos, la neurociencia ha pasado a ser objeto de importantes estudios críticos como campo de producción de conocimiento científico que pretende poder explicar las complejidades del cerebro humano. La investigación académica crítica en sociología y geografía ha empezado a ocuparse en serio de las implicaciones de las afirmaciones y la experiencia de la neurociencia para diversos ámbitos de la producción de conocimiento, los servicios al consumidor y la política pública. La cada vez más notable aplicación y popularización de los “neuroconocimientos” en la política pública —esas disciplinas formales relacionadas con las ciencias del cerebro, con sus propios estilos de pensamiento, sus explicaciones, sus modos de experiencia y su aplicación— evidencia que el cerebro se ha convertido en objeto de interés y de intervención estratégica de los

191

gobiernos (P YKETT, 2013). El interés político por el cerebro nace del convencimiento de que “si se entiende el cerebro se pueden entender los problemas sociales” y de que es posible correlacionar las consecuencias (la delincuencia, la adicción, los hábitos de salud, los logros educativos) con la estructura del cerebro” (FRIEDLI y col., 2015, pág. 42). La actuación política basada en el cerebro —el intento de resolver los problemas sociales con la comprensión de su relación con la estructura cerebral— es asumida cada vez más en serio por los gobiernos que emplean técnicas de cambio conductual. El paso de la neurociencia a la política pública forma parte de un nuevo debate sobre la influencia del pensamiento neurocientífico en el tratamiento de los problemas societales y la configuración de la subjetividad humana (MCGIMPSEY y col., 2016). Los “conocimientos cerebrales” de la neurociencia pasan a desempeñar un importante papel en las actuales técnicas de gobernanza: Los expertos en el cerebro, y no lo “psi” ni la sociedad, son quienes nos permitirán abordar los “grandes retos” que aguardan a nuestras sociedades... Parece que los problemas que plantea el gobierno de las sociedades actuales exigen prestar atención al cerebro de los ciudadanos… El gobierno de la conducta de los seres humanos ha pasado a requerir, presuponer y utilizar el conocimiento del cerebro humano. (ROSE y ABI-RACHED, 2014, págs. 3-5) Los avances de la neurociencia han ido entrelazados con estrategias diseñadas para gobernar el comportamiento humano sirviéndose de la creciente disponibilidad de conocimientos empíricos sobre el cerebro. Estos enfoques reconocen la existencia de una conexión entre las sustancias biológicas del cerebro y la dinámica de la sociedad, y han dado lugar a la aparición de nuevos tipos de estudios “biosociales”. En la base de estos estudios está la permeabilidad del cuerpo y el cerebro a su entorno social, material y técnico. Los estudios biosociales subrayan la idea actual de que los entornos “traspasan la piel” e influyen en las funciones biológicas del cuerpo, y al mismo tiempo reconocen que la biología se extiende “fuera de la piel” a través de actuaciones humanas que afectan al entorno social (FITZGERALD y CALLARD, 2014). En otras palabras, “la estructura y el funcionamiento neuronales pueden cumplir una importante función en la configuración del entorno social, del mismo modo que este influye en el desarrollo del cerebro de la persona a lo largo de toda su vida” (BONE, 2016, pág. 245). En estos estudios hay un cierto intento de poner en entredicho las históricas divisiones entre la naturaleza y la crianza, y la biología y la cultura, y en su lugar reconocer la síntesis bio-cultural o biosocial (KELLER, 2016). Los teóricos biosociales y bioculturales aceptan que la actual separación entre lo social y lo biológico es el efecto accidental de una determinada historia de separación disciplinar entre las ciencias sociales y las de la vida, una división que ha apartado a la sociedad de la naturaleza y a esta de la sociedad (MELONI y col., 2016). Así pues, se ha producido un “giro social” en (algunos aspectos de) la biología y

192

también un “giro biológico” en (parte de) la ciencia social, lo cual exige nuevos tipos de investigación interdisciplinar biosocial por parte de especialistas de las ciencias tanto de la vida como sociales. En esta síntesis de las ciencias sociales y biológicas han sido fundamentales conceptos como los de “neuroplasticidad” y “epigenética” surgidos de la biología. Dicho de forma sencilla, la neuroplasticidad reconoce que el cerebro se adapta constantemente a los estímulos externos y los entornos sociales, mientras que la epigenética admite que la experiencia social modula el cuerpo a nivel genético (CHUNG y col, 2016; T OSE y ABIRACHED, 2013). En lo que se refiere a la plasticidad neuronal, hace décadas que se acepta la idea de que el desarrollo del cerebro no es algo fijo, sino que está determinado por un proceso continuo de activación y poda de las conexiones neuronales/sinápticas como respuesta a la experiencia, lo cual indica que era posible un modelo biosocial no determinista. Además, el reconocimiento en la nueva subdisciplina de la epigenética de que incluso la expresión de los genes, más que un proceso directamente constitutivo, es también altamente sensible al entorno, refuerza aún más la posición de quienes han empezado a considerar que la autoconstrucción del cerebro es en muy gran medida un permanente proceso biosocial de doble sentido. (BONE, 2016, pág. 244) Estudios metodológicos inspirados en los conceptos de neuroplasticidad y epigenética dentro de la propia neurociencia confirman que el cerebro está abierto a las aportaciones del entorno, un entorno que configura la estructura neuronal y la organización funcional del cerebro a través de la formación, el fortalecimiento y la poda de las conexiones sinápticas, y también mediante la modificación de los genes y las proteínas asociadas. Por consiguiente, las conceptualizaciones de la neuroplasticidad y la epigenética ejemplifican lo social dentro de lo neurobiológico, con nuevas interpretaciones de “la vida social del cerebro” utilizadas para acelerar políticas y prácticas en la sanidad, la educación y otros espacios sociales (P ICKERSGILL, 2013, pág. 22). Así pues, los estudios biosociales reconocen que “el cerebro es un dispositivo de múltiples conexiones profundamente determinado por influencias sociales”, y que “el cuerpo lleva las marcas de su medio social y material” (MELONI y col., 2016, pág. 13). Pero estos fundamentales estudios biosociales también someten a minucioso escrutinio la puesta en práctica y el uso político de los supuestos de la biología y la neurociencia. Uno de los usos más polémicos de las ideas de la epigenética está en el campo de la “genómica educativa”. La genómica educativa utiliza grandes bases de datos e información sobre el genoma humano para identificar determinados rasgos que se consideran relacionados con el aprendizaje. Estudios actuales a gran escala sobre los rasgos relacionados con la educación, como la capacidad de aprender, la memoria y el rendimiento académico, apuntan a que se podría utilizar la comprensión de las variantes

193

genéticas para determinar diferencias individuales en el aprendizaje, entre ellas el controvertido concepto de “estilos de aprendizaje”. La genómica educativa, de la mano de la epigenética, reconoce también que los entornos sociales desempeñan su papel en los genes humanos. En consecuencia, se toma en serio la idea de que se pueden crear condiciones medioambientales específicas que puedan maximizar el potencial de los estudiantes. El resultado ha sido la propuesta de que “considerando las diferencias genéticas entre las personas del futuro, la genómica educativa podría sentar las bases de un enfoque más personalizado de la educación”, y se apunta incluso la posibilidad de ingeniar entornos y condiciones de aprendizaje para “personalizar” la experiencia de quien aprende y posibilitar que “las organizaciones educativas elaboren programas curriculares a medida basados en el perfil genético del alumno” (GAYSINA, 2016). El lenguaje del aprendizaje personalizado que se utiliza en la genómica educativa recuerda claramente el énfasis en la personalización en relación con la analítica del aprendizaje y el software de aprendizaje adaptativo de que hablábamos antes, lo cual indica un importante punto de solapamiento en los imaginarios biológico y técnico del futuro de la educación. Los nuevos estudios biosociales se toman cada vez más en serio, pero también con actitud crítica, las conexiones recíprocas entre los procesos biológicos y las influencias sociales, medioambientales, tecnológicas y otras materiales. De ahí los llamamientos a: prestar mayor atención a las formas de vivir la experiencia social, y a la necesidad de desarrollar conceptos y métodos para entender y describir formas biológicas de la vida humana que emergen dentro de tipos específicos de relaciones sociales, políticas y económicas, y con ellas se reproducen. (FITZGERALD y col., 2016, pág. 16) Estos estudios señalan, pues, la necesidad de explicaciones biosociales de la vida del cerebro humano en su adaptación a los entornos, teniendo a la vez en cuenta que la biología también puede traspasar la piel y afectar a las conductas, las decisiones y los resultados. Sin embargo, los estudios biosociales críticos también se ocupan de la configuración social o la producción social de la neurociencia y la genómica, y no aceptan sin más sus supuestos como “hechos cerebrales” objetivos (WILLIAMS y col., 2011). Desde esta perspectiva crítica, lo que importa es rastrear cómo han llegado a la existencia los conocimientos especializados y las reivindicaciones de la biología y la neurociencia (MELONI y col., 2016). Los propios descubrimientos de los “conocimientos cerebrales” de la neurociencia están determinados por contextos sociales, políticos, culturales y económicos específicos, como los sistemas de financiación, los avances metodológicos, las innovaciones técnicas, el apoyo político, la implicación de las industrias, etc. (ROSE y ABI-RACHED, 2013). Los estudios biosociales críticos, pues, se toman en serio la producción, la difusión y el

194

uso, y a veces abuso, de la experiencia, los conceptos, las tesis y las afirmaciones de la neurociencia. Un aspecto fundamental de los estudios biosociales críticos es el análisis de tecnologías que intervienen en la producción de la neurociencia, de las organizaciones y otros agentes que las promueven y difunden, y de los sectores en los que se utilizan. La propia neurociencia se ha convertido en una empresa de macrodatos a través de proyectos de imagenes y simulación cerebrales de alta resolución, por ejemplo, el Proyecto Cerebro Humano. Estos proyectos, a veces clasificados como neurociencia, generan torrentes de big data que se utilizan para transformar los modos de entender el cerebro como órgano de múltiples conexiones, neuromorfología dinámica y socialmente adaptativa, y para impulsar el desarrollo de tecnologías y procesos informáticos basados en el cerebro (Nature Neuroscience, 2014). La neurocomputación es un campo fundamental en el que la plasticidad y la naturaleza epigenética del cerebro se utilizan para conectar la experiencia neurocientífica con el desarrollo técnico, los intereses comerciales y los objetivos de los gobiernos.

LA NEUROCOMPUTACIÓN Gran parte de la investigación y desarrollo en la analítica de los big data está repleta de referencias al cerebro como “procesador de macrodatos”, las “computaciones similares a la del cerebro”, el hardware “neuromórfico”, la “computación neuronal”, el “aprendizaje automático”, los “algoritmos que aprenden”, los “algoritmos de aprendizaje en red neuronal”, los “algoritmos inspirados en el cerebro”, los “algoritmos de aprendizaje profundo”, la “computación cognitiva” y “la inteligencia automática”. El cerebro se considera cada vez más modelo e imagen del diseño de sistemas informáticos neurobiológicamente creíbles que actúan de modo similar al del cerebro. Las explicaciones neurocientíficas del cerebro entendido en términos de su plasticidad y maleabilidad para adaptarse a los estímulos del entorno son el centro de esta hibridez emergente de lo neuronal y lo computacional. El resultado del emergente “imaginario de la plasticidad” (ROSE y ABI-RACHED, 2013) es que hoy se diseñan nuevas técnicas informáticas que reconocen y gestionan los procesos que intervienen en la configuración y reconfiguración del cerebro. Basados en las percepciones sobre la neuroplasticidad y la epigenética, estos enfoques promueven la idea de que el cerebro es flexible, modulable y se puede entrenar, recablear, mejorar y en última instancia optimizar. En particular, el campo de la neurocomputación se centra en la posibilidad de una informática que copie el modelo de la computación que se produce en las neuronas del cerebro. El reciente informe Foresight sobre la informática y las neurotecnologías futuras a partir del Proyecto Cerebro Humano, detalla muchos de estos avances emergentes (ROSE y col., 2016). Sus autores destacan que las explicaciones neurocientíficas informan cada

195

vez más el diseño de tecnologías de procesado de la información destinadas a funcionar de modo similar a como lo hace el cerebro, y a impulsar la integración humano-máquina. Estas neurotecnologías se inspiran en el cerebro. Como tales, están animadas por el deseo de sincronizar las máquinas con el “tiempo biológico” y dotar a los ordenadores de una “inteligencia similar a la del cerebro” para que realicen funciones en las que el cerebro sobresale, y que los actuales ordenadores que funcionan con rutinas de programación dura no pueden realizar. Sin embargo, las aproximaciones a la integración cerebro-máquina “pueden conllevar a la concepción de los humanos como meros componentes de la compleja TIC (tecnología de la información y las comunicaciones) y los sistemas robóticos, unos componentes que se podrían optimizar, sincronizar e interconectar en los mismos términos que las piezas de silicio”, lo cual plantea cuestiones fundamentales sobre “cómo se concibe y activa ‘el cerebro’ como inspiración en la TIC y la robótica” (ROSE y col., 2016, pág. 22). Existe el peligro de que los avances en la integración humano-máquina ignoren las capacidades afectivas, interpersonales y sociales del cerebro humano y, en su lugar, traten a este desde perspectivas racionalistas como procesador de información, con el objetivo de tomar como modelo aspectos esenciales de los procesos mentales para al final reemplazarlos en aras de la optimización. Si nos tomamos en serio la opinión de los estudios sociales de que los entornos sociales pueden traspasar la piel y afectar a estructuras y funciones biológicas y neurobiológicas, entonces la implantación de máquinas inteligentes en entornos sociales donde puedan interactuar con los humanos plantea problemas importantes. Por ejemplo, se ha dicho que tecnologías neurocomputacionales como los dispositivos basados en el cerebro o relacionados con el cerebro “tienen el potencial de llevarnos mucho más allá de la ‘aumentación’, la ‘mejora’, la ‘optimización’ o las ‘actualizaciones’ de diversos tipos, que prometen que nos sintamos ‘mejor que bien’ o seamos ‘mejores que humanos’, cuando no algo ‘más que humanos’” (WILLIAMS y col., 2011, pág. 137). Estudiosos críticos de los medios han tomado las afirmaciones sobre la vida social del cerebro, y el fracaso de las distinciones dadas por supuestas en lo que a la sociedad y la biología respecta, para analizar cómo pueden implicar un cambio en la comprensión de la subjetividad humana. Si, como dice la neurociencia, los humanos avanzamos a través de “cambios epigenéticos, unos cambios que se inician y transmiten más a través del entorno que del código genético”, entonces los cambios epigenéticos también pueden estar relacionados con, y acelerados por, cambios en el entorno como los de las tecnologías digitales (HAYLES, 2013, pág. 10). Desde esta perspectiva, el código de que están compuestos los medios digitales se podría codificar en el cerebro, por ser un código que cada vez impregna más los entornos sociales y se entreteje con las actuaciones humanas y las tareas mentales: A medida que los medios digitales… integrados en el entorno se hacen más omnipresentes, nos empujan hacia una comunicación más rápida, unos flujos de información más intensos y variados, una mayor integración de los humanos y las

196

máquinas inteligentes, y más interacciones del lenguaje con el código. Estos cambios en el entorno tienen importantes consecuencias neurológicas. (HAYLES, 2013, pág. 11) Según esta visión, las complejas tecnologías digitales que amplían las capacidades humanas para ocuparse de medios más intensivos y omnipresentes, influyen en gran manera en la estructura de los senderos neuronales, las conexiones sinápticas y la morfología y el funcionamiento del cerebro, circunstancia que se complica con el desarrollo de dispositivos informáticos artificialmente inteligentes y cognitivos que pueden utilizar procesos de aprendizaje basados en los integrados en los órganos biológicos, y servirse de las experiencias de estos para aprender, adquirir destrezas e interactuar con las personas. Cuando estos sistemas cognitivos no humanos penetran en los sistemas humanos, podrían cambiar la dinámica de los comportamientos humanos amoldando y esculpiendo el cerebro plástico (HAYLES, 2014). Parece, pues, que el potencial de las técnicas neurocomputacionales no humanas basadas en el cerebro se podrá desvelar como rastros del circuito neurológico del propio cerebro humano, y se podrá imprimir en la vida y la identidad cerebrales de los estudiantes.

LA NEUROEDUCACIÓN En los últimos años, la experiencia neurocientífica y las nuevas tecnologías se han convertido en objeto de creciente interés dentro del propio campo de la educación. Por ejemplo, a la conceptualización de los procesos de aprendizaje se empiezan a aplicar explicaciones biosociales generales de las conexiones recíprocas entre los entornos sociales y los aspectos neurobiológicos del aprendizaje derivados de la epigenética y la ciencia cerebral: Al énfasis en los determinantes biosociales del aprendizaje, los resultados educativos y las oportunidades en la vida del niño, se suman llamamientos más generales a desarrollar explicaciones híbridas de la vida social que presten la debida atención a los aspectos biológicos, no humanos, tecnológicos, materiales… neuronales y epigenéticos de “la propia vida”. (P YKETT y DISNEY, 2015, pág. 2) Además, recientes propuestas de estudios críticos biosociales de la educación señalan que tales conceptualizaciones podrían cambiar por completo nuestra forma de entender el aprendizaje. Desde esta perspectiva, el aprendizaje se interpreta como un conjunto diverso y complejo de procesos sociales, culturales, biológicos y neurológicos superpuestos: como la interacción entre una persona y una cosa, como algo integrado en formas de ser y entender compartidas por las comunidades, influido por las condiciones sociales,

197

culturales y económicas de la vida, algo que implica cambios en cómo los genes se expresan en las células del cerebro porque cambia las histonas que almacenan el ADN, algo que incita a determinadas partes del cerebro a la actividad electroquímica, algo que depende de que una persona sea reconocida por los demás, y se reconozca a sí misma, como alguien que aprende. Los significados compartidos, la expresión genética, las señales electromagnéticas, la cotidianeidad del aula y el sentido del yo… forman parte del fenómeno del aprendizaje. (YOUDELL, 2016a, pág. 5) Desde esta perspectiva, se pueden aplicar a la educación tanto la explicación biológica como la sociológica, por ejemplo, con el análisis de la interacción de los entornos de aprendizaje con la composición y el funcionamiento de las neuronas, de la implicación de la epigenética en el aprendizaje y la formación de la memoria, y de cómo características como la inteligencia y la salud “emergen a lo largo de muchos años en las interacciones del cuerpo con los entornos y su configuración por parte de estos” (YOUDELL, 2016b, pág. 791). El enfoque biosocial de la educación no ve la figura del discente humano como algo “aislado del mundo” (YOUDELL, 2016b, pág. 797), sino que subraya la porosidad y el movimiento entre el cuerpo y su medio, con los estudiantes y el aprendizaje constituidos a través de una matriz de procesos biológicos y socioculturales mutuamente determinantes. Otra área importante de la educación que requiere un examen biosocial crítico es la de la “neuroeducación”, parte de “la difusión del lenguaje, el imaginario, el simbolismo y la retórica neurobiológicos en entornos de aprendizaje formales e informales” (BUSSO y P OLLACK, 2015, pág. 169). Desde la perspectiva de la neuroeducación, los actuales conocimientos sobre la plasticidad del cerebro significan el reconocimiento del importante papel que la educación desempeña en el “equilibrio cambiante y el fortalecimiento y la debilitación de las conexiones del cerebro” (SHARPLES y KELLEY, 2015, pág. 127). Los investigadores de la neuroeducación creen que es conveniente estudiar la naturaleza de carácter cerebral del aprendizaje con técnicas avanzadas de escaneado e imaginería cerebrales. Entre estas técnicas están el electroencefalograma (EEG), con el que el investigador puede detectar la “carga cognitiva” al realizar una tarea, la imagen por resonancia magnética (IRM), que permite identificar la actividad en determinadas zonas del cerebro, y la monitorización de la actividad electrodermal (AED), que también se puede usar para detectar los efectos de la excitación emocional en la actividad cerebral (HOWARD-JONES y col., 2015). A partir de los conocimientos sobre la naturaleza de base cerebral del aprendizaje obtenidos con estos sistemas de escaneado e imagen, se ha desarrollado toda una diversidad de aplicaciones técnicas. Entre ellas están los programas informáticos de entrenamiento del cerebro, las formas multimodales de realidad virtual diseñadas para estimular las regiones del cerebro relacionadas con el aprendizaje, y el diseño de agentes

198

tutoriales artificiales “de aspecto humano”: Es previsible que las nuevas tecnologías de aprendizaje que encarnan elementos fundamentales de la tutoría humana individual se sirvan de los conocimientos sobre los procesos neurocognitivos de la imitación, la atención compartida y la empatía… Cuando nos “comunicamos” con tecnologías no humanas podemos utilizar zonas cerebrales que normalmente intervienen en la comunicación mutua directa. (HOWARD-JONES y col., 2015, pág. 142) Algunas aplicaciones de la neurociencia al desarrollo de la tecnología educativa son los dispositivos ponibles de escaneado IRM del cerebro, unos dispositivos que utilizan técnicas de topografía óptica y de neuroimagen para medir y visualizar los cambios en el flujo sanguíneo a diferentes zonas del cerebro durante actividades de aprendizaje, y sistemas robóticos que se pueden adaptar al estado mental de su controlador humano. Algunos autores hablan de la posibilidad de utilizar dispositivos “neurosensores” para medir la actividad cerebral en tiempo real: Los neurosensores… podrían generar conocimientos sobre la actividad cognitiva de los estudiantes mediante… tecnologías que midan la actividad cerebral. Con la identificación de los alumnos que emplean una gran cantidad de energía cognitiva en un ejercicio… el profesor podría enviar una vibración “háptica” —parecida a las notificaciones silenciosas de los dispositivos móviles— al dispositivo ponible o a la tablet del alumno, y así redirigir su atención o su comportamiento. (MEYERS, 2015) El entusiasmo por conectar la neurociencia con la tecnología educativa es la principal fuerza impulsora del proyecto Brain Waves de la Royal Society antes mencionado. El proyecto sugería que tutores digitales basados en la ciencia cerebral podrían “estimular el poder del cerebro”, ya que “los programas adaptativos emulan al profesor que se adapta constantemente a los conocimientos actuales del estudiante. Por lo tanto, permiten mucha más práctica de la que normalmente se puede realizar con la enseñanza directa” (Royal Society, 2011, pág. 14). Y dice el informe que “se pueden desarrollar tecnologías digitales que refuercen el aprendizaje individualizado y de ritmo individual y la práctica altamente especializada”, lo cual “significa que las tecnologías interactivas pueden ofrecer ayuda personalizada a diario y de forma que es difícil conseguir en el exigente entorno del aula” (2011, pág. 15). Sin embargo, hablando específicamente de este informe y sus recomendaciones, un crítico de los recientes avances tecnológicos en neuroeducación señala: Con el énfasis que esta forma de pensar pone, por ejemplo, en la “tecnología de aprendizaje adaptativo” o en… un “tutor robot”, se corre el peligro de confundir la enseñanza con el aprendizaje. Al instrumentalizar las herramientas docentes y

199

centrarse en el cerebro y no en el niño o el estudiante, parece que estos defensores olvidan el hecho de que ni la enseñanza ni el aprendizaje son actividades aisladas y atemporales, sino que en su propia esencia están los elementos socioculturales. (S. ROSE, 2013) No obstante, en el tiempo transcurrido desde el proyecto Brain Waves, se han hecho importantes esfuerzos para aplicar los conocimientos de la neurociencia al desarrollo de la tecnología educativa, en especial tecnologías adaptativas que utilicen el análisis de los datos del alumno para personalizar la experiencia del aprendizaje. Se dice, por ejemplo, que “con el desarrollo de programas educativos informáticos adaptativos a la vez que estudios sobre los cambios en la actividad cerebral derivados de estas innovaciones, se pueden abrir nuevas posibilidades para que los esfuerzos en neurociencia cognitiva y educativa se informen mutuamente en círculos cada vez más rápidos” (MCCANDLISS, citado en HOWARD-JONES y col., 2015, pág. 140). En este sentido, se da por supuesto que “el EEG se puede procesar de forma inmediata, lo cual ayuda a las aplicaciones que necesitan… medir online la respuesta neuronal (por ejemplo, como parte de un sistema adaptativo)” (2015, pág. 136). El escaneado del cerebro y el análisis de datos inmediatos unidos a plataformas de software de aprendizaje son el fin último de la neuroeducación, una parte fundamental del imaginario sociotécnico que impulsa al desarrollo técnico en este campo. Con el actual desarrollo de tecnologías que pueden procesar inmensas cantidades de datos, la plasticidad del cerebro discente humano se posiciona en dos sentidos. Por un lado, como modelo para la computación basada en el cerebro, por ejemplo, en el desarrollo de algoritmos de aprendizaje profundo y aprendizaje automático basados en la naturaleza morfológica dinámica de las redes neuronales. Por otro lado, la plasticidad del cerebro se constituye en objetivo de intervención estratégica y mejora. Si el cerebro es plástico y se adapta constantemente a los inputs del entorno, los estímulos y la experiencia social, parece que se pueden diseñar nuevos entornos mejorados digitalmente y adaptativos capaces de orientar al cerebro hacia la mejora y la optimización, y más allá de su supuesta capacidad cognitiva.

LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN Un área fundamental en que convergen la neurociencia, la educación y la tecnología adaptativa son las nuevas aplicaciones de inteligencia artificial (IA) para la educación. Aunque la idea de aplicar la IA a la educación sin duda se enfrentará a la férrea oposición de quienes entienden esta fundamentalmente como un proceso relacional, el número de sus defensores va en aumento en los gobiernos y en la industria. El informe sobre la IA de la Casa Blanca de 2016 (2016b) fomenta su uso en la educación, como lo hace el estudio de las aplicaciones de IA (CASTRO y NEW, 2016) realizado por el Centro para la

200

Innovación de Datos. Un ejemplo de este creciente interés es Pearson, la corporación educativa que se ha propuesto erigirse en inequívoca autoridad sobre la IA en la educación. Pearson se ha estado promoviendo como nueva fuente de experiencia en análisis de datos educativos desde que creó su Centro para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo en 2012, como hemos visto en los capítulos anteriores. El propósito del Centro para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo es interpretar las inmensas cantidades de datos generados por unas actividades educativas realizadas progresivamente con medios digitales, y utilizar estos datos y los patrones extraídos de ellos para deducir nuevas formas de entender los procesos de aprendizaje, la habilidades cognitivas y las dimensiones socioemocionales del aprendizaje. Más recientemente, Pearson publicó Intelligence Unleashed: An Argument for AI in Education (LUCKIN y HOLMES, 2016). El informe de Pearson sugiere que la IA puede transformar la enseñanza y el aprendizaje. Dicen sus autores: Tal vez a algunos les parezca un disparate la idea de IAEd, pero los algoritmos y los modelos que componen la IAEd son la base de un empeño esencialmente humano. La IAEd abre la posibilidad de un aprendizaje más personalizado, flexible, inclusivo y motivador. Puede facilitarnos a profesores y alumnos las herramientas con las que podemos responder no solo a lo que se está aprendiendo, sino también a cómo se aprende y cómo siente el alumno lo que aprende. (LUCKIN y HOLMES, 2016, pág. 11) Pearson, en lugar de intentar construir un sistema de IA monolítico, sugiere que al final acabará por constituirse un “mercado” de miles de componentes de IA que “posibilitará la recolección y el análisis de datos a nivel de sistema, lo cual nos ayudará a saber mucho más del propio aprendizaje y de cómo mejorarlo” (LUCKIN y HOLMES, 2016, pág. 12). En términos técnicos, lo que Pearson denomina “IAEd” depende de una forma particular de IA. No se trata de la super IA propia de la ciencia ficción, sino de una IA observada de nuevo a través del cristal de los big data y las técnicas de análisis de datos —los “artefactos habituales” de los sistemas de aprendizaje automático algorítmico— (FLORIDI, 2016). El informe habla en particular de los avances en los algoritmos del aprendizaje automático, la modelación informática, la estadística, las redes neuronales artificiales y la neurociencia, ya que “la IA implica un software informático programado para interactuar con el mundo de formas para las que normalmente se requiere la inteligencia humana. Esto significa que la IA depende de conocimientos sobre el mundo, y de algoritmos que los procesen inteligentemente” (LUCKIN y HOLMES, 2016, pág. 18). La sección de IAEd de Pearson requiere el desarrollo de sofisticados modelos informáticos del discente, modelos de pedagogía efectiva y modelos del ámbito de conocimiento que hay que aprender, además de modelos que representen los aspectos

201

sociales, emocionales y metacognitivos del aprendizaje: Los modelos de discente son formas de representar las interacciones que se producen entre el ordenador y quien aprende. Las interacciones representadas en el modelo (como las actividades actuales del alumno, los logros anteriores, el estado emocional y si hay o no retroalimentación) pueden ser utilizados después por los componentes de ámbito y pedagogía de un programa IAEd para determinar el éxito del estudiante (y del profesor). Los modelos de ámbito y pedagogía usan también esta información para determinar la siguiente interacción más adecuada (los materiales o las actividades de aprendizaje). Es importante señalar que las actividades de quien aprende se retroalimentan constantemente en el modelo del discente, un modelo cada vez más rico y completo, y un sistema cada vez más “inteligente”. (LUCKIN y HOLMES, 2016, pág. 19) A partir de la combinación de estos modelos con la analítica de datos y los procesos de aprendizaje automáticos, la idea de IAEd que propone Pearson incluye el desarrollo de sistemas de tutoría inteligentes (STI) que utilizan “técnicas de IA para simular la tutoría humana presencial, ofrecer las actividades de aprendizaje que mejor se adecuen a las necesidades cognitivas del estudiante, y facilitar una retroalimentación por objetivos y etapas, todo sin necesidad de la presencia física del profesor” (LUCKIN y HOLMES, 2016, pág. 24). También promete apoyo inteligente al trabajo colaborativo —por ejemplo agentes de IA que sepan integrarse en el trabajo de equipo— y entornos inteligentes de realidad virtual que simulan contextos para tareas de aprendizaje, con los profesores ayudados por sus propios asistentes de IAEd y los programas IAEd de desarrollo profesional. La idea de Pearson de unos entornos de aprendizaje inteligentes y personalizados se basa en nuevas formas de entender “la fusión efectiva de la inteligencia humana y la automática”, y da por supuestas determinadas maneras de entender la inteligencia y la cognición humanas que derivan específicamente de los conocimientos disciplinares especializados de la neurociencia y la psicología: La IAEd seguirá apalancando nuevos conocimientos en disciplinas como la psicología y la neurociencia educativa para comprender mejor el proceso de aprendizaje, y construir así modelos más exactos que puedan predecir mejor el progreso, la motivación y la perseverancia del estudiante —e influir en ellos—… La mayor colaboración entre la neurociencia educativa y los desarrolladores de IAEd generará tecnologías que puedan ofrecer mejor información y contribuir a superar los problemas de aprendizaje que se puedan interponer en el progreso del niño. (LUCKIN y HOLMES, 2016, pág. 37) Estas observaciones subrayan que el diseño de sistemas de IAEd debe incorporar los

202

conocimientos neurocientíficos a los procesos de aprendizaje, unos conocimientos que después se pueden traducir en modelos utilizables posteriormente para prever los procesos individuales de aprendizaje e intervenir en ellos. Esto refleja el creciente interés actual por la neurociencia en la educación, y la adopción de conocimientos neurocientíficos para una enseñanza y un aprendizaje “centrados en el cerebro”. En tales prácticas, el cerebro es objeto de una intervención basada en los conocimientos de la neurociencia. Se destaca en especial que el objetivo de Pearson es promover aplicaciones de IAEd para el desarrollo de “capital humano”. El interés de Pearson en el ámbito de la IAEd es construir modelos, prever el progreso del estudiante e influir en él, como instrumento de desarrollo de sus habilidades cognitivas medibles. Las habilidades cognitivas son la categoría proxy que Pearson utiliza en su propio banco global de datos de “rendimiento por países”, la Curva de Aprendizaje. El banco de datos Curva de Aprendizaje aplica mediciones de las destrezas cognitivas para clasificar los sistemas educativos en una tabla global de competición. Con el énfasis puesto en la medición de las habilidades cognitivas y su comparación por países, estas tecnologías forman parte de las actuales preocupaciones políticas por la construcción, medición y comparación del “capital humano”, unas preocupaciones que sitúan las explicaciones métricas de las destrezas cognitivas de los alumnos como indicadores proxy del progreso y la futura competitividad económica de cada país (ROBERTS-MAHONEY y col., 2016). Para calcular estas destrezas cognitivas se utilizan indicadores de input/output procedentes de diversas fuentes de comparación educativa global, y se elaboran tablas de competición que los legisladores pueden utilizar para medir las reservas de capital humano de su país, y para incentivar la competencia por la ventaja comparativa en un espacio político globalizador. Así pues, las técnicas y aplicaciones de IAEd basadas en el cerebro son para Pearson medios para modelar la cognición del alumno y construir capital humano mediante el estímulo del poder cerebral. En consecuencia, en el imaginario de la IAEd de Pearson, se considera que las aplicaciones de inteligencia automática pueden contribuir a la completa reforma de los sistemas educativos: Una vez que pongamos en su sitio las herramientas de IAEd tal como antes se describía, dispondremos de formas nuevas y eficaces de medir los logros del sistema… La IAEd podrá facilitar análisis sobre la enseñanza y el aprendizaje en todos los niveles, sea de una determinada asignatura, una clase, un centro, un distrito o un condado. Esto significará que los análisis de la IAEd darán pruebas del rendimiento del país, lo cual pondrá en cuestión la necesidad de los test internacionales. (LUCKIN y HOLMES, 2016, pág. 48) En otras palabras, Pearson propone sortear la engorrosa burocracia de las pruebas y evaluaciones masivas estandarizadas —el tipo de datos de “rendimiento por países” que contiene su propio banco de datos Curva de Aprendizaje— y, en su lugar, centrarse en la

203

analítica inteligente inmediata practicada junto con las rutinas didácticas del aula mejorada con la IA. Todo ello dependerá de un análisis minucioso e íntimo del rendimiento individual, mediante el minucioso modelado de los estudiantes a través de sus datos. Esos datos, analizados por aplicaciones de IA basadas en conocimientos neurocientíficos, harán de la medición del rendimiento individual la medida del rendimiento del país, de forma que refleje las estrategias biopolíticas de hacer de las personas objeto de cálculo como medio para la monitorización y el modelado de poblaciones mayores. Como tales, los objetivos de IAEd para la política educativa de Pearson representan una forma emergente de “bio-edu-política” cuyo objetivo es gestionar poblaciones diseñadas, mejoradas y optimizadas con el fin de gobernar de modo más eficiente (GULSON y col., 2017). La propuesta de Pearson es convertir los sistemas educativos en general en redes neuroinformáticas donde las tecnologías basadas en el cerebro midan y gestionen de forma constante los entornos de aprendizaje y a todos los que se encuentren en ellos. Una propuesta que destaca el papel de la neuroinformática en la performatividad de los sistemas educativos, como las tecnologías inspiradas en el cerebro que pueden optimizar el capital humano y simultáneamente aplicar mediciones inteligentes inmediatas a gran escala.

SISTEMAS COGNITIVOS PARA APRENDER IBM, una de las empresas de informática de mayor éxito del mundo, ha puesto recientemente su atención en la analítica de datos educativos y el potencial de la informática inspirada en el cerebro para informar el desarrollo de “escuelas inteligentes” (WILLIAMSON, 2017a). Un avance de la aplicación del sistema de analítica de datos a la educación de IBM son los “sistemas cognitivos de aprendizaje” basados en innovaciones metodológicas neurocientíficas, avances técnicos en la informática inspirada en el cerebro, y los algoritmos de redes neuronales. En los últimos años, IBM se ha situado como centro de estudios dominante sobre la computación cognitiva. Ha creado grandes grupos de ingenieros y científicos informáticos dedicados tanto a la investigación básica como a la aplicada, con sus propios especialistas en neurociencia que aportan a esos avances sus conocimientos sobre el cerebro. Sus diversas actividades de I+D incorporan nuevos desarrollos en la arquitectura del ordenador y nuevos lenguajes de programación y algoritmos de redes neuronales artificiales, todo lo cual se ha traducido al final en la producción de aplicaciones de sistemas cognitivos basadas en sus propios modelos de estructuras y funciones sinápticas del cerebro humano. Dice IBM que el objetivo de la informática cognitiva es “emular las capacidades de percepción, acción y cognición del cerebro humano” (MODHA, 2013). Ha elaborado también su propio libro sobre el futuro que imagina, Smart Machines: IBM’s Watson and the era of cognitive computing (KELLY y HAMM, 2014).

204

Dos innovaciones técnicas en particular sitúan a IBM como líder del mercado de los sistemas cognitivos: su superordenador Watson y sus “chips neurosinápticos”, o clips informáticos inspirados en el cerebro. Watson es un superordenador cognitivo sumamente avanzado promovido por IBM por su capacidad para procesar el lenguaje natural y aprender de él y de otros datos no estructurados, de forma similar a la de la cognición humana pero a mucha mayor velocidad y con más alcance. Esto lo distingue de los procesos convencionales de aprendizaje automático que dependen de su entrenamiento mediante “muestras de datos” seleccionados. Además, IBM ha dedicado mucho I+D a la producción de clips neurosinápticos capaces de emular las neuronas y sinapsis del cerebro humano. En 2014, IBM anunciaba en la revista Science “un procesador de un millón de neuronas inspirado en el cerebro”, un “chip cerebral” “capaz de realizar 46.000 millones de operaciones sinápticas por vatio y segundo: un auténtico superordendaor sináptico en su mano” (MODHA, 2014; MEROLLA y col., 2014). Los chips neurosinápticos también se podrían unir en “sistemas neuromórficos escalables” de varios millones de neuronas y miles de millones de sinapsis, unos sistemas denominados “cerebros informáticos”, “sistemas que pueden percibir, pensar y actuar”, incluso “un cerebro en una caja” (MODHA, 2013). La computación cognitiva inspirada en el cerebro se ha situado enseguida en el centro del modelo de negocio y las campañas de marketing de IBM. En un reciente e importante libro blanco promocional llamado Computing, Cognition and the Future of Knowing, IBM define sus sistemas cognitivos como “sistemas que aprenden a escala, razonan con una finalidad e interactúan con los humanos con naturalidad. Más que explícitamente programados, aprenden y razonan a partir de sus interacciones con nosotros y de sus experiencias con el entorno” (KELLY, 2015, pág. 2). Este potente imaginario de los sistemas informáticos cognitivos que se comportan “con naturalidad” ha avanzado aún más la visión que IBM tiene de la educación: Hasta hace poco, la computación era programable, estaba basada en inputs, instrucciones (código) y outputs de definición humana. Los sistemas cognitivos están en un paradigma completamente distinto de sistemas que entienden, razonan y aprenden. Sistemas, en resumen, que piensan. ¿Qué puede significar esto para los educadores? Consideramos que los sistemas cognitivos pueden ampliar las capacidades de los educadores aportándoles profundos conocimientos sobre este ámbito y ayuda especializada a través de la provisión de información de forma puntual, natural y utilizable. Estos sistemas cumplirán la función del asistente, una función complementaria, no sustitutoria, del arte y el oficio docentes. En el centro de los sistemas cognitivos están unas avanzadas capacidades analíticas. En particular, el objetivo de los sistemas cognitivos es responder las preguntas: “¿Qué ocurrirá?” y “¿Qué debería hacer?”. (KING y col., 2016, pág. 9)

205

En lugar de la programación dura, los sistemas informáticos cognitivos están diseñados como el cerebro para aprender de la experiencia y adaptarse a los estímulos del entorno. Estas tecnologías cognitivas se basan especialmente en el cerebro, utilizan conocimientos especializados sobre la plasticidad de este para “aprender dinámicamente de las experiencias, buscar correlaciones, formular hipótesis, recordar los resultados y aprender de ellos, emulando la plasticidad sináptica y estructural del cerebro humano (o la capacidad del cerebro de recablearse a medida que aprende de las experiencias e interacciones con su entorno y responde a ellas)” (IBM Research, 2011). En otras palabras, para los neurocientíficos de IBM el cerebro humano es un sistema dinámico capaz de “recablearse” y, del mismo modo, los sistemas cognitivos son ordenadores capaces de reprogramarse en respuesta a las aportaciones del entorno. IBM ha iniciado una gran campaña en torno a sus nuevas tecnologías cognitivas, con la producción de brillantes y atractivos imaginarios del “negocio cognitivo”, la “sanidad cognitiva” y la “educación cognitiva”, entre otros. Para aplicar sus aplicaciones informáticas cognitivas a la educación, IBM ha desarrollado un programa específico de Computación Cognitiva en la Educación en el que explícitamente se unen los conocimientos neurocientíficos sobre los procesos de aprendizaje cognitivo y las neurotecnologías. El director de programas dice: Nuestros sistemas cognitivos inteligentes pueden aprender de los humanos e interactuar con ellos de modo natural. Al mismo tiempo, los avances de la neurociencia, impulsados en parte por el progreso en el uso de superodenadores que toman como modelo aspectos del cerebro… prometen acercarnos más aún a una mejor comprensión de algunos procesos cognitivos como el del aprendizaje. En la intersección de la neurociencia cognitiva y la informática cognitiva se abre la extraordinaria oportunidad… de perfeccionar las teorías cognitivas del aprendizaje y deducir nuevos principios por los que se debería regir la estructuración de los contenidos del aprendizaje al utilizar tecnologías basadas en la computación cognitiva. (NITTA, 2014) Con el lema Computación Cognitiva en la Educación, IBM ha comenzado a desarrollar y probar prototipos de innovaciones, entre ellas, los “contenidos de aprendizaje cognitivo” automático, los “tutores cognitivos” y los “asistentes cognitivos para el aprendizaje”, capaces de entender las necesidades del estudiante y “prestar al usuario ayuda y tutoría constantes, pacientes e inagotables” (EASSOM, 2015). El último informe de IBM sobre los sistemas cognitivos en la educación señala que “las experiencias de inmersión e interactivas con sistemas inteligentes de tutoría pueden transformar nuestro modo de aprender”, y llevarnos al final a la “utopía del aprendizaje personalizado” (KING y col., 2016, pág. 9). Esta es la visión que IBM dice que puede hacer realidad con su programa Watson Education, puesto en marcha en 2016: Estos sistemas inteligentes de tutoría podrán interactuar autónomamente con los estudiantes y ofrecer experiencias de aprendizaje personalizadas usando aspectos del diálogo interactivo, el reconocimiento visual y del habla, y la comprensión de las

206

reacciones del alumno basada en el lenguaje natural. Estos sistemas pueden ayudar al alumno a entender sus propias carencias de conocimientos y ofrecerle una tutoría que le ayude a llenar esas lagunas. (IBM Watson Education, 2016a) IBM no pretende desplazar al profesor, sino que ve en los sistemas cognitivos un medio para optimizar su papel, como una especie de prótesis cognitiva o extensión mecánica de las cualidades humanas. Como tales, para IBM la promesa más general de la informática cognitiva no es solo la de más “sistemas naturales” con “cualidades humanas”, sino una forma básica y completamente nueva de imaginar “la siguiente generación de cognición humana, con modos nuevos y potentes de pensar y razonar”: Es verdad que los sistemas cognitivos son máquinas inspiradas en el cerebro humano. Pero también lo es que estas máquinas inspirarán al cerebro humano, nos darán mayor capacidad de razonamiento y recablearán nuestra forma de aprender. (KELLY, 2015, pág. 11) En tal afirmación se da por supuesta una relación recurrente entre la cognición automática y la cognición humana. Se supone que los sistemas cognitivos están inspirados en el cerebro a la vez que lo inspiran, lo toman de modelo y lo remoldean a través de la interacción con los usuarios. En este imaginario, la figura del profesor es la de alguien cuyas capacidades no son desplazadas por los algoritmos, sino que estos las aumentan y amplían. Del mismo modo, el estudiante sometido a un sistema de aprendizaje cognitivo forma también parte de un sistema híbrido, aumentado y mejorado cognitivamente para realizar tareas que de otro modo podrían superar la capacidad humana. El I+D de IBM en informática cognitiva parte fundamentalmente de sus propios descubrimientos neurocientíficos sobre la neuroplasticidad, y de la traducción de las redes neuronales biológicas que se estudian en la neurociencia informática en redes neuronales artificiales utilizadas en la informática cognitiva y la investigación en IA, como demuestra el desarrollo de Watson y su chip cerebral neurosináptico. IBM utiliza sus propias explicaciones biosociales sobre el funcionamiento del cerebro, la posibilidad de copiar este en silicio, y la de “recablear” el cerebro mediante la interacción con sistemas cognitivos no humanos. Basándose en las pruebas de la plasticidad del cerebro obtenidas por los propios neurocientíficos de IBM, los ingenieros informáticos de esta corporación han construido sistemas que emulan al cerebro como dispositivo en red que se adapta constantemente al input del entorno. De manera que tecnologías como los sistemas cognitivos para la educación se pueden entender como técnicas de gobernanza, en el sentido de que se basan en un supuesto conocimiento objetivo de la naturaleza cerebral humana que puede servir de base para las intervenciones. Además, IBM parte de una visión un tanto deficitaria de la cognición, y sostiene que la cognición y la inteligencia humanas se pueden mejorar y ampliar, recableándolas, a través de su integración con

207

sistemas cognitivos de base mecánica. Al igual que Pearson, IBM utiliza los conocimientos sobre la plasticidad del cerebro para demostrar la tesis de que es posible aumentar, fortalecer y optimizar las capacidades humanas con máquinas inteligentes, y para atender las demandas técnicas y económicas. Como se dice en la introducción del informe de IBM sobre los sistemas cognitivos en la educación: Hay una progresiva desconexión entre lo que la educación ofrece y las habilidades que exige el actual mercado global y en permanente cambio. El resultado neto es que, al terminar la educación a tiempo completo, los jóvenes están mal preparados para el mundo laboral. Al mismo tiempo, se observan cambios sin precedentes en las industrias y las profesiones, con tecnologías digitales que actúan de agentes de la transformación. (KING y col., 2016, pág. 2). Para IBM, la capacidad de desarrollo de capital humano y la producción de mano de obra para este contexto laboral está en el propio cerebro. El mapeado de este supuestamente autoriza a conocer los procesos cognitivos e intervenir en ellos, activando el cerebro con avanzados sistemas cognitivos diseñados para integrarse en la cognición humana y desde ahí mejorarla y optimizarla de acuerdo con las demandas actuales. Unas pretensiones, sin embargo, que hay que considerar con cautela: Hay una clara “afinidad electiva”… entre este énfasis en los cerebros plásticos y flexibles y cambios sociopolíticos más generales que priorizan la flexibilidad individual a lo largo de toda la vida para poder adaptarse a las siempre nuevas necesidades económicas, los cambios culturales y los avances técnicos, que exigen al ciudadano actual un trabajo permanente de automejora. (ROSE y ABI-RACHED, 2013, pág. 22) IBM, como Pearson y otras edu-empresas, está trabajando extensivamente en reimaginar las capacidades, las destrezas y las disposiciones que se exigen a los jóvenes —y a los profesionales de la enseñanza— en una época de importantes cambios tecnológicos y económicos. A finales de 2016, IBM y Pearson se unieron en una nueva sociedad global para promover la visión común contenida en sus respectivos proyectos de informática cognitiva e IAEd. En la base de la sociedad está la integración de las tecnologías Watson de IBM en los contenidos de los cursos digitales de Pearson. Una de las principales aplicaciones desarrolladas por IBM es IBM Watson Element for Educators, una herramienta basada en datos para seguir el rendimiento de los alumnos “diseñada para transformar el aula con conocimientos determinantes sobre cada alumno —sus capacidades, dificultades, estilos óptimos de aprendizaje, aspectos sociales, etc.— que el profesor puede usar para elaborar planes didácticos individualizados y en tiempo real”

208

(IBM Watson Education, 2016b). Diseñada para iPad, la aplicación también se puede utilizar directamente en clase, y puede reunir información convencional sobre el rendimiento y sobre los intereses del alumno y otro tipo de información contextual, una información que se puede utilizar para trazar el perfil exacto del alumno. También puede hacer un seguimiento de toda la clase, generando alertas y notificaciones automáticas si algún alumno se queda rezagado y requiere mayor intervención. Otra aplicación es IBM Watson Enlight for Educators, diseñada para ayudar al profesor con “elaborados contenidos y actividades, personalizados de acuerdo con las necesidades de los alumnos… El profesor puede optimizar su tiempo e impacto a lo largo del curso utilizando a demanda datos procesables de sus alumnos… y diseñar sobre la marcha experiencias de aprendizaje individualizadas” (IBM Watson Education, 2016b). Con la asociación con Pearson, Watson podrá penetrar en muy alto grado en las instituciones educativas, gracias al gigantesco alcance de la estructura de cursos de Pearson. En el comunicado de prensa de esta se decía que pondría “las capacidades cognitivas de Watson a disposición de millones de alumnos y profesores universitarios” “innovando las interfaces de programación de aplicaciones (API) de Watson, los diagnósticos específicos educativos y las capacidades de remediación” (Pearson, 2016). En la práctica, esto significa que Watson se convertirá en “tutor virtual flexible” con capacidad “para buscar a través de un amplio conjunto de recursos educativos información relevante para responder a las preguntas de los alumnos, mostrar la relación entre los conocimientos nuevos que estos adquieren y los que ya poseen y, por último, hacerles preguntas para verificar que lo entienden” (Pearson, 2016). El comunicado de prensa de IBM añadía que Watson quedaría “integrado” en los cursos de Pearson: Watson ya ha leído los contenidos del sistema de cursos de Pearson y está preparado para identificar patrones y generar ideas. Como recurso digital, Watson evaluará las respuestas de los estudiantes para orientarles con indicadores, retroalimentación y explicaciones, y ayudarles a identificar los errores más comunes, trabajando con el alumno y a su ritmo para que llegue a dominar el tema en cuestión. (IBM, 2016) Así pues, lo que hará Watson es confiar todos los contenidos de Pearson a la memoria de su ordenador, y después, con la monitorización constante de cada alumno, calcular cognitivamente el contenido o la estructura exactos de la experiencia de aprendizaje que mejor se adecúe o preste la mejor ayuda a ese alumno. En última instancia, la sociedad es la operacionalización material de un imaginario compartido de las inteligencias automáticas en la educación que tanto IBM como Pearson llevan proyectando desde hace cierto tiempo. Pero este imaginario sale poco a poco del cercado institucional de estas organizaciones y se percibe de modo más general como algo deseable y alcanzable en el futuro.

209

CEREBROS INFORMÁTICOS En cierta medida, Pearson e IBM están trasladando sus propios imaginarios y explicaciones biosociales al desarrollo de sus técnicas y aplicaciones cognitivas y de IA. Modelos de plasticidad neuronal y de la epigenética salidos de la neurociencia impulsan el desarrollo de sistemas informáticos cognitivos, que después se utilizan para activar entornos como el de aprendizaje inteligente de la IAEd de Pearson o el aula cognitiva de IBM. Estos entornos se reconfiguran como “espacios cerebrales” neurocomputacionales donde los estudiantes son el objetivo de mejora cognitiva y neuro-optimización mediante la interacción con otros agentes cognitivos no conscientes y entornos inteligentes. De esta forma, se proponen inteligencias automáticas basadas en el cerebro para que actúen como el cerebro humano y, basándose en los principios de neuroplasticidad y epigenética, incidan en la morfología cerebral y el funcionamiento cognitivo. En este contexto, el énfasis de Pearson e IBM en el uso de tecnologías neurocomputacionales para activar las adecuadas capacidades para el desarrollo de capital humano, forma parte de estrategias más amplias de los gobiernos para ubicar las conductas de los ciudadanos en la psique y el cerebro, unas estrategias con las que se pretende modificar las actuaciones de los ciudadanos convirtiéndoles en objetivo de activación y mejora psicológica o neurológica (P YKETT, 2015; MCGIMPSEY y col., 2016). Evidentemente, hay que tener cuidado con el exceso de determinismo. Estos intentos de modificar el cerebro no tienen nada de inevitables. Al contrario, los objetivos de Pearson e IBM reflejan un particular imaginario sociotécnico, vinculado a planes y ambiciones empresariales que proyectan un mercado para las tecnologías dirigidas al cerebro. Como pregunta ROSE (2016), ¿por qué unos sueñan que con las nuevas neurotecnologías será posible “leer” el cerebro, qué aplicaciones prácticas pueden tener tales tecnologías, y qué cambio en nuestra comprensión de lo humano puede derivar de su desarrollo? En este sentido, la cuestión más importante es cómo representan y modelan el cerebro discente organizaciones como Pearson e IBM. Se ha criticado al campo de la neuroeducación que represente el cerebro en términos informáticos o algorítmicos reduccionistas, como un dispositivo de múltiples conexiones organizado en redes neuronales que se podría limpiar, recablear y optimizar (P YKETT, 2015). DAVIDSON (2011, págs. 14-15), escritor sobre temas educativos y fundador del Centro de Neurociencia Educativa de la Universidad Duke, equipara el cerebro con un iPhone, “con aplicaciones para casi todo”: Son aplicaciones que se pueden descargar o eliminar y que necesitan una permanente actualización del software… El cerebro es algo parecido. Cambia con el uso que hacemos de él… En este sentido, el iPhone también coincide perfectamente con avances recientes en lo que sabemos sobre la plasticidad neuronal, la teoría de que el cerebro se adapta físicamente a los estímulos sensoriales que recibe.

210

La idea de que el cerebro se puede entender como “software mental” que “se actualiza constantemente” también da por supuesto que un entorno social y técnico cada vez más reticular está “retorneando” el cerebro. La tesis es que las instituciones educativas siguen pegadas a un modelo lineal de carácter mecánico del desarrollo del cerebro, un modelo que se refuerza con los currículos y los exámenes estandarizados desarrollados en la época de la industrialización científica y la fabricación en cadena, y que convendría cambiar para que reflejara con mayor fidelidad tanto el carácter reticular de Internet como la estructura en red del cerebro. Esta nueva imagen del cerebro refleja la antigua tendencia de los científicos y las tecnologías a equiparar las funciones del cerebro con las operaciones del ordenador (EPSTEIN, 2016). La ciencia cognitiva ha utilizado y utiliza repetidamente imágenes de la informática para representar las funciones y los procesos del cerebro, por ejemplo, la de que el cerebro es el hardware, una máquina calculadora rápida y compleja, compuesta de interruptores digitales; la de que la mente es una máquina, o software, de información, un programa o una serie de programas que manipulan la representación simbólica; la de que el pensamiento es computación; la de que la memoria consiste en recuperar datos almacenados; y la de que la función de la mente y el cerebro es procesar información (EDWARDS, 1997, pág. 161). Estas imágenes de la informática suponen, por consiguiente, que la complejidad del cerebro humano, los procesos del pensar y la producción de comportamientos, se pueden reducir a procesos relativamente más simples de programación informática, con los bugs o errores y los patrones de pensamiento considerados susceptibles de ser corregidos, reprogramados o recableados (EDWARDS, 1997). La imagen informática del cerebro es importante porque da por supuesto que el funcionamiento de las neuronas —y por defecto los procesos de aprendizaje— se pueden modelar computacionalmente para construir tecnologías con supuestas cualidades “naturales” y “humanas” para el aprendizaje y la cognición. Pero las propias cualidades de cognición supuestamente humanas y naturales son una construcción de la ciencia cognitiva, un campo que ha tendido a entender el cerebro como algo parecido al ordenador. El imaginario del cerebro de IBM lo representa como una compleja plataforma en red, con múltiples conexiones, adaptativo y permanentemente “recableándose” en función de las aportaciones del entorno y los estímulos experienciales que le llegan de un vasto ecosistema de plataformas cognitivas humanas y no humanas. Se “basa en un conocimiento distinto y ampliado del cuerpo y los procesos biológicos… más como una red de información que como un sustrato físico o una máquina anatómica” que hace “concebible y calculable la realidad de la vida, de modo que se puede configurar y transformar” (LEMKE, 2011, págs. 118-119). El ideal de IBM de que los sistemas cognitivos puedan “recablear las formas de aprender” incorpora la imagen informática a la plasticidad del cerebro que aprende. Son afirmaciones que ejemplifican una nueva imagen del sujeto humano, como redes de patrones neuronales conectadas a

211

un mundo de redes de información y comunicación (CASTELLS, 2009, pág. 139). Pero hasta el propio campo de la neurociencia está profundamente dividido en su conceptualización del cerebro, con diferentes ramas de especialidad neurocientífica que intentan modelar el cerebro de forma distinta. Para otros críticos, ni siquiera el modelado y la simulación informáticos más complejos del inmenso patrón de la red neuronal del cerebro “supondría que fuera fruto de algo exterior al cuerpo” y “no tendría sentido a menos que conociéramos toda la historia vital del propietario de ese cerebro, tal vez incluso el contexto social en que se crió” (EPSTEIN, 2016, cursiva en el original). Los sistemas que promueven IBM y Pearson pueden estar basados en el cerebro y posteriormente dirigidos a él, pero reproducen una interpretación complicada de la vida mental en términos de procesado informático de la información y plataformas en red. En particular, mezclan las redes neuronales neurobiológicas del cerebro que son objeto de investigación y estudio por imágenes, con las redes neuronales artificiales o convolucionales que se desarrollan en un I+D aplicado a la IA y la informática cognitiva. El análisis de las redes neuronales artificiales conocido como neurociencia computacional o teórica es la premisa de un recableado de las redes neuronales biológicas del cerebro mediante la inteligencia automática. Esas redes neuronales artificiales no solo conciben las del cerebro como algo computable, sino que pueden confundir el aprendizaje y el procesado de información automáticos basados en el cerebro con la complejidad del aprendizaje personificado, culturalmente relevante y socialmente ubicado. Esto no significa cuestionar la búsqueda de conocimiento neurocientífico especializado, sino plantear cómo los vendedores comerciales de inteligencias educativas automáticas traducen y aplican ese conocimiento experto.

Conclusión La inteligencia artificial y la computación cognitiva están a la vanguardia de la analítica de los big data. Ambas son producto de arduos esfuerzos por mapear el cerebro utilizando complejas tecnologías que lo traducen a datos analizables, y parten de teorías informáticas para las que el propio cerebro es un avanzado procesador de datos compuesto de redes neuronales maleables. Hoy, un mismo lenguaje e imaginario informático aúna las diversas formas de I+D neurocientífico y técnico promovidas por Pearson e IBM, como demuestra el anuncio de su sociedad global para incorporar a Watson a los cursos de Pearson en 2016, y más aún la adopción de visiones positivas de la IA en la educación por parte de laboratorios de ideas, centros de investigación y hasta centros políticos como la Casa Blanca. Además, las tecnologías neurocomputacionales como la IA y la computación cognitiva se consideran hoy las aplicaciones más avanzadas de la analítica de los big data y el aprendizaje automático, diseñadas con capacidad para analizar inmensas cantidades de datos desestructurados e impredecibles sin necesidad de una programación dura, formación de los datos ni aprendizaje supervisado. Al contrario,

212

son tecnologías inspiradas en la capacidad del cerebro de aprender de la experiencia y en la neuroplasticidad, promovidas por IBM y Pearson y diseñadas para aprender de los estímulos y aportaciones del entorno y adaptarse a ellos, exactamente igual que las personas. Han entrado en escena polémicos supuestos sobre el aprendizaje humano como proceso informático o como proceso determinado por la varianza genética, todos argumentados con la idea de personalización. La genómica educativa promueve la idea de que la educación se puede personalizar de acuerdo con el perfil genético de la persona, pero los avances en la IA y los sistemas cognitivos neuroeducativos también subrayan el desarrollo de tecnologías de procesamiento de datos que pueden aprender y adaptarse al discente para ofrecer retroalimentación y contenidos personalizados que puedan estimular la plasticidad del cerebro. La aplicación de estos avances en el diseño de tecnologías neuroeducativas adaptativas tiene, evidentemente, sus implicaciones para las prácticas educativas. No son solo avances de base argumental biológica y cerebral, sino que también van dirigidas al cerebro, con el objetivo de extender activamente la cognición y la inteligencia poniendo en marcha una dinámica neurobiológica. Una realidad que plantea todo tipo de preguntas sobre cómo se puede evaluar a los estudiantes y los procesos de aprendizaje si están completamente hibridados con formas automáticas de inteligencia. Surgen también preguntas sobre la conveniencia (o no) de formas artificialmente extendidas de cognición y pensamiento. Y, tal vez no menos importante, el hecho de que Pearson e IBM sean empresas globales que quieren vender sus productos plantea muchos interrogantes. Los tutores artificiales y los asistentes cognitivos para el aprendizaje —sean o no aditamentos deseables para el aula— podrían convertirse en adquisiciones sumamente valiosas para las instituciones educativas con recursos económicos, que los podrían incorporar a su aparato didáctico en beneficio de profesores y alumnos, algo que no se podrían permitir instituciones con menos recursos. Esto podría agudizar y ampliar las desigualdades existentes, porque algunas instituciones que ya disponen de capital económico también dispondrían de más capital neurocomputacional. Una idea nacida de la investigación biosocial crítica es la de “biologías locales”, la idea de que “en la producción y reproducción de los cuerpos en contextos socioculturales situados hay un continuo intercambio entre lo social y lo biológico” (MELONI, 2014). Desde esta perspectiva, los contextos locales dejan marcas biológicas en el “cuerpo encarnado” y el cerebro, como firmas biológicas de la exposición socio-ambiental. La implicación para los contextos y entornos educativos donde las inteligencias automáticas y los tutores cognitivos pueden significar una extensión cognitiva de las capacidades humanas —mediante el recableado del cerebro plástico— podrían ser muy importantes. Apuntan a la posibilidad de nuevos tipos de neurobiologías locales de la educación —o contextos y espacios socio-ambientales donde las estructuras neurobiológicas del cerebro del estudiante llevan la firma de su interacción con formas de inteligencia de base

213

automática—. También aquí se impone la cautela antes de dar por supuesto que la neurocomputación va a determinar la estructura y el funcionamiento neurobiológicos. Pero la posibilidad de que aparezcan neurobiologías locales como consecuencia de la interacción socialmente situada con inteligencias automáticas es un tema emergente que merece estudios futuros. ¿Es posible que estas tecnologías generen nuevas estriaciones jerárquicas de la educación, con clasificaciones de las instituciones y las personas basadas en sus inteligencias neurocomputacionales híbridas y mejoradas cognitivamente? Los objetivos declarados de IBM son extender la capacidad cognitiva humana, a partir de la evidencia de que el cerebro se puede remoldear y recablear. En este sentido, el plan de negocio de IBM es reconfigurar la neurobiología creando nuevos mercados para sus productos. Si es previsible que sus productos se distribuyan de forma desigual entre las instituciones educativas, y si los neurocientíficos y los científicos sociales se toman en serio la neuroplasticidad, debemos considerar la posible aparición de neurobiologías del aprendizaje localmente contingentes y clasificadas jerárquicamente.

214

215

216

En junio de 2016, Google Research anunciaba el lanzamiento de Project Bloks, una plataforma de “programación tangible” con la que los niños podrían aprender a realizar código de software mediante la manipulación física de bloques electrónicos. La plataforma Project Bloks1 está compuesta de bloques base y “discos programables” electrónicos, los componentes de interfaz tangibles, todos ellos conectados por un “bloque cerebro” que aporta energía y conectividad. Juntos, estos elementos de la plataforma se pueden utilizar para codificar instrucciones para otros dispositivos vinculados, instruir a dispositivos sensores, componer música y muchísimas otras actividades de programación. El proyecto pretende ser una plataforma abierta de hardware y software con la que los niños puedan aprender a codificar. En un documento expositivo que acompaña al lanzamiento del proyecto, el equipo de Project Bloks (compuesto por investigadores de Google, de la Universidad de Stanford y de la compañía de diseño y consultoría IDEO) dicen que la plataforma aúna las teorías del aprendizaje directo experiencial, el pensamiento informático y la resolución de problemas, y citan en particular el influyente trabajo de Seymour P APERT sobre el “construccionismo” como precursor de la “codificación para niños” y el “movimiento de hacedores” aparecido 40 años después (BLIKSTEIN y col., 2016). También se refieren positivamente a la psicología evolutiva “constructivista” como la de Jean Piaget de mediados del siglo XX, por su énfasis en la capacidad lúdica innata de los niños que les permite codificar a partir de la experiencia de “construir cosas”. En los últimos años, la idea de que los niños deberían aprender a codificar para poder programar y hacer productos digitales se ha traducido en un importante movimiento

217

educativo, alentado por una amplia diversidad de organizaciones filantrópicas y educativas, empresas, estudiosos académicos, personajes y emprendedores influyentes de los medios de comunicación, y departamentos gubernamentales. En su documento expositivo, los investigadores de Project Bloks procuran distanciarse de la idea reduccionista de que los niños deberían aprender a codificar y hacer artefactos digitales para después convertirse en programadores aptos para trabajar y en capital humano cualificado para las industrias digitales. Sin embargo, el movimiento de aprender a codificar y a hacer al que va asociado Project Bloks en realidad es el resultado extremadamente confuso de visiones y formas de pensar opuestas sobre cómo enseñar a los niños a programar dispositivos informáticos. El movimiento se asienta en ideas políticas y económicas sobre la construcción de capacidad industrial, preocupaciones del campo de la ciencia informática sobre el desarrollo disciplinar, e intereses teóricos por el aprendizaje psicológico constructivista y construccionista, además de los intentos más claramente comerciales de construir un mercado educativo de codificación y fabricación de productos y plataformas. Al mismo tiempo, el rápido crecimiento de la Red, los medios sociales y los big data ha empezado a animar importantes debates sobre la identidad y la ciudadanía en la era digital, y sobre el papel de la educación en la formación de “ciudadanos digitales” (EMEJULA y MCGREGOR, 2016). En particular, con unos medios sociales que reposicionan a los usuarios de la Red también como productores de contenidos, se afirma que hoy se dispone de nuevas formas de expresar la propia identidad y de manifestarse uno mismo como ciudadano que hace artefactos digitales y produce datos, más que limitarse a consumirlos. El capítulo analiza la aparición global del “movimiento de hacedores” y las iniciativas de “aprender a codificar” para explorar el surgimiento de un nuevo imaginario de la ciudadanía digital. El imaginario de la ciudadanía digital nace de determinadas formas de entender tanto las tecnologías como a los ciudadanos digitales, y por consiguiente refleja ideas sobre lo que es y lo que debería ser la ciudadanía que encarnan normas, valores, ideologías y tecnologías (ISIN y RUPPERT, 2015). La forma particular de ciudadanía digital asociada a la producción y a la codificación, fruto de las culturas de la codificación y la resolución norteamericanas, ha sido bautizada como “ciudadanía empresarial”, una forma de ser ciudadano que “expresa un entusiasmo más general por llevar las prácticas de resolución, diseño y crowdsourcing (colaboración masiva) de Silicon Valley a la práctica de la vida pública (IRANI, 2015, pág. 800). Al ciudadano empresarial se le invita a que se considere “agente del progreso social a través de la resolución y la creación digitales” (2015, pág. 800). En otras palabras, la idea de una forma empresarial de ciudadano refleja cómo las prácticas técnicas han pasado a ser modelos de particulares prácticas sociales y expresión del propio yo en la vida pública. En la literatura de investigación más reciente, la producción se asocia a una forma de “ciudadanía del hazlo tú mismo” (RATTO y BOLER, 2014) y una “política participativa”

218

que incita a los ciudadanos a fusionar lo cultural y lo político para entender, expresar y reconfigurar los asuntos públicos (SOEP, 2014). Se dice que las actividades de creación contribuyen también a unas nuevas identidades, o que “crean subjetividades” (LINDTNER, 2015). Así pues, la codificación y la producción promueven el ideal del potencial “hazlo tú mismo” (HTM) de los ciudadanos para participar en la creación de nuevos servicios públicos, elaborar nuevos productos que generen valor, y contribuir a la dinámica cultural de las ciudades y las regiones. Son ideas integradas en estrategias educativas pensadas para reeducar al ciudadano como creador productivo y participativo que puede contribuir cultural, política y económicamente a la vida social. Producir no significa simplemente hacer cosas, sino rehacer la sociedad y hacer ciudadanos digitales. La codificación y la producción no son simples actividades técnicas neutras, sino que encarnan profundas aspiraciones sobre el futuro de una sociedad digitalizada y el comportamiento considerado adecuado para el ciudadano digital (WILLIAMSON, 2016d). El ciudadano digital que sabe codificar y hacer es el sujeto híbrido de diversos discursos políticos, económicos, comerciales, civiles y psicológicos, o una particular subjetividad que se invita a los jóvenes que ocupen y proyecten para sí mismos. Este movimiento de producir codificadores cualificados, pensadores informáticos y creadores digitales ha cobrado tanta fuerza que, como veremos en este capítulo, se han hecho enormes esfuerzos para incorporar la programación a los currículos escolares a niveles nacionales, lo cual abre muchísimas oportunidades nuevas para los proveedores y vendedores de plataformas, materiales y recursos tecnológicos desde todos los sectores públicos, privados y filantrópicos. Las pedagogías del aprender a codificar y la producción digital no son simples pedagogías de oficio técnico, sino pedagogías diseñadas para esculpir y modelar una forma de subjetividad que se considera apropiada para el ciudadano digital de hoy. En el capítulo se resumen los orígenes del movimiento de aprender a codificar y del hacer digital, se analiza cómo la codificación y el hacer se han vinculado a la producción de capital humano técnicamente cualificado, se detallan algunos de los mercados comerciales de productos y recursos que han acompañado a este movimiento, se expone cómo este ha ido unido a intereses “civiles”, y después se habla de cómo las emergente iniciativas de codificación y producción en educación contribuyen a la construcción de un nuevo tipo de ciudadanía digital participativa y de HTM. Se imagina que el sujetociudadano digital que estas actividades y sus patrocinadores proyectan posee destrezas técnicas de programación, construcción y análisis, y sabe trabajar con datos como forma de trabajo digital, pero también jugar con datos como consumidor productivo de los circuitos de las culturas de los medios sociales. El argumento básico es que el hacer y el codificar se gubernamentalizan a medida que los gobiernos se dan cuenta del potencial económico y los beneficios sociales de producir una nueva reserva de productores digitales, y de fomentar que los ciudadanos se consideren “ingenieros de soluciones” que pueden contribuir como participantes HTM a la resolución de complejos problemas

219

públicos y sociales. En este sentido, los ciudadanos pasan a ser gobernables como ciudadanos digitales dentro de la lógica de los objetivos emergentes de la gobernanza digital.

La génesis del hacer Los orígenes del movimiento del codificar y el hacer está en las teorías psicológicas del constructivismo que se popularizaron a mediados del siglo XX —en particular su inclusión en las ideas construccionistas del niño que aprende a través de la programación y la construcción de artefactos de base informática— unidas a la cultura de la resolución, la programación y la creación de Silicon Valley. Para los teóricos del constructivismo, al aprendizaje es un proceso psicológico que se produce cuando el niño o el joven explora, experimenta y juega con los recursos lingüísticos, visuales y materiales que encuentra a través de la experiencia. El campo del construccionismo, asociado principalmente a Seymour P APERT del MIT desde principios de los pasados años setenta, asumió los principios psicológicos del constructivismo y los aplicó al uso educativo de juegos de construcción como LEGO (P APERT, 1980). Los construccionistas tenían especial interés por los sistemas informáticos programables y defendían la “cibernética para niños” como sistema de aprendizaje. A través de entornos de programación como LEGO, el objetivo de los construccionistas era fomentar destrezas transferibles de resolución de problemas y, al mismo tiempo, dotar a los jóvenes de autoridad y agencia o capacidad de actuar. La idea del construccionismo era la del “usuario que programa el ordenador, y no al revés”, y la del acto de programar como una forma de capacitar al “usuario para personalizar informáticamente su capacidad de actuar” (ITO, 2009, pág. 146). El enfoque construccionista se asienta en múltiples proyectos, iniciativas y plataformas diseñadas más recientemente para estimular a los jóvenes a que aprendan a codificar. Project Bloks de Google se refiere explícitamente al construccionismo y a P APERT. El legado de P APERT en el MIT está también en Scratch, una exitosa plataforma del MIT para la programación visual diseñada para que sea accesible para los niños. En Reino Unido, la afamada iniciativa Code Club —clases extraescolares de codificación a cargo de programadores voluntarios— también invoca la idea construccionista de que los jóvenes deberían aprender a programar el ordenador, en lugar de ser programados por él. El currículo de Code Club está diseñado para que los niños que asisten a clase encuentren en Scratch su primera experiencia de programación. En un sentido más general, el “movimiento hacedor” debe al construccionismo “la teoría del aprendizaje en que se basa la atención del movimiento hacedor a la resolución de problemas y la fabricación digital y física” (HALVERSON y SHERIDAN, 2014, pág. 497). Se considera en general que el movimiento hacedor se refiere a la escritura de código informático, la creación de aplicaciones, la impresión 3D y otras formas de “fabricación personal”, normalmente a través de espacios de hacedor, espacios de resolución, hackatones,

220

talleres de manufactura, laboratorios de fabricación, aprender a codificar clubes y otros programas hacedores. Hacer se ha convertido en un fenómeno global, pero su materialización es distinta en los diferentes contextos nacionales y culturales y en función de las dispares fuerzas y factores que lo impulsen. El movimiento hacedor está teórica y prácticamente en deuda con el construccionismo, pero también ha sido acelerado con fuerza por los emprendedores de la tecnología. Uno de los principales defensores del movimiento hacedor es Chris Anderson, antiguo editor jefe de la revista Wired, que habla del hacer en términos históricos como “la próxima revolución industrial”. Con la aparición de nuevas revistas especializadas y webs como Make, y la proliferación de nuevos espacios comerciales y otros laboratorios de fabricación, se ha abierto el escenario del hacer empresarial. Las dimensiones empresariales del movimiento hacedor han surgido de la cultura de la utopía tecnológica, para la que todos los problemas sociales se pueden solucionar con la aplicación de nuevas tecnologías bien diseñadas (IRANI, 2015). La influencia de la cultura hacker de Silicon Valley, con su énfasis en el trasteo y el juego con lenguajes de programación, la separación de sistemas y su reconstrucción, alienta la clase de defensa del hacer que asumen personas como Anderson y materiales como la revista Make. Otras fuentes ofrecen un enfoque más crítico del hacer y la codificación. RUSHKOFF (2010), comentarista estadounidense de los medios sociales, por ejemplo, hace de las tesis de P APERT el eslogan “programar o ser programado” para argumentar que los jóvenes necesitan entender el código para poder comprender cómo las empresas tecnológicas dominantes de la época determinan sutilmente sus vidas. En Reino Unido, el columnista NAUGHTON (2012) ha hecho intensas campañas con argumentos similares para que los niños aprendan a codificar en las escuelas, unas campañas que han culminado con la publicación de un “manifiesto por la enseñanza de la ciencia informática” en el periódico The Observer: En un mundo determinado por la tecnología en red y dependiente de ella, la comprensión de la informática es fundamental para la ciudadanía informada… Todos los niños deberían aprender un poco de ciencia informática desde los primeros años, porque viven en un mundo donde la informática es ubicua… Con ello se generarían beneficios económicos y sociales —y se garantizaría que los niños optaran acertadamente ante la disyuntiva del “programar o ser programado” a la que todo ciudadano de un mundo reticular se enfrenta—. La idea de que aprender a codificar es fundamental para llegar a ser un ciudadano informado de un mundo en red está en la base del principio rector de Code Club, que con tanto entusiasmo promueve NAUGHTON. En lo que se refiere explícitamente a la educación, se ha desarrollado una gran cantidad de cursos online, plataformas de software y hardware para ayudar a que los jóvenes

221

aprendan a codificar y hacer, todo promovido en gran parte por organizaciones como Maker Ed y publicaciones a través de iniciativas académicas dedicadas a las tecnologías digitales y a la educación. El creciente énfasis político y educativo en el hacer se ha asociado a las asignaturas de ciencia, tecnología, ingeniería y matemáticas (las llamadas STEM [“tallo”, “eje”] por su acrónimo inglés), consideradas ampliamente fundamental reserva de talento para las industrias digitales, creativas y técnicas en que se apoyan las economías avanzadas (SEFTON-GREEN, 2013). Como bien demuestran estos ejemplos, la génesis del hacer ha estado informada por una diversidad de perspectivas y disposiciones, con actores que hablan desde distintas posiciones. En cuanto al movimiento de la codificación, se ha señalado que circulan nueve “metáforas del código” distintas: Máquina: el código como secuencia mecánica y lineal de comandos. Organismo: el código como mezcla de objetos. Cerebro: el código como inteligencia. Flujo y transformación: el código salvará el mundo. Cultura: comunidades creadoras de código. Sistema político: el código que estructura la sociedad. Prisión psíquica: el código que limita la conducta humana. Instrumento de dominación: el conocimiento y control del código es poder. Carnaval: el uso creativo del código puede llevar a su comprensión. (DUFVA y DUFVA, 2016) Es útil, sin duda, imaginar el hacer y la codificación como objetos de múltiples traducciones entre estas distintas imágenes del código y la codificación. “Traducción” se refiere aquí a que se han sintetizado, se han yuxtapuesto y se han generado diferentes perspectivas al parecer mutuamente proporcionales sobre la codificación y el hacer. A medida que el hacer y la codificación han pasado a ser consideradas actividades de sentido común, muchas de las largas historias de construccionismo y resolución de problemas de Silicon Valley en que se sustenta este movimiento se dan simplemente por supuestas.

La codificación de capital humano La codificación y el hacer se han convertido en objeto de interés político. En muchos países, y en especial en Estados Unidos y en el Reino Unido, políticos del más alto nivel del gobierno defienden públicamente los beneficios de aprender a codificar y convertirse en hacedores digitales. Sin embargo, este tipo de respaldo político se ha conseguido con el trabajo fundamental de actores intermedios que se han empleado en traducir el código y el hacer al discurso político y, al mismo tiempo, han empezado a abrir oportunidades para los proveedores comerciales y técnicos. En este sentido, el aprender a codificar y el hacer digital son un buen ejemplo de “política rápida”, un proceso político acelerado que

222

opera a escalas temporales comprimidas y, además, muestra un amplio alcance entre los sectores gubernamentales, comerciales e intermedios (P ECK y T HEODORE, 2015). Los laboratorios de ideas, los grupos de presión, las asociaciones profesionales y empresariales y las coaliciones comerciales han sido decisivos en la trasformación de la codificación y el hacer en objeto de procesos de política rápida y del discurso político general. Un ejemplo destacado de la transformación del código en discurso político es el proyecto Hour of Code de Estados Unidos. La campaña Hour of Code fue organizada en 2013 por Code.org, “una organización sin ánimo de lucro dedicada a ampliar la participación en la ciencia informática poniéndola a disposición de más centros educativos”, con la voluntad de que “todos los alumnos de todas las escuelas tengan oportunidad de aprender a programar” (Code.org, 2014). Code.org fue fundada por Ali y Hidi Partovi, dos hermanos gemelos emprendedores con una larga historia de “inversores ángel” y de capital riesgo de Silicon Valley, y contó con la ayuda de Microsoft, Google, Amazon, Dropbox, Facebook y muchos otros, además de filántropos de todo el sector de la informática comercial y del de capital riesgo. El presidente Barack Obama completó a finales de 2014 una “hora de código” que despertó mucho interés en los medios de comunicación, y un año después anunció su deseo de que todos los alumnos estadounidenses recibieran clases de ciencia informática. En uno de sus alocuciones semanales, dijo: “La nueva tecnología sustituye cualquier empleo en que el trabajo se pueda automatizar. Los trabajadores necesitan más destrezas para progresar. Los cambios no son nuevos, y van a seguir aumentando. De modo que la pregunta que nos debemos hacer es: ¿Cómo podemos asegurar que todo el mundo tenga la justa oportunidad de prosperar en esta nueva economía?” (SHAPIRO, 2016) Asimismo, en 2014 se organizó en el Reino Unido la campaña Year of Code para ayudar a la gente a “aprender a codificar y crear cosas interesantes con el ordenador” (Year of Code, 2014). La campaña fue patrocinada por una amplia red de socios del Estado, los medios sociales y la sociedad civil. El director ejecutivo y los asesores de Year of Code procedían en su mayoría de la empresa, el capital riesgo y la industria informática. Year of Code fue considerada en Reino Unido una intervención política sin éxito, en cambio, Hour of Code de Estados Unidos se ha convertido en un fenómeno internacional, con otra Hour of Code similar puesta en marcha en Reino Unido en 2015 con la ayuda a gran nivel de Tom Berners-Lee (considerado ampliamente el inventor de la World Wide Web) y Boris Johnson (por entonces alcalde de Londres). Organizaciones de muy diversas posiciones también han participado activamente en la promoción de la codificación y el hacer. Más o menos por el mismo tiempo que Year of Code, la innovadora organización benéfica Nesta, en asociación con el filantrópico

223

NOMINET T RUST y la compañía internacional de Internet Mozilla, puso en marcha una iniciativa llamada Make Things Do Stuff (Hacer que las cosas hagan cosas) para promover diversas formas de aprender a codificar, programar y hacer digital. Descrito como “movimiento abierto”, Make Things Do Stuff estaba vinculado directamente a empresas tecnológicas y educativas, organizaciones del sector terciario y agencias gubernamentales. El entonces ministro de Hacienda, George Osborne, puso en marcha la iniciativa en mayo de 2013, de la que decía que “apuesta por los emprendedores del futuro y contribuye a garantizar que Gran Bretaña esté equipada para ganar en la carrera global” (HM Treasury, 2013). Asimismo, el director ejecutivo del NOMINET T RUST apelaba a un “serio imperativo económico” y hablaba de “la diversión y el aprendizaje que el hacer digital ofrece a los jóvenes”, y de que “Reino Unido y el mercado laboral global exigen habilidades digitales y tenemos que asegurarnos de que la próxima generación atienda esta necesidad” (NOMINET T RUST, 2013). Posteriores informes de la Comisión del Diseño y el Grupo de Trabajo sobre Habilidades Digitales, organismos gubernamentales de alto nivel, también recomiendan apoyo político a la codificación y el hacer digital para promover las habilidades digitales para la economía. Como Year of Code, Hour of Code y Make Things Do Stuff demuestran, al hacer y el aprender a codificar se ha unido el discurso de la futura productividad económica. Todas estas iniciativas son producto de organizaciones intermedias como inversores de capital riesgo, organizaciones benéficas y trust, que se han dedicado a traducir la codificación y el hacer en imperativo para la intervención política. Con el trabajo de estos mediadores, la codificación y el hacer se han alejado en parte de sus orígenes construccionistas y de la cultura de la resolución, para reenmarcarse en el discurso del desarrollo de capital humano. Un principio fundamental de ese nuevo marco de la codificación y el hacer como desarrollo de capital humano es la supuesta demanda de talento para el análisis de datos. Nesta, organización sin ánimo de lucro y uno de los organizadores de Make Things Do Stuff, defiende de forma particular la necesidad de una “Gran Bretaña analítica”. Sus dos informes, Skills of the Datavores: Talent and the Data Revolution (MATEOS-GARCÍA y col., 2015) y Analytic Britain: Securing the right skills for the data-driven economy (NESTA, 2015), vinculan directamente el aprender a codificar y el hacer digital a la industria de la analítica de datos y la economía digital de Reino Unido. Consideran que la formación en programación y resolución analítica de problemas es la “reserva de talento” necesaria para que Reino Unido se convierta en un país competitivo, innovador y líder en el análisis de los big data y la maximización de los conocimientos impulsados por los datos para la productividad y prosperidad económicas en toda una amplia diversidad de sectores. Según el discurso político en que se enmarcan, el hacer digital y el aprender a codificar conllevan una serie de supuestos y prácticas laborales basados en ideas como el pensamiento informático, el pensamiento de sistemas, la racionalidad científica y la lógica

224

procedimental algorítmica, cuyos orígenes están en prácticas laborales y códigos de conducta asociados a la “cultura del código” del desarrollo de software (HAYES, 2015). Se trata de prácticas sociales muy específicas que reflejan modos de pensar en algunos casos bastante funcionalistas y tecnicistas y que contemplan el mundo desde una perspectiva computacional, más que en relación con los contextos cultural, económico o político (KITCHIN, 2014b). En este sentido, aprender a codificar se puede entender como una práctica material de la “ideología algorítmica” (MAGER, 2012), una especie de introducción a los actuales códigos de trabajo, prácticas, supuestos y valores en que se asienta la producción de código. Iniciativas de aprender a codificar como Hour of Code, Year of Code y Make Things Do Stuff están diseñadas para iniciar a los estudiantes en los sistemas de pensamiento y práctica asociados a la codificación que simplifica y embellece la realidad de la práctica disciplinaria en la economía digital.

Los currículos de informática El fomento del hacer y la codificación ha empezado a influir en los currículos escolares a nivel nacional y de los estados. En 2016, el presidente Barack Obama anunciaba una ayuda federal de 4.000 millones de dólares a la iniciativa Computer Science for All, y, en este mismo sentido, en Canadá se promueve la informática como asignatura del futuro. En Reino Unido, en 2014 la informática fue incorporada como nueva asignatura al Currículo Nacional (de aplicación sobre todo en Inglaterra, aunque también en Escocia, con el Curriculum for Excellence, la informática se ha convertido en objeto de renovado interés curricular). Los nuevos programas de informática fueron introducidos después del abandono de la TIC, que según sus críticos ponía excesivo énfasis en habilidades funcionales para el uso del ordenador, y fue sustituida por un nuevo enfoque en la ciencia informática, las habilidades de programación y el “pensamiento computacional” (P EYTON JONES y col., 2013; Computing at School, 2014). La elaboración de un currículo de informática en Reino Unido no fue simple producto de la agenda política. Al contrario, fue el resultado final de una serie de actividades de organizaciones de los sectores público, privado y civil. En Reino Unido, el apoyo inicial a la idea de aprender a codificar y de promover la programación y la ciencia informática en el currículo llegó de Computing at School (CAS). CAS es una asociación de profesores de informática nacida de Microsoft Research en 2008, y está presidida por un investigador de alto rango de Microsoft y financiada por Microsoft, Google y la British Computing Society, la asociación nacional de profesionales de la informática. El “libro blanco” de CAS (2010) fue uno de los primeros documentos en defender la sustitución de la TIC por la informática en el Currículo Nacional. Sus autores argumentaban que “la informática es el estudio del funcionamiento de los ordenadores y los sistemas informáticos, de cómo están construidos y programados”, y señalaban que un nuevo currículo de informática debería incluir el estudio de “cómo funcionan los ordenadores”,

225

el uso de algoritmos, estructuras de datos, sistemas y redes para resolver problemas informáticos, y la enseñanza de conocimientos y destrezas de programación. CAS apuesta también decididamente por destacar el “pensamiento computacional” en el currículo de informática, “como filosofía base de la informática” o un esbozo de procesos de descomposición, reconocimiento y generalización de patrones, abstracción y diseño de algoritmos (Computing at School, 2014). Sin embargo, fue en 2011, después de que la innovadora Nesta publicara un informe titulado Next Gen (LIVINGSTONE y HOPE, 2011), cuando los principales mensajes sobre la informática y el aprendizaje cobraron importancia política. Next Gen pedía una enseñanza “más rigurosa de la informática en las escuelas” y recomendaba incluir la ciencia informática en el currículo nacional para los centros de Inglaterra. El informe fue encargado para que estudiara las habilidades necesarias para la industria de los videojuegos y efectos especiales —más que para la introducción de la informática en las escuelas— unas industrias desde hace mucho tiempo consideradas un sector innovador y de extraordinario valor de la economía del Reino Unido. Los autores, Ian LIVINGSTONE y Alex HOPE, eran dirigentes de la industria de los videojuegos, y el informe fue encargado por Ed Vaizey, por entonces ministro conservador de Cultura, Comunicaciones e Industrias Creativas. Al mismo tiempo, la Royal Society (2012) elaboraba un informe titulado Shut Down or Restart? que se ocupaba de la falta de una adecuada formación en ciencia informática en las escuelas. Presionaba también al gobierno para que sustituyera la TIC por la informática en el currículo. El informe fue encargado directamente por Microsoft, Google y los departamentos de informática de las universidades. Los trascendentales mensajes de CAS, Nesta y la Royal Society empezaron a despertar interés político cuando Eric Schmidt, director ejecutivo de Google, usó la plataforma de la Conferencia MacTaggart en el festival de televisión de Edimburgo de 2011 para manifestar su preocupación por que en las escuelas del Reino Unido no se enseñara informática. Fue un mensaje que repitieron los ejecutivos de Google en una serie de conferencias globales en las que se instaba a los gobiernos a que ayudaran a los jóvenes a aprender a codificar para conseguir una mano de obra cualificada para la economía digital (CAVE y ROWELL, 2014). Uno de los coautores del informe Next Gen de Nesta decía explícitamente que la Conferencia MacTaggart de Eric Schmidt fue el que puso en marcha el apoyo político a sus recomendaciones curriculares (LIVINGSTONE, 2012). La posterior formación de una “coalición Destrezas de la Próxima Generación” compuesta por miembros de Nesta, BCS, Google, Microsoft, CAS y Raspberry Pi convenció finalmente al Departamento de Educación para que apoyara la supresión de la TIC y su sustitución por un nuevo currículo de informática (LIVINGSTONE, 2012). Posteriormente, el Departamento de Educación organizó un grupo de trabajo al que encargó la redacción de un borrador del nuevo currículo de informática, y cuyos principales miembros procedían de BCS, la Royal Academy of Engineering y CAS. Juntas, las organizaciones BCS, la Royal Academy of Engineering, CAS, Nesta y las

226

webs de organizaciones asociadas que crearon, han hecho de la informática y la codificación en las escuelas una exitosa agenda para la reforma de la política curricular. De este modo, han aunado los intereses del gobierno, las aspiraciones disciplinares de los científicos de la informática, y los deseos educativos de los profesores de informática en una serie de objetivos comunes. La participación de Nesta como mediador entre el gobierno y las organizaciones comerciales y los grupos de presión también ha sido fundamental para la aceptación política del lenguaje del hacer digital. En el informe Young Digital Makers (QUINLAN, 2015) de Nesta se dice que aprender a codificar es una parte fundamental del crecimiento de un país de “hacedores digitales”, personas con las habilidades y los conocimientos para crear los productos digitales del futuro, estimular la economía y contribuir a la mejora societal. En el informe se habla del “hacer digital” como algo: distinto del mero uso de dispositivos digitales, y la mejor forma de comprender cómo funciona la tecnología. Hasta la fecha, nuestro trabajo se ha centrado en ayudar a los jóvenes a “mirar debajo del capó” de la tecnología mientras están haciendo. Desde la total programación en el ordenador al diseño y la impresión 3D de objetos físicos, el hacer digital representa muy diversas actividades. (QUINLAN, 2015, pág. 7) Muchas de estas actividades habían sido promovidas anteriormente con la propia campaña Make Things Do Stuff de Nesta. Pero Young Digital Makers apunta a una generalización de estas actividades: Si queremos crecer como país de creadores digitales que sepan manipular y construir la tecnología de la que tanto la sociedad como la industria dependen cada vez más, necesitamos expandirnos a gran escala. Una expansión, sin embargo, que no se puede dejar exclusivamente en manos de profesionales, por la sencilla razón de que no son suficientes. Será necesario movilizar a los entusiastas y a los aficionados interesados, desde padres y profesores no expertos a quienes trabajan en la industria de la tecnología, para actuar y aprender con los jóvenes y contribuir a atender esta demanda. (QUINLAN, 2015, pág. 8) En el informe se dice también que “las escuelas deben explotar su potencial como enclave de oportunidades de hacer digital, para trabajar con organizaciones informales de aprendizaje, concienciar a los padres e incorporar voluntarios” (QUINLAN, 2015, pág. 11). Importantes instituciones públicas como la BBC también se han incorporado al movimiento del aprender a codificar y el hacer digital. En su prólogo a Young Digital Makers, Tony Hall, Director General de la BBC, anunciaba Make It Digital, la importante campaña de 2015 de la BBC. En su lanzamiento, la BBC describía Make It Digital como “una importante iniciativa dirigida a todo el Reino Unido para motivar a la

227

nueva generación a ser creativa con la codificación, la programación y la tecnología digital” (BBC, 2015). Además de un amplio programa de retransmisiones y contenidos online, la BBC anunciaba su intención de donar un millón de dispositivos de codificación micro:bit para todos los alumnos de educación secundaria del Reino Unido. Lanzado finalmente en 2016, el diseño del dispositivo estaba claramente inspirado en el BBC Micro de los años ochenta, producto de la asociación con la compañía de software Acron y que contó con la ayuda de los departamentos del gobierno. Incluía el Computer Literacy Project, compuesto de cursos, libros y software de apoyo, una sólida red de relación entre profesores y alumnos, y la producción autorizada de su propio microordenador. En otro informe de Nesta se analizaba el legado del BBC Micro y el Computer Literacy Project, y se decía que “el BBC Micro iba acompañado de actividades que aumentaban la demanda de informática en general, porque se fomentaban cambios culturales en las actitudes hacia la informática y el aprendizaje en casa y en las escuelas” (BLYTH, 2012, pág. 7). Siguiendo un modelo similar, la BBC creó después una fundación sin ánimo de lucro para dar a conocer micro:bit en todo el mundo, capitalizando claramente su estatus global como proveedor de informática educativa. Como último hecho fundamental en este relato histórico sobre la incorporación de la informática al currículo escolar en el Reino Unido, en 2016 el secretario de Estado de Educación del Reino Unido anunció el plan de apertura de nuevas escuelas libres donde fundamentalmente se enseñaría a programar. La puesta en marcha de estas escuelas está a cargo de Ian LIVINGSTONE, el empresario de videojuegos, coautor del informe Next Gen de Nesta de 2010 y desde entonces director de la campaña Next Gen Skills. Las dos Academias Livingstone están programadas en torno a “la aplicación creativa de tecnologías digitales”: Nuestro objetivo es que todos los alumnos cuenten con las destrezas y cualificaciones necesarias para desempeñar un papel activo y exitoso en el actual mundo digital basado en el conocimiento, interdependiente, altamente competitivo y en permanente cambio. Nuestra nueva escuela estará fructíferamente asociada a la industria digital para que los alumnos adquieran las habilidades y los conocimientos fundamentales para una vida próspera como ciudadanos de la Europa actual. Creemos que hay una función que puede cumplir una nueva escuela local especializada en informática, ciencia y tecnología que abra mejores oportunidades profesionales para una nueva generación de ciudadanos de éxito y seguros de sí mismos que contribuyan a la prosperidad económica local, nacional e internacional. Será una nueva escuela con tecnologías modernas y laboratorios de ciencia especializados, estudios de diseño y un centro de negocios para empresas startup y tecnológicas donde nuestros alumnos utilizarán sus excelentes resultados académicos en experiencias empresariales prácticas adaptadas a las necesidades de la sociedad actual.

228

(Livingstone Aspirations, 2016) La insistencia en preparar a los jóvenes para el trabajo y la empresa en la economía del conocimiento y para nuevas formas de ciudadanía participativa digital, unida a las asociaciones con la industria y las instalaciones propias para empresas startup tecnológicas, repite muchos de los importantes mensajes que el propio Ian LIVINGSTONE ha lanzado desde que se hizo cargo de Next Gen. Por tanto, las Academias Livingstone se pueden considerar la materialización institucional de la campaña Next Gen, y demuestran la importante influencia de las empresas y los grupos de presión tecnológicos en la educación actual. En el comunicado de prensa del gobierno en que se anunciaban las nuevas escuelas, el propio Ian LIVINGSTONE decía: Es la conjunción de las habilidades de programación informática y la creatividad con las que hoy se construyen las empresas que están cambiando el mundo. Animo a otros emprendedores digitales a que aprovechen la oportunidad que les abre el programa de escuelas libres para ofrecer a los niños una auténtica educación para los tipos de trabajo y las oportunidades del mundo digital. (Gov.uk, 2016) Las Academias Livingstone personifican el modo en que las prioridades del movimiento de la codificación y el hacer se han trasladado directamente al aula. Como veíamos antes, gran parte de la defensa del aprender a codificar, el hacer digital y los proyectos informáticos afines refleja una preocupación política actual por dar a la mente y el cuerpo destrezas técnicas, conocimientos y capacidad para el espíritu emprendedor en la economía digital. En este sentido, se podría decir que las Academias Livingstone impulsan a los jóvenes hacia la cultura comercial de la informática asociada a la industria de desarrollo de software, y les introduce en sistemas de pensamiento asociados al régimen profesional de los programadores que se ocupan del mundo en términos informáticos más que en relación con el contexto cultural, económico o político. Las Academias Livingstone valoran y destacan la producción de activos de valor económico sobre otras formas de conocimiento culturalmente reconocidas. Básicamente, el modelo de negocio de las academias es el de la producción de capital humano para la economía digital, trenzando a la vez a su alrededor un relato de la ciudadanía digital informada. Sin embargo, el discurso dominante con el que se envuelve el nuevo currículo de informática —del que las Academias Livingstone son un modelo institucional— es el de que la informática es una asignatura de ciencias, enraizada en la disciplina especializada de la ciencia informática. Como demuestra su propia historia, cuando la ciencia informática surgió como disciplina académica a finales de los años sesenta, sus principales defensores pusieron todo el empeño en distanciarla del negocio práctico y aplicado de la programación (ENSMERGER, 2010). En un símil actual, hoy se plantea si los nuevos currículos de informática, que ponen el énfasis en la programación y el aprender

229

a codificar, atienden realmente a las necesidades y los intereses de la disciplina de la ciencia informática. HAYES (2015), por ejemplo, dice que la mayor parte de los cursos de codificación están más orientados al desarrollo de software que al análisis matemático más abstracto de algoritmos fundamentales que interesa a los científicos informáticos. Con la priorización del código, los nuevos currículos de informática desarrollados en Reino Unido y Norteamérica parecen reforzar y reproducir la división histórica entre ciencia informática y desarrollo de software, minimizando los análisis abstractos de la primera en favor de los planes del segundo de producir capital humano con las destrezas técnicas necesarias para escribir programas útiles. Puede parecer una realidad contradictoria, pero también es estratégica. Al desdibujar las líneas divisorias entre los fundamentos de la ciencia informática y la aplicación práctica de la programación, los defensores de la enseñanza de la informática en las escuelas pueden apelar simultáneamente a los intereses disciplinares por el mantenimiento de la experiencia, y a los intereses económicos por construir capital humano cualificado para las industrias técnicas. Dado el marco político en el que el discurso del desarrollo de capital humano y las destrezas de software incluye el discurso de la codificación y el hacer, quizás no quepa sorprenderse de la aparición de una gran industria comercial de apoyo a este movimiento educativo, patrocinado por muchas empresas. Por ejemplo, la empresa informática global Oracle Corporation ha invertido 200 millones de dólares en la iniciativa Computer Science for All de Estados Unidos, y en 2016 anunció una inversión de 1.400 millones en un programa mixto de informática, curricular y profesional para profesores de informática de los estados miembro de la Unión Europea (CAVANAGH, 2016). El gran apoyo económico de Oracle a la enseñanza de la codificación da amplia prueba del interés de las empresas comerciales por acelerar las actuaciones de los gobiernos relativas a la informática en los centros educativos más allá de las fronteras nacionales y gubernamentales. El ejemplo más claro de la yuxtaposición de las prioridades comerciales y del gobierno del Reino Unido fue Year of Code. Como decía NAUGHTON (2014), columnista de The Guardian: “Year of Code es una oferta pública de adquisición de un mundo corporativo que ha despertado a la realidad de que los cambios en el currículo de informática… abrirán grandes oportunidades comerciales” (DREDGE, 2014). Sin embargo, más o menos por el mismo tiempo, el director de Code Club fue obligado a dimitir por su consejo por criticar las prácticas “de control corporativo masivo” de Google, su patrocinador comercial (SANDVIK, 2014). Tras la implantación del currículo de informática en el Reino Unido ha aparecido un importante mercado comercial. Con la ayuda del Departamento de Educación, muchas empresas informáticas internacionales, incluidas Google y Microsoft, se han convertido en importantes proveedores de recursos para el aula y materiales didácticos para el currículo de informática. No se trata solo de empresas comerciales que influyen en la política y la práctica educativas, sino de una realidad que demuestra el creciente

230

entrelazamiento del Estado y las empresas en los actuales procesos políticos. En su libro sobre los grupos de presión políticos del Reino Unido, CAVE y ROWELL (2014) explican las diversas actuaciones en torno al aprender a codificar y la reforma del currículo de informática como instrumento de presión para las empresas tecnológicas claramente interesadas en invertir en la digitalización del aprendizaje y en entusiasmar a una nueva generación de codificadores. Destacan los autores la participación de Nesta y la Education Foundation (un laboratorio de ideas educativas con fuertes vínculos con la industria informática) y dicen que “esta campaña de los laboratorios de ideas respaldados por las empresas y los grupos de interés educativos… ha conseguido lo que quería” en forma de un currículo de informática y el amplio apoyo político al mercado de la tecnología educativa (2014, págs. 60-61).

La codificación civil NESTA y otros defensores del aprendizaje de la codificación y el hacer digital relacionan también uno con otro, y exponen sus ideas sobre “hackatones”, “programación en masa”, “festivales de codificación” para el diseño de servicios públicos, y eventos de “resolución gubernamental”. En estos eventos de resolución de problemas se reúnen equipos de programadores informáticos que, con herramientas de intercambio de códigos, idean soluciones para problemas del gobierno y del sector público. El productor voluntario es el sujeto ideal para un contexto gubernamental donde el Estado intenta descentralizar sus responsabilidades y hacer posibles más “servicios públicos dirigidos por las personas” y soluciones coproducidas facilitadas por “personas que ayudan a las personas”, como se define en los documentos de Nesta (CLARENCE y GABRIEL, 2014). En esta línea del protagonismo de las personas, Nesta gestiona proyectos como “hacer digital del gobierno local”, “tecnología civil” y “codificación para el servicio civil” que implican una mezcla de habilidades de codificación y de diseño y experiencia de usuario para explorar “soluciones a las dificultades” —fusionando “lo (técnicamente) posible con lo (políticamente) factible” (BELL, 2014)—. Estos proyectos aplican lo que Nesta denomina un “código para un modelo x” (BELL, 2014) que presume que se puede aplicar el código informático para resolver casi cualquier problema. Se parte del supuesto de que los problemas con el mundo social se pueden abordar con soluciones escritas en código —o aplicando la ingeniería de software al trabajo de ingeniería humana, social y política —. En este sentido, se trata de la integración del pensamiento informático —la expresión de los problemas en el lenguaje que los ordenadores pueden entender— en el principal estilo de pensamiento de los gobiernos actuales. El trabajo de Nesta con la Oficina del Gabinete del Gobierno del Reino Unido, por ejemplo, propone que “el gobierno se trate como plataforma”, utilizando nuevos servicios digitales, aplicaciones y diseños técnicos para resolver sus problemas. Este tipo de gobernanza necesita para su aplicación de ciudadanos con determinadas habilidades, y destaca el papel de los “solucionadores

231

civiles” y los “laboratorios civiles” en la creación de servicios urbanos centrados en el ciudadano, donde “saber codificar será una destreza importante para la mejora civil” (T OWNSEND, 2013, pág. 243). Dos proyectos de codificación civil del Reino Unido ejemplifican la emergente yuxtaposición de la codificación y el hacer con cuestiones de ciudadanía y gobernanza. El programa Future Makers, parte de la iniciativa Futur City de Glasgow (un proyecto modelo de ciudades inteligentes financiado con fondos públicos), destaca las “alfabetizaciones” necesarias para “empoderar y educar a las personas en el uso de datos de la ciudad” y el “conocimiento y las habilidades para participar, comprender y contribuir a la Ciudad del Futuro” (Open Glasgow, 2014, págs. 4, 9). Para promover estas alfabetizaciones en ciudad inteligente, el programa Future Makers, facilitado por el club de programación CoderDojo financiado por Nesta, ofrece un “innovador programa de enseñanza de la codificación” para desarrollar habilidades de programación y codificación entre los jóvenes (Open Glasgow, 2014, pág. 14). Future Makers consiste en clubes y talleres de programación destinados a que los jóvenes puedan contribuir a configurar y sostener la Ciudad del Futuro. Algunas de las actividades del programa Future City de Glasgow son eventos de “Resolución del Futuro” en los que ciudadanos, programadores, diseñadores y personal del gobierno trabajan en grupo en la codificación de soluciones centradas en el ciudadano a los problemas urbanos. De modo que Future Makers actúa en parte para asegurar que los jóvenes y niños cuenten con la pertinente experiencia técnica de codificación y urbanismo informático que contribuya a “resolver” o codificar el futuro de la ciudad inteligente. Asimismo, el programa Smart City de Milton Keynes, una colaboración entre el gobierno local y la Open University conocida como MK:Smart, incluye una importante iniciativa educativa, la Urban Data School, cuyos objetivos son “alfabetizar en datos” a los jóvenes para que puedan acceder a las series de datos urbanos y analizarlos, crear instrumentos y recursos para “llevar la formación en datos al aula”, y fomentar nuevas formas de “ciudadanía activa” mediante el uso de datos para “diseñar y evaluar los Proyectos de Innovación Urbana” e idear “soluciones efectivas a nivel local, municipal y global” (Urban Data School, 2015). La Urban Data School de MK:Smart, como el Future Makers de Glasgow, pretende incorporar a niños y jóvenes a prácticas de datos relacionadas con formas de gobernanza digital que presumen que los servicios públicos se pueden optimizar integrando a los jóvenes en los circuitos informáticos de codificación civil. Aprendiendo a codificar y convirtiéndose en hacedores, los jóvenes adquieren la condición de participantes técnicos en estas plataformas gubernamentales, equipados con las destrezas necesarias para usar este tipo de servicios gubernamentales digitales y, lo más importante, con las debidas aptitudes para la codificación y el hacer que contribuyen a construir nuevos servicios. A ambos proyectos les interesa producir nuevos analistas de datos, solucionadores y expertos informáticos civiles que puedan contribuir a los nuevos entornos y sistemas de gobernanza digitales (WILLIAMSON, 2015c).

232

Según MOZOROV (2013a), comentarista de Internet, este tipo de pensamiento “solucionista” tiene su origen en la cultura resolutiva de la innovación tecnológica de Silicon Valley. Tal pensamiento reformula complejos fenómenos sociales como la política, la sanidad pública y la educación como problemas perfectamente definidos y con soluciones claras y computables que se pueden optimizar si se dispone del código y los algoritmos adecuados. Vemos aquí unos fenómenos sociales traducidos a modelos informáticos sobre los que se puede operar con procedimientos algorítmicos. Estos modelos técnicos hoy se reestructuran como posibles soluciones a los problemas de los gobiernos y los estados. Esta es la razón de que se describa a los solucionadores civiles como “una amplia diversidad de personas que mejoran la vida de la comunidad creando y modificando infraestructura digital. Los legisladores dicen de ellos con optimismo que impulsan nuevas economías usando datos del gobierno. Los estudiosos críticos señalan su precario trabajo para instituciones en declive” (HUSINGER y SCHROCK, 2016, pág. 537). A través de diferentes coaliciones de defensa, campañas, grupos de presión y redes de organizaciones de ideas similares, el aprender a codificar y el hacer digital han pasado a ser elementos necesarios para que los jóvenes posean las destrezas informáticas necesarias para convertirse en los ingenieros de soluciones y quienes resuelvan conflictos en el futuro. A estos nuevos solucionadores civiles se la asigna la responsabilidad de la mejora y el progreso societales a través del software, y se les anima a que, como ciudadanos participativos, sean mano de obra gratuita para el Estado. El actual interés político por que los niños aprendan a codificar se refleja en el propósito de los gobiernos de aplicar el pensamiento informático y las soluciones de procedimiento algorítmico a la resolución de problemas públicos y sociales. Todos estos avances demuestran que la codificación, el hacer y los nuevos currículos de informática se han convertido en objeto de acelerados procesos políticos. Considerados producto de la política rápida, el hacer y la codificación han entrado en las políticas curriculares nacionales en apretadas fases de desarrollo y difusión políticos. La aceleración momentánea de las políticas relacionadas con la informática en las escuelas también ha conllevado una amplia distribución de la influencia entre diversos actores de departamentos gubernamentales, empresas comerciales, universidades, organizaciones sin ánimo de lucro, empresas de capital riesgo, laboratorios de ideas y laboratorios de innovación política, muchos de los cuales trabajan en redes y relaciones compartidas a través de alianzas de campaña, grupos de presión y coaliciones políticas.

Componer ciudadanos digitales Con sus raíces en la teoría y la práctica construccionistas del aprendizaje, y con el apoyo de los intereses por construir capital humano, el aprender a codificar y el hacer digital se han comercializado y gubernamentalizado. En esta última exposición quiero considerar el impacto de todos estos avances en la figura del ciudadano, en particular el

233

“ciudadano digital” cada vez más objeto de debate y controversia. Programas como Make Things Do Stuff o Code Club se justifican no solo por el esperado valor económico de que los niños aprendan a codificar, sino con el argumento cultural más amplio del ciudadano que no se limita a consumir tecnología sino que la produce. En esos programas se da por supuesto que los nuevos tipos de “ciudadanos HTM” pueden asumir papeles activos como interventores, hacedores, solucionadores, moderadores y reparadores en busca de nuevas formas de democracia comprometida y participativa, y pueden abrir la caja negra de las infraestructuras tecnológicas para comprometerse e innovar con el hacer crítico abierto y participativo (RATTO y BOLER, 2014). El aprendiz de analista de datos que se supone en los proyectos de codificación civil adopta este modelo de ciudadanía participativa y lo aplica a los problemas del gobierno. Una forma de entender la preocupación por los clubes de codificación, la programación y otras actividades afines de hacer digital es, pues, como el fomento de las prácticas “participativas” de “coproducción”, “colaboración masiva” y “prosumo” en las nuevas prácticas de medios sociales. El término “prosumo” refleja el supuesto difuminado de la distinción entre producción y consumo a medida que el consumidor de medios digitales se convierte progresivamente también en su productor. MANOVICH (2013), teórico de los medios, por ejemplo, dice que el desarrollo de software poco a poco se está haciendo más democrático porque los medios sociales —Facebook, Twitter, YouTube, Wikipedia, etc.— permiten que el usuario cree y cuelgue contenidos, participe en formas de “coproducción” a través de la colaboración masiva, y realice sus propias customizaciones, mezclas y remezclas de materiales existentes. Sin embargo, los críticos aducen que la creciente participación de la gente en la formación de contenidos mediáticos lleva al “importante fenómeno de la creciente cantidad de ‘trabajo’ con que cargan las personas cuando ‘juegan’ con estas tecnologías” (BEER y BURROWS, 2013, pág. 49). El “trabajo gratuito” es el modelo de negocio perfecto para las actuales formas digitales del capitalismo, con las tecnologías digitales en red entendidas como parte de la solución de las convulsiones económicas de la crisis económica global (SCHILLER, 2015). En este sentido, el prosumo integra firmemente a las personas en las “infraestructuras de participación” de los medios sociales supeditadas a los intereses comerciales de corporaciones de medios sociales con ánimo de lucro (BEER y BURROWS, 2013). En tales infraestructuras, se fomenta que el prosumidor comparta información y datos personales, maximice la socialidad a través de redes horizontales de amigos conectados y vinculando y compartiendo artefactos digitales, y contribuya con formas participativas cotidianas de hacer digital, programación de software y codificación. Aprender a codificar es consecuencia directa de este interés por la coproducción, la colaboración masiva y el prosumo, con lo que los jóvenes pasan a ser prosumidores de contenidos de medios sociales y, por tanto, proveedores de los contenidos y los datos que los modelos de negocio de las principales empresas digitales actuales necesitan. En consecuencia, aprender a codificar no es una práctica neutra,

234

descontextualizada ni despolitizada, sino determinada, modelada, ordenada y gobernada por infraestructuras codificadas fuertemente comercializadas. Las nuevas formas de ciudadanía HTM y digital se asientan en esta imagen del consumidor digital productor y participativo. En efecto, el prosumidor HTM es objeto de cada vez mayor interés de los gobiernos. ISIN y RUPPERT (2015, pág. 9) señalan que la figura emergente del “ciudadano digital” se ha convertido en “un problema del gobierno: cómo se le puede involucrar, engatusar, incitar, invitar o, en general, estimular para que adopte las formas de conducta que se consideran propias de quien es ciudadano”. En particular, los autores preguntan cómo “disposiciones dispersas de numerosas personas y cosas como las empresas y los estados, pero también el software y los dispositivos, y gente como los programadores y reguladores, configuran, regulan y organizan” la vida de los ciudadanos digitales como “sujetos políticos” (2015, pág. 4). Actividades como aprender a codificar y el hacer digital se han convertido en acciones cotidianas que coproducen la subjetividad política de los ciudadanos digitales: individuos y grupos sociales que saben actuar a través de lo digital para forjar estilos de participación, pero que al mismo tiempo están determinados y limitados por los dispositivos de software codificado, las infraestructuras y las disposiciones institucionales que hacen posibles estas formas de participación. El ciudadano digital que proyecta actividades de hacer y codificar como la tecnología civil es, por tanto, un híbrido de emprendedor de Silicon Valley y progresista democrático: Es importante señalar que estos ciudadanos digitales practican una especie de política utópica que pretende acelerar los beneficios de la tecnología digital… En su intento de “democratizar los conocimientos” sobre codificación… algoritmos y los Big Data en beneficio de los grupos que no consiguen ser flexibles en un mundo convulso, estos ciudadanos digitales errantes se proponen intervenir con nuevos objetivos en el tecnocapitalismo con fines progresistas. (EMEJULA y MCGREGOR, 2016, pág. 9) De esta forma, codificar y hacer contribuyen a la producción de ciudadanos digitales que pueden participar en la dinámica emergente de la “gobernanza digital”: La adaptación del sector público para aceptar sin reservas la actuación electrónica y situarla en el centro del modelo de negocio gubernamental, dondequiera que sea posible. Por ejemplo, nuevas formas de automatismo que utilizan tecnologías de “contacto cero” que no necesitan la intervención humana; y… capacitar a los ciudadanos para que hagan más, con el desarrollo de una administración isocrática —o un gobierno del “hazlo tú mismo”—. (MARGETTS y DUNLEAVY) Las estrategias de gobernanza digital dependen de sistemas de datos que puedan reunir información sobre los ciudadanos, y también de que los propios ciudadanos se conviertan

235

en participantes HTM capacitados y “hagan más” para sí mismos. Este imaginario de una forma de gobierno híbrida digital y HTM es el que inspira las actuaciones de importantes organizaciones como Nesta, que promueve el movimiento de aprender a codificar y el hacer digital a la vez que fomenta nuevas actuaciones resolutivas del gobierno, la codificación civil y los servicios públicos impulsados por las personas. Desde la perspectiva de la gobernanza digital, el hacer y la codificación darán a los ciudadanos las capacidades técnicas y las formas de pensar sobre cómo resolver los actuales problemas sociales y públicos. De este modo, los ciudadanos podrán convertirse en participantes HTM en estrategias de gobernanza digital que tratan al ciudadano como productor de soluciones societales, del mismo modo que los medios sociales tratan a sus usuarios como prosumidores que co-crean contenidos y producen datos en sus plataformas. HACKING (2007), filósofo de la ciencia, expone sus influyentes ideas sobre la “composición de las personas”. Con ello se refiere a las diversas formas técnicas y gubernamentales con que se incita a la gente y a los ciudadanos a que se vean, entiendan y actúen sobre sí mismos como determinados “tipos de personas”: la figura del ciudadano digital es un fundamental imaginario gubernamental actual de un tipo de persona, que se ha de configurar en la práctica educando a las personas y posibilitando que adquieran las destrezas de codificación, hacer digital y diversas formas de trabajar y jugar con los datos. El proceso de componer ciudadanos digitales es el objetivo de diferentes autoridades de todos los sectores, y se está consiguiendo enseñando a los ciudadanos —y en especial a los jóvenes como futuros ciudadanos digitales en proceso de formación— a codificar, resolver y hacer cosas como sujetos dispuestos de la gobernanza digital.

Conclusión Las iniciativas y los productos de codificación y hacer digital educativos son el resultado híbrido de una heterogénea variedad de actividades, agendas y aspiraciones que actores y organizaciones de los sectores privado, público y civil de la sociedad materializan con toda rapidez. Nacidos de la teoría y la práctica construccionistas y de la cultura del emprendedor resolutivo de Silicon Valley, el aprender a codificar y el hacer digital se han convertido en centro de atención conjunto de gobiernos decididos a estimular el desarrollo de capital humano para la economía digital, de comerciantes que quieren construir reservas de talento para los futuros empleados y los mercados para sus productos, y de organizaciones sin ánimo de lucro que se proponen reeducar a los ciudadanos como participantes HTM en la gobernanza digital impulsada por los datos. El resultado son actuaciones altamente aceleradas y trenzadas en redes globales con las que se quiere construir las destrezas de los alumnos en los lenguajes de programación de software, la creación de nuevas tecnologías y la generación de valor a través de productos codificados. El futuro ciudadano digital que se está produciendo con el

236

aprender a codificar y el hacer digital es un operario informático capaz, emprendedor y cualificado que sabe trabajar con datos —como potencial talento en datos que la industria de los datos necesita— y jugar con ellos como el prosumidor ideal de medios sociales que ofrece voluntariamente mano de obra gratuita a través del consumo y la producción de contenidos.

1 Véase https://bit.ly/2IKKmTz (N. del E.)

237

238

239

Los actuales intentos de utilizar los big data en la educación han estado estimulados por un imaginario del futuro digital de la política educativa, la producción de conocimiento, la mente, la conducta y el cerebro del estudiante, y del ciudadano digital. Sin embargo, el imaginario de los big data de la educación se está convirtiendo en una realidad material, con unas prácticas científicas de datos que están pasando a formar parte del repertorio metodológico de la investigación educativa y la producción de conocimiento, con dispositivos de seguimiento de los sentimientos y el comportamiento pegados a los estudiantes y su proliferación en las aulas, con los laboratorios de I+D ocupados en desarrollar dispositivos destinados al cerebro, y con la exhortación a los jóvenes a que se conviertan en aprendices de analistas de datos y programadores. Para los sociólogos, la educación siempre ha sido un microcosmos de la sociedad en general, reflejo de diversas tendencias sociales, económicas, políticas y culturales, valores e ideologías. Así pues, los sistemas, instituciones y procesos educativos impulsados por datos que actualmente se imaginan y materializan, constituyen un microcosmos de un cambio mucho más amplio que está acelerando la integración de las tecnologías y las prácticas de los macrodatos en muchos aspectos de la vida cotidiana. Este libro trata de los procesos de digitalización como software de aspectos de la educación para después someterla a la dataficación. Los ejemplos expuestos proceden principalmente del sector escolar, pero es evidente que las instituciones de enseñanza superior están igualmente medidas, monitorizadas y gestionadas mediante software de procesamiento de datos. Además, podemos considerar que el software de datos digitales es una especie de “pedagogía pública” que enseña a todos los ciudadanos lecciones sobre todos los aspectos de la vida diaria. Se habla de “pedagogía pública” para referirse a las lecciones que, fuera de las instituciones educativas formales, enseñan la cultura popular, las instituciones informales y los espacios públicos, los discursos culturales dominantes, el intelectualismo público y el activismo social (SANDLIN y col., 2011). Una pedagogía pública es, pues, la manifestación de formas particulares de pensar que los medios, las

240

empresas, las políticas de los gobiernos, el diseño de espacios, etc. pueden trasladar a la cultura más amplia. En términos geográficos muy parecidos, la idea de “pedagogía construida” expresa que “los espacios enseñan el comportamiento adecuado a través de prestaciones que privilegian a determinados movimientos, actividades o modos de ser sobre otros” y “se manifiesta en todas partes” (el hogar, la escuela, el trabajo, la calle), enseñando al cuerpo, de forma callada, sutil e insistente, lo que conviene o no conviene hacer (MONAHAN, 2005, pág. 34). Las ideas de pedagogía pública y pedagogía construida transmiten la idea de que las experiencias educativas no están confinadas en los cercados formales de la escuela y la universidad, ni en los espacios relativamente menos formales de las clases de cultura general, los grupos de lectura y demás. Al contrario, las pedagogías públicas y construidas acompañan a la persona en todos los ámbitos de su vida cotidiana, enseñándole sutilmente lecciones de cómo vivir la vida propia como ciudadano, o sujeto político, y reeducándola continuamente (P YKETT, 2012). Los medios digitales tal vez sean hoy los mejores pedagogos públicos, con la “línea de código” que compone el software que dicta “normas de conducta” que “operan a distancia” para “dirigir constantemente el modo de comportarse de los ciudadanos” (T HRIFT, 2005, págs. 172-173). Los espacios que habitan los individuos —diversamente entendidos como consumidores, ciudadanos o sujetos políticos— están cubiertos cada vez más por capas de tecnologías y datos digitales que cambian el modo de funcionar de estos espacios y cómo las personas los entienden. La programabilidad y dataficación de los entornos de los medios sociales, por ejemplo, significa que muchos aspectos de la vida diaria están mediados por el código escrito por los programadores y la retroalimentación que estos reciben de sus datos (VAN DIJCK y P OELL, 2013). En este contexto, las actuales pedagogías públicas no solo fluyen hacia el mundo a través de los espacios construidos, sino que vierten en él filtrados a través de entornos programables diseñados para actuar de bucles de retroalimentación recurrente, capturando y analizando de forma permanente los datos de las personas, para después modificar las conductas de estas y, en consecuencia, optimizar su experiencia. La expresión “pedagogías públicas programables” podría captar los dinámicos procesos educativos que intervienen en los bucles de retroalimentación de los actuales medios digitales. Acontecimientos públicos recientes pueden ayudar a esclarecer las importantes consecuencias sociales de unos medios sociales que empiezan a actuar como pedagogías públicas programables. Escribí la mayor parte de este libro en el verano y el otoño de 2016. En los primeros días de aquel verano, los británicos decidieron en referéndum que su país abandone la Unión Europea. Después, en el paso del otoño al invierno, los estadounidenses votaron a Donald Trump como presidente de Estados Unidos. En el año en que los Oxford Dictionaries declararon “posverdad” como palabra del año, se culpó a los medios sociales impulsados por los big data de generar una profunda polarización política. Al mismo tiempo, la propia organización de la educación formal fue acusada de aumentar las desigualdades y de ensanchar la brecha en las ideas que tienen sobre el

241

mundo los jóvenes que terminan con éxito los estudios y quienes los abandonan o terminan con calificaciones deficientes. Tanto el referéndum del Brexit del Reino Unido como las elecciones de Estados Unidos han suscitado importantes cuestiones acerca de la educación.

La brecha educativa Una de las preguntas es por qué, en términos medios, las personas con menor nivel de estudios votaron en el Reino Unido por abandonar la Unión Europea o, en Estados Unidos, porque Trump fuera su presidente, mientras que, en general, las personas con niveles de estudios superiores votaron en sentido opuesto. Una explicación es que se ha producido una nueva “brecha educativa” que al parecer determina las preferencias políticas de la gente, y que ha empezado a despertar preocupaciones por las divisiones dentro de la propia democracia: La posibilidad de que la educación se haya convertido en importante elemento divisorio dentro de la democracia —con personas con estudios superiores por un lado y, por otro, personas con menos estudios— es una perspectiva alarmante. Apunta a un profundo desequilibrio que afecta a ambos extremos. Las personas con menos estudios tienen miedo de que las gobiernen intelectuales pedantes que desconocen por completo sus vidas y experiencias. Las que tienen estudios temen que paletos que ignoran cómo funciona realmente el mundo decidan su destino. (RUNCIMAN, 2016) Es evidente que muchas personas ricas y con estudios del Reino Unido votaron por abandonar la Unión Europea y, en Estados Unidos, por Trump. Pero en ambos casos las estadísticas indican importantes diferencias, en el sentido de que el nivel de estudios, en relación con otros muchos factores sociales, determinó los patrones de votación. En el caso del Reino Unido, es significativo que el voto a favor del abandono de la Unión Europea se concentrara en las zonas geográficas más afectadas ya por las crecientes desigualdades económicas, culturales y sociales, y los mayores índices de problemas de salud mental y física y de mortalidad. Los sociólogos SAVAGE y CUNNINGHAM (2016) explican claramente las consecuencias de las crecientes desigualdades para la participación política de los ciudadanos: Existen muchísimas pruebas de que la contundente espiral de agravamiento de las desigualdades es la que determina cada vez más la dinámica política. Dicho de otra manera, las crecientes desigualdades económicas empañan todos los aspectos de la vida social, cultural y política, y está demostrada la existencia de potentes bucles de retroalimentación entre estas diferentes esferas que generan tendencias tremendamente preocupantes.

242

Desde la perspectiva de los logros de los niños en la escuela, es evidente que la propia educación está repartida de forma desigual y genera todo tipo de desigualdades sociales, culturales y económicas. La progresiva separación entre los niños de familias más o menos acomodadas, y en función de las zonas geográficas y el contexto social y cultural, forma parte del espectacular avance de las desigualdades que los sociólogos observan. La polarización política que se materializó en el Brexit y en las elecciones en Estados Unidos es el resultado de la dinámica afín de la educación, la geografía, la economía y las redes culturales y sociales, y los bucles de retroalimentación entre todas ellas. Sería ingenuo señalar que estas personas de menor nivel de estudios son de algún modo culpables de no ser críticamente conscientes de que sus ideas estuvieron determinadas por una propaganda populista durante esas campañas. La ansiedad que las consecuencias de una falta de conciencia política provocan entre las élites educadas no es nueva. Además, aquí lo difícil es conciliar los intereses opuestos de quienes tienen estudios y quienes no tienen tantos. Como concluyen SAVAGE y CUNNINGHAM (2016): “Las élites acaudaladas están cada vez más resguardadas cultural y socialmente, y ajenas a la creciente cantidad de grupos desfavorecidos, una realidad que es motivo de profunda preocupación”. Tanto en el referéndum sobre la permanencia o no en la Unión Europea como en las elecciones presidenciales de Estados Unidos, ninguna de las dos partes parecía ser plenamente consciente de la otra ni de los anquilosados problemas sociales que derivaron en esos patrones de votación tan distintos y divididos: Los medios sociales agudizan hoy estos patrones. Los grupos de personas de ideas similares refuerzan mutuamente la visión del mundo de cada una. Las noticias de Facebook están diseñadas para ofrecer la información que previsiblemente vaya a “gustar” más a los usuarios. Gran parte de la conmoción que el resultado del Brexit provocó en círculos intelectuales se debió a que pocos de ellos habían estado expuestos a argumentos que no coincidían con sus preferencias. La educación no ofrece protección alguna contra estos efectos de los medios sociales. Los refuerza… La brecha entre la gente con estudios y la gente con menos estudios se va a consolidar, porque… representa un vacío en la comprensión mutua. (RUNCIMAN, 2016) Es un tema que plantea otra pregunta, formulada mucho menos explícitamente en lo que respecta la educación: qué papel desempeñan los medios sociales en el filtrado de cómo la gente se entera de los asuntos sobre los que se la invita a votar.

El aprendizaje político personalizado La participación de los medios sociales en el filtrado de la exposición de las personas a diferentes ideas políticas fue uno de los debates que se suscitaron tras el Brexit y las elecciones de 2016 en Estados Unidos —aunque hace años que se está hablando del

243

papel que los medios sociales representan en la “turbulencia política” (MARGETTS y col., 2016)—. En un artículo publicado en la revista de cultura tecnológica Wired el día de las elecciones estadounidenses se llegaba a pedir a los lectores, en clara contradicción con el espíritu de la revista, que consideraran “el lado oscuro de la tecnología”: Internet facilita la difusión de la información y el conocimiento, pero con la misma facilidad socava la verdad. En Internet todas las ideas parecen iguales, aunque sean mentira… Los medios sociales exacerban este problema, y permiten que las personas caigan fácilmente en cámaras de resonancia que repiten sus propias versiones de la verdad. Hoy Facebook y Twitter intentan determinar la forma de impedir que en sus plataformas se difunda la desinformación, sin convertirse en árbitros exclusivos de la verdad en Internet. (LAPOWSKY, 2016) La implicación de los medios sociales en la difusión de la “políticas de la posverdad” (VINER, 2016) indica que esta lleva a los ciudadanos a enclaves de información diseñados para suministrarles noticias y conocimientos que han sido filtrados para que coincidan con sus intereses, a partir del análisis de datos de sus anteriores hábitos online, lo que les ha “gustado” o han visto, las fuentes de noticias que prefieren, a quién siguen y en qué redes sociales participan. “Plataformas como Twitter y Facebook ofrecen hoy una estructura para nuestras vidas políticas”, con algoritmos que permiten pasar “grandes cantidades de falsas historias, noticias y trivialidades falsas, y afirmaciones absurdas… por las redes de los medios sociales, a menudo a través de las cuentas sumamente automatizadas de Twitter y los algoritmos de Facebook” (HOWARD, 2016). Después de las elecciones de Estados Unidos, se ha sabido que el equipo de campaña de Trump trabajó estrechamente con datos de Facebook para generar listas de audiencia y organizar campañas dirigidas a los medios sociales (HERCER, 2016). Supuestamente contrató a la compañía Cambridge Analytica, especializada en analítica de datos “psicográficos”, para explotar y aprovechar los detalles, comportamientos online y sentimientos personales de 200 millones de posibles votantes, a quienes después se enviaron mensajes políticos personalizados y minuciosamente escogidos (Cambridge Analytica, 2016), un ejemplo del uso que se ha descrito como un nuevo “complejo industrial basado en datos” de tecnologías de seguimiento e identificación de conductas en la política actual (ALBRIGHT, 2016a). Además, otros sitios de medios sociales de mayor activismo político como Breitbart e Infowars difunden con determinación agendas políticas de derechas, y llegan a decenas de millones de personas (KRASODOMSKI-JONES, 2016). Quedó demostrado que algunos de aquellos mensajes eran noticias falsas difundidas activamente por una potente red de “sitios de micropropaganda” con capacidad para autoamplificarse a través de sitios de medios sociales como Facebook (ALBRIGHT, 2016b). La “propaganda informática” a través de “robots políticos” que difunden memes políticos sensacionalistas por las redes sociales ha agudizado aún más la

244

polarización del consumo de noticias (WOOLLEY, 2016). Todo esto ha sido posible porque los medios sociales cambian la forma de presentar la información para el consumo y la implicación del usuario: Facebook, Twitter, Snapchat y otras plataformas fomentan una nueva economía lingüística que valora sumamente ideas que sean claras, concisas y fáciles de recordar y repetir (es decir, virales). Los pensamientos sutiles y complejos no encajan bien en la mayoría de las plataformas sociales, en cambio, un hashtag sonoro puede surtir efectos extraordinarios. (WEISENTHAL, 2016) Hoy, Facebook y Twitter aceleran la difusión de noticias falsas o tendenciosidades políticas sensacionalistas a través de mecanismos como los trending topics y los “momentos”, ideados para adaptarse a las preferencias del usuario. Todo ello tiene claras implicaciones para el acceso de los jóvenes a la información y su modo de evaluarla, y para la posibilidad de enseñarles online a pensar con actitud crítica y escéptica para poder “identificar mejor las mentiras manifiestas, los timos, las inocentadas, las medias verdades selectivas y los errores” (BARLETT y MILLER, 2011). Pero lo que se debate no es solo cómo capacitar a los jóvenes para ocuparse de las mentiras, los sesgos propagandísticos y las noticias falsas online. Como en el debate sobre la brecha educativa, es importante señalar que personas de todo el espectro político, con niveles superiores de estudios o no, están cada vez más “cercadas social y culturalmente” (SAVAGE y CUNNINGHAM, 2016). Tanto la educación como los medios sociales intervienen en la producción de estos efectos de acorralamiento. Los medios sociales impulsados por datos no solo crean “públicos reticulares” que se cohesionan online en torno a gustos y preferencias compartidos, sino “públicos calculados”: instantáneas generadas algorítmicamente del público y lo que más le preocupa (GILLESPIE, 2014a). Los motores de búsqueda, los sistemas de recomendación, los algoritmos sobre sitios sociales en red compartidos, y los algoritmos de identificación de “tendencias” no solo nos ayudan a encontrar información, sino que nos proporcionan los medios para saber qué hay ahí que se pueda saber y participar en el discurso social y político. Los cálculos algorítmicos están hoy en el centro exacto de cómo las personas aprendemos a participar en la vida política y democrática, porque filtran, cuidan y determinan la información y las noticias que consumimos basándose en cálculos de lo que más nos interesa y nos encaja mejor. La lógica de la personalización de los medios sociales se aplica hoy a la vida social, con unas técnicas que nos proporcionan la información política que es más probable que nos encaje y que nos pueda “gustar”. En otras palabras, vivimos en una época de aprendizaje político personalizado, donde las actuales preferencias políticas se refuerzan con el consumo de noticias e información a través de los medios sociales y la participación en públicos calculados y reticulares, cuya

245

consecuencia es que las ideas alternativas se apartan sistemáticamente de las noticias que se nos proporcionan y de nuestras mentes. Los medios sociales no son en modo alguno los causantes de esta situación —es evidente que detrás de ella hay una maquinaria política bien engrasada de mensajería microdirigida y de producción de noticias de propaganda, algo que tiene que ver también con las actuales divisiones sociales— pero los medios sociales y los big data que los alimentan sin duda exacerban las polarizaciones sociales y políticas. Es un problema grave y que se toma en serio, tanto que, tras los efectos de las elecciones presidenciales de Estados Unidos, se dijo que empleados “rebeldes” de Facebook formaron un equipo para ocuparse de las noticias falsas y la desinformación, aunque al principio Mark Zuckerberg negó que Facebook tuviera algo que ver en todo ello (FRANKEL, 2016). El emprendedor de Internet O’REILLY (2016) señala que sería un error que Facebook reinstaurara los editores humanos —cuya supuesta tendenciosidad política era no hace mucho objeto de una importante polémica— y lo que importa es diseñar técnicas más inteligentes para separar la información de la desinformación sensacionalista: La respuesta no es que Facebook ponga a periodistas a separar lo malo de lo bueno. Se trata de saber, del mismo modo que con tanto acierto se han detectado las características que generan una mayor participación, cómo construir algoritmos que tengan en cuenta “la verdad” tanto como la popularidad. Al frente de la búsqueda de algoritmos para detectar la verdad, Google de Europa, al cabo de una semana de las elecciones de Estados Unidos, anunció su apoyo a una empresa startup que desarrolla un software de detección automática de los hechos para las noticias online, al tiempo que BBC organizaba un “hackatón” para desarrollar nuevas tecnologías para la detección de noticias falsas (WAKEFORD, 2016). El atractivo de los algoritmos aparentemente objetivos e imparciales en estos tiempos de la posverdad es evidente, pero, como demuestran repetidamente recientes trabajos sobre sociología y geografía digitales, los algoritmos dependen siempre de las elecciones y decisiones de sus diseñadores e ingenieros. Tal vez el problema del poder de algoritmos como los de Facebook para intervenir en el caótico pluralismo de la vida política actual no se pueda resolver fácilmente con nuevos algoritmos, ya que “los medios sociales inyectan turbulencias en la vida política” (MARGETTS y col., 2016, pág. 19).

Pedagogías públicas de falsa educación política La difusión de falsa información en la era de la posverdad, unida a la magnificación de la polarización política y social a través de las plataformas de los medios sociales y los algoritmos, es el núcleo de una nueva pedagogía pública de la falsa educación política. Los macrodatos y los medios sociales se están convirtiendo rápidamente en las mejores

246

fuentes de pedagogía pública en la vida cotidiana de millones de personas de todo el mundo. Educan a la gente aislándola en burbujas filtro y cámaras de resonancia, donde los algoritmos se ocupan del acceso a la información, la cultura, las noticias y el discurso intelectual y activista, a veces mediante propaganda informática y noticias falsas. La burbujas filtro o cámaras de resonancia en que se encuentran los públicos calculados cuando pasan el tiempo en Internet son consecuenciales, porque pueden cerrar el acceso a perspectivas alternativas e inducir a las personas a creer que todo el mundo piensa como ellas y comparte sus sentimientos políticos, sus deseos y sus temores. Una realidad en la que además intervienen las desigualdades educativas, económicas y de acceso a la cultura, que la reproducen y agravan. Tener o no una buena formación parece que hoy determina el tipo de medios sociales y públicos calculados a los que uno pertenece. “La brecha educativa que se abre en nuestra política no es realmente entre conocimiento e ignorancia”, dice RUNCIMAN (2016), sino “un choque entre una visión del mundo y otra”. En estos tiempos en que los medios sociales y la experiencia educativa separan claramente por nivel de estudios, la educación se enfrenta a un futuro muy difícil como institución social y a graves problemas en su función de ayuda en los procesos democráticos. Las actuales desigualdades educativas y la experiencia de formar parte de públicos calculados en las redes de los medios sociales se encuentran hoy en un dinámico bucle de retroalimentación. Las pedagogías públicas de los medios sociales se están convirtiendo en falsamente educativas en sus efectos, porque polarizan a la opinión pública en ejes diferentes pero sobre todo entre gente de alto nivel de estudios y gente con menor nivel estudios. Hace tiempo que la medición mediante datos está en la base del conocimiento y la gestión de la sociedad por parte de los gobiernos. Actualmente, la medición de los intereses, las preferencia y los sentimientos de las personas a través de los medios sociales, y el uso de esta información para retroalimentar con contenidos que gusten a las personas y encajen en sus actuales preferencias, lleva a una forma de gobernanza calculadora que agudiza la política divisoria y la erosión de la cohesión democrática. A través de los medios sociales se educa y gobierna a las personas de acuerdo con mediciones que indican su actual visión del mundo, para después darles más de lo mismo. Como indican el Brexit y las elecciones en Estados Unidos, cada vez son más las personas a las que en el Reino Unido y en Estados Unidos son gobernadas como dos públicos separados, incitando a las de menos estudios a apoyar campañas políticas que a las de más estudios les son ajenas e incomprensibles, y al revés. LATOUR (2016) las define como “dos burbujas de irrealismo”, una anclada en un futuro imaginado de globalización y la otra en retirada hacia los imaginados “viejos países de antes”, o “una utopía del futuro frente a una utopía del pasado”: De momento va ganando la utopía del pasado. Pero hay pocas razones para pensar que la situación sería mucho mejor o más sostenible si ganara la utopía del futuro… Si el horizonte de la “globalización” ya no puede atraer a las masas es porque hoy todo el

247

mundo entiende más o menos claramente que no hay a la vista un mundo real y material que se corresponda con esa idea de la tierra prometida… Como tampoco podemos seguir penando en volver a los viejos países del pasado. La educación lleva mucho tiempo alentando estas utopías. En los últimos veinte años, exigencias políticas contrapuestas han apuntado simultáneamente hacia una educación para el futuro de una economía del conocimiento de alta cualificación y globalizada, y una educación del pasado que pone el acento en los valores tradicionales, el legado nacional, el orden social y la autoridad (BALL, 2008). Los algoritmos y las estructuras de los medios sociales han favorecido que estas utopías de irrealismo arraiguen aún más en Estados Unidos y en Europa. La falsa educación de la sociedad democrática por pedagogías públicas de los big data y los medios sociales es posible gracias a técnicas algorítmicas diseñadas para optimizar y personalizar las experiencias diarias de las personas en entornos digitales. Pero, en nombre de la personalización y la optimización, las mismas técnicas conducen a la falsa educación política y la polarización democrática, unas formas, ambas, de posverdad. Es necesario que el campo de la educación se implique en este difícil espacio nuevo. Debe estudiar cómo se mide y conoce a los jóvenes a través de rastros de sus datos desde la infancia, cómo se forman sus gustos y preferencias a través de bucles de retroalimentación de los medios sociales, la relación de estos bucles con asentados patrones de desigualdades educativas y sociales, y cómo el sentimiento que los jóvenes tienen de cuál sea su lugar y su futuro en las sociedades democráticas se forma con su encuentro con pedagogías públicas de los big data y los medios sociales en su vida diaria. Todos estos problemas señalan importantes objetivos para la investigación educativa, para comprender los imaginarios sociotécnicos y los efectos concretos que las pedagogías públicas programables de la digitalización y la dataficación producen en la vida cotidiana.

Nuevas agendas para la investigación educativa A lo largo de este libro he intentado demostrar que la investigación educativa centrada en el auge de nuevas formas de datos digitales en la educación tal vez deba asumir nuevos enfoques, como las sociologías digitales, los estudios críticos de los datos y los estudios del software. En un reciente capítulo de su libro donde hablan de “una sociología digital de la escuela”, SELWYN y col. (2017, pág. 148) abogan también por “algo mejor para los investigadores interesados en el estudio crítico de las escuelas y la tecnología”. Defienden en particular los estudios que adoptan una perspectiva crítica sobre (1) la economía política de las escuelas y la tecnología, por ejemplo, las nuevas formas de educación digital alentadas por intereses, ideologías y agendas comerciales, (2) la gestión y gobernanza de las escuelas con mecanismos de rendición de cuentas y performatividad asociados a los big data, (3) el trabajo digital de las escuelas y la educación, como puntos de producción de futuros trabajadores y enclaves de formas

248

cada vez más digitalizadas de trabajo para profesores, administradores y alumnos, y (4) la vigilancia digital de las escuelas y la educación, con unas prácticas de control que van impregnando progresivamente los centros públicos y con las que se puede monitorizar, medir y controlar a las poblaciones. En los capítulos anteriores hemos visto cómo organizaciones grandes y poderosas que entrecruzan los sectores político, comercial y de la sociedad civil son quienes imaginan y aplican la digitalización y la dataficación de la educación. La digitalización y la dataficación de la educación son ambas un asunto de economía política, porque los nuevos problemas educativos los identifican organizaciones que también tienen capacidad digital para resolverlos. La gobernanza y gestión de la educación se lleva a cabo con instrumentos políticos digitales y tecnologías de base de datos que permiten el flujo rápido y constante de información por todo el sistema, y su influencia en la toma de decisiones y en las intervenciones activas. Los profesores trabajan más que nunca con tecnologías digitales, en particular porque se les exige que sean recolectores y analistas de datos del aula que sepan interpretar la información estadística sobre rendimiento, y se fomenta que los alumnos se consideren aprendices de analistas de datos y programadores que a través del software pueden incidir en la sociedad. Y hemos visto que las tecnologías de los big data equivalen a una vasta estructura nueva de vigilancia que puede capturar las actividades de los alumnos, los profesores, los centros y todo el sistema educativo con fines de medición y gestión. A finales de 2016, en Estados Unidos se promovían con especial entusiasmo y optimismo sistemas de aprendizaje personalizado basado en macrodatos mediante tecnologías educativas. La anterior entrada en vigor de la Ley Every Student Succeeds Act ya había abierto la puerta a una mayor implicación del sector de las tecnologías educativas en la enseñanza pública, y se esperaba que la nueva administración política apoyaría el uso de instrumentos de software para “atender las necesidades educativas de cada alumno, como versión digital de lo que haría un tutor personal” (LEVY, 2016). Con el apoyo de empresarios pudientes, políticos y organizaciones sin ánimo de lucro, los big data en la educación han pasado de ser un imaginario a convertirse en una emergente realidad material para los centros educativos. La investigación educativa está empezando a interpretar algunas de estas importantes transformaciones y los retos que plantean. Son problemas cuyo estudio y análisis serán complejos. Como también hemos visto, el auge de los big data en la educación va unido a otros diversos factores. Con la interacción de los big data con otros campos y prácticas, se desarrollan nuevas formas de especialidad científica derivadas de la psicología, la ciencia cognitiva y la neurociencia. Estudios críticos de la digitalización y dataficación de la educación tendrán que explicar la psicoinformática, las nuevas técnicas conductuales de informática persuasiva y del “hiperempujón”, las nuevas tecnologías basadas en el cerebro que aporta la neurociencia, las nuevas técnicas de biosensores basadas en clasificaciones biomédicas y categorías fisiológicas del cuerpo, las nuevas tecnologías de

249

percepción de los sentimientos y las innovaciones psicológicas en que se basan, además de otras nuevas explicaciones de la vida humana y social. A su vez, cada uno de estos avances va unido a agendas políticas, intereses filantrópicos y aspiraciones comerciales, por ejemplo, los relacionados con la sanidad pública, el bienestar emocional, la mejora cognitiva, la gobernanza digital y el esculpido de nuevos tipos de ciudadanos y sujetos políticos. Son desarrollos que afectan a la enseñanza que se imparte en las escuelas y las universidades, y que intervienen en las pedagogías públicas que determinan cómo aprenden los ciudadanos en sus encuentros diarios con entornos digitalizados y dataficados. El fenómeno de los big data en la educación, lejos de ser meramente técnico, es el resultado contingente de complejos factores sociales, científicos, políticos y económicos. Los investigadores educativos tendrán que desarrollar instrumentos conceptuales y metodológicos para estudiar la vida social de los big data con investigaciones genealógicas de sus hilos sociales, técnicos, políticos, económicos y científicos. Es posible que los big data sean un concepto publicitario y muchas veces se definan sin la debida precisión, pero están catalizando una importante re-visión imaginativa del futuro de la educación, y ya promueven proyectos, innovaciones e intervenciones técnicos. Es posible que el propio término “big data” vaya declinando, pero cabe prever que las prácticas que describe proliferen, cobren impulso y se conviertan en nuevas fuentes de poder e influjo social, técnico, económico, científico y político. La investigación educativa, si quiere tomar parte en la configuración del futuro de la educación, debe ocuparse con minuciosidad y cuidado de los big data como fuerza técnica, social, científica, económica y política.

250

ADAMS, J. M. (2014), “Measuring a ‘growth mindset’ in a new school accountability system”, EdSource, 5 mayo, disponible en http://edsource.org/2014/measuring-a-growthmindset-in-a-new-school-accountabilitysystem/63557 ALAMUDDIN, R., BROWN, J. y KURZWEIL, M. (2016) Student Data in the Digital Era:An overview of current practices, Nueva York, Ithaka S+R, disponible en https://doi.org/10.18665/sr.283890 ALBA, D. (2016) Silicon Valley’s new-age AltSchool unleashes its secrets, Wired, 18 octubre, disponible en www.wired.com/2016/10/altschool-shares-secrets-outsideeducators/ ALBRIGHT , J. (2016a), “How Trump’s campaign used the new data-industrial complex to win the election”, LSE US Centre blog, 26 noviembre, disponible en http://blogs.lse.ac.uk/usappblog/2016/11/26/how-trumpscampaign-used-the-new-data-industrialcomplex-to-win-the-election/ — (2016b), “Data is the real post-truth”, Medium, 27 noviembre, disponible en https://medium.com/@d1gi/datais-the-real-post-truth-so-heres-the-truth-aboutpost-election2016-propaganda-2bff5ae1dd7#.a78ocb123 ALT SCHOOL (2015a), “AltSchool hires top execs from Google, Uber, Rocket Fuel and Zynga to help reinvent education from the ground up”, AltSchool Press Releases, disponible en www.altschool.com/press-release-315 — (2015b), “AltSchool raises $100 million in funding to reimagine education for U.S. students and teachers”, AltSchool Press Releases, disponible en www.altschool.com/press-release-5-4-15 — (2016), “Our Education Approach”, AltSchool, disponible en https://www.altschool.com/lab-schools/approach AMBROSE, M. (2015), “Lessons from the avalanche of numbers: big data in historical perspective”, I/S: A Journal of Law and Policy for the Information Society, 11, 2, págs. 201-277. AMOORE, L. y POIT UKH, V. (comps.) (2016), Algorithmic Life: calculative devices in the age of big data, Abingdon, Routledge. ANAGNOST OPOULOS, D., RUT LEDGE, S. A. y J ACOBSEN, R. (2013), “Mapping the information infrastructure of accountability”, en ANAGNOST OPOULOS, D., RUT LEDGE, S. A. y J ACOBSEN, R. (comps.), The Infrastructure of Accountability: data use and the transformation of American education, Cambridge, MA, Harvard Education Press, págs. págs. 1-20. ANDREJEVIC, M., HEARN, A. y KENNEDY, H. (2015), “Cultural studies of data mining: introduction, “European Journal of Cultural Studies, 18, 4-5, págs. 379-394. ASDAL, K. (2011), “The office: the weakness of numbers and the production of nonauthority”, Accounting, Organizations and Society, 36, págs. 1-9. AXLINE, K. (2014), “The universe is programmable. We need an API for everything”, Wired, 30 abril, disponible en www.wired.com/2014/04/the-universe-is-programmable/ BAKER y SIEMENS, G. (2013), “Educational data mining and learning analytics”, disponible en www.columbia.edu/~rsb2162/BakerSiemensHandbook2013.pdf BALL, S. J. (2008), The Education Debate, Bristol, Policy Press. — (2012), Global Education Inc. New policy networks and the neoliberal imaginary, Abingdon, Routledge.

251

— (2016), “Following policy: networks, network ethnography and education policy mobilities”, Journal of Education Policy, 31, 5, págs. 549-566. — y J UNEMANN, C. (2012), Networks, New Governance and Education, Bristol, Policy Press. BARBER, M. con OZGA, J. (2014), “Data work: Michael Barber in conversation with Jenny Ozga”, en FENWICK, T., MANGEZ, E. y OZGA, J. (comps.), Governing Knowledge: comparison, knowledge-based technologies and expertise in the regulation of education, Londres, Routledge, págs. 75-85. BARNES, T. J. y WILSON, M. W. (2014), “Big data, social physics, and spatial analysis: the early years”, Big Data and Society, 1, 1, disponible en http://dx.doi.org/10.1177/2053951714535365 BAROCAS, S., HOOD, S. y ZIEWIT Z, M. (2013), “Governing algorithms: a provocation paper, Social Sciences Research Network, disponible en http://dx.doi.org/10.2139/ssrn. 2245322 BART LET T , J. y MILLER, C. (2011), Truth, Lies and the Internet, Londres, Demos. BAYNE, S. (2015), “Teacherbot: interventions in automated teaching”, Teaching in Higher Education, 20, 4, págs. 455-467. BBC (2015), “Make it Digital”, BBC Media Centre, 12 marzo, disponible en www.bbc.co.uk/mediacentre/mediapacks/makeitdigital BEER, D. (2013), Popular Culture and New Media: the politics of circulation, Londres, Palgrave Macmillan. — (2016a), Metric Power, Londres, Palgrave Macmillan. — (2016b), “How should we do the history of big data?”, Big Data and Society, 3, 1, disponible en http://dx.doi.org/10.1177/2053951716646135 — (2017), “The social power of algorithms”, Information, Communication and Society, 20, 1, págs. 1-13. — y BURROWS, R. (2013), “Popular culture, digital archives and the new social life of data”, Theory, Culture and Society, 30, 4, págs. 47-71. BEHRENS, J. (2013), “Harnessing the currents of the digital ocean”, ponencia presentada en el Annual Meeting of the American Educational Research Association, San Francisco, CA, abril. BELL, H. (2014), “Coding for civic service: what we are learning?”, Nesta blogs, 11 marzo, disponible en www.nesta.org.uk/blog/coding-civic-service-what-we-are-learning BENEIT O-MONTAGUT , R. (2017), “Big data and educational research”, en WYSE, D., SMIT H, E., SUT ER, L. E. y SELWYN, N. (comps.), The BERA/Sage Handbook of Educational Research, Londres, Sage, págs. 913-933. BIG BROT HER WAT CH (2014), “Biometrics in schools: the extent of biometrics in English secondary schools and academies”, Big Brother Watch, disponible en www.bigbrotherwatch.org.uk/files/reports/Biometrics_final.pdf — (2016), “Classroom management systems: another brick in the wall”, Big Brother Watch, disponible en www.bigbrotherwatch.org.uk/wp-content/uploads/2016/11/Classroom-Management-Software-Another-Brickin-the-Wall.pdf BLIKST EIN, P., SIPITAKIAT , A., GOLDST EIN, J., WILBERT , J., J OHNSON, M., VRANAKIS, S., PEDERSEN, Z. y CAREY, W. (2016), “Project Blok: designing an development platform for tangible programming for children”, Project Bloks, disponible en https://projectbloks.withgoogle.com/static/Project_Bloks_position_paper_June_2016.pdf BLYT H, T. (2012), Legacy of the BBC Micro: effecting change in the UK’s cultures of computing, Londres, Nesta. BODEN, L. (2016), “Going with the affective flows of digital school absence text messages”, Learning, Media and Technology, disponible en http://dx.doi.org/10.1080/17439884.2017.1247859 BOGOST , I. (2014), “Welcome to dataland: design fiction at the most magical place on Earth”, Re-Form, 28 julio, disponible en https://medium.com/re-form/welcometo-dataland-d8c06a5f3bc6#.lfwivht3g — (2015), “Programmers: stop calling yourselves engineers”, The Atlantic, 5 noviembre, disponible en www.theatlantic.com/technology/archive/2015/11/programmers-should-not-call-themselves-engineers/414271/ BONE, J. (2016), “The nature of structure: a biosocial approach”, Sociological Review Monograph Series: Biosocial Matters: Rethinking Sociology-Biology Relations in the Twenty-First Century, 64, págs. 238-255. BOWKER, G. C. (2008), Memory Practices in the Sciences, Londres, MIT Press. — (2013), “Data flakes: an afterword to ‘Raw Data’ is an Oxymoron”, en GIT ELMAN, L. (comp.), ‘Raw Data’ is

252

an Oxymoron, Londres, MIT Press, págs. 167-172. — y STAR, S. L. (1999), Sorting Things Out: classification and its consequences, Cambridge, MA, MIT Press. BOYD, D. y CRAWFORD, K. (2013), “Critical questions for big data: provocations for a cultural, technological, and scholarly phenomenon”, Information, Communication and Society, 15, 5, págs. 662-679. BRADBURY, A., MCGIMPSEY, I. y SANT ORI, D. (2013), “Revising rationality: the use of ‘nudge’ approaches in neoliberal education policy”, Journal of Education Policy, 28, 2, págs. 247-267. BRIGHT , J. y MARGET T S, H. (2016), “Big data and public policy: can it succeed where e-participation has failed?”, Policy and Internet, 8, 3, págs. 218-224. BUCKINGHAM SHUM, S., BAKER, R. S. J., BEHRENS, J., HAWKSEY, M., J EFFERY, N. y PEA, R. (2013), “Educational data scientists: a scarce breed?”, LAK ’13, 8-12 abril, Lovaina, Bélgica, disponible en http://simon.buckinghamshum.net/wp-content/uploads/2013/03/LAK13Panel-EducDataScientists.pdf BULGER, M. (2016), “Personalized learning: the conversations we’re not having”, Data and Society, 22 julio, disponible en www.datasociety.net/pubs/ecl/PersonalizedLearning_primer_2016.pdf BURGER, M. (2015), “The perception of the effectiveness of ClassDojo in middle school classrooms: a transcendental phenomenological study”, tesis doctoral inédita, Liberty University, Lynchburg, VA. BURROWS, R. (2012), “Living with the h-index: metric assemblages in the contemporary academy”, The Sociological Review, 60, 2, págs. 355-372. BUSSO, D. y POLLACK, C. (2015), “No brain left behind: consequences of neuroscience discourse for education”, Learning, Media, and Technology, 40, 2, págs. 168-186. CAMBRIDGE ANALYT ICA (2016), “Election 2016: the data game”, Cambridge Analytica news blog, 18 noviembre, disponible en https://cambridgeanalytica.org/news/blog/election-2016-the-data-game CARVALHO, L. M. (2014), “The attraction of mutual surveillance of performances: PISA as a knowledge-policy instrument”, en FENWICK, T. MANGEZ, E. y OZGA, J. (comps.), Governing Knowledge: comparison, knowledge-based technologies and expertise in the regulation of education, Londres, Routledge, págs. 58-72. CAST ELLS, M. (1996), The Rise of the Network Society, Oxford, Blackwell. (Trad. cast.: La sociedad red. Madrid. Alianza, 1997.) — (2009) Communication Power. Oxford: Oxford University Press. (Trad. cast.: Comunicación y poder, Alianza Editorial, 2014.) CAST RO, D. y NEW , J. (2016), The Promise of Artificial Intelligence, Washington, DC, Center for Data Innovation. CAVANAGH, S. (2016), “Tech giant Oracle makes billion-dollar pledge for coding education in Europe”, EdWeek Market Brief, 2 diciembre, disponible en https://marketbrief. edweek.org/marketplace-k-12/tech-giant-oraclemakes-billion-dollar-pledge-codingeducation-europe/ CAVE, T. y ROWELL, A. (2014), A Quiet Word: Crony capitalism and broken politics in Britain, Londres, Bodley Head. CEDERST ROM, C. y SPICER, A. (2015), The Wellness Syndrome, Cambridge: Polity. CEGLOWSKI, M. (2016), “The moral economy of tech”, conferencia SASE, Universidad de Berkeley, 26 junio, disponible en http://idlewords.com/talks/sase_panel.htm CERRUZZI, P.E. (2012), Computing: a concise history, Londres, MIT Press. CHADWICK, A. y ST ROMER-GALLEY, J. (2016), “Digital media, power, and democracy in parties and election campaigns: party decline or party renewal?”, The International Journal of Press/Politics, 21, 3, págs. 283293. CHARACT ER LAB (2016), “About us”, Character Lab, disponible en https://characterlab.org/ CHENEY-LIPPOLD, J. (2011), “A new algorithmic identity: soft biopolitics and the modulation of control”, Theory, Culture and Society, 28, 6, págs. 164-181. CHUNG, E., CROMBY, J., PAPADOPOULOS, D. y T UFARELLI, C. (2016), “Social epigenetics: a science of social science?”, Sociological Review Monograph Series: Biosocial Matters: Rethinking Sociology-Biology Relations in the Twenty-First Century, 64, Págs. 168-185. CLARENCE, E. y GABRIEL, M. (2014), People Helping People: the future of public services, Londres, Nesta.

253

CLASSDOJO (2016a), “ClassDojo expands from classrooms to schools”, PR Newswire, disponible en www.prnewswire.com/news-releases/classdojo-expands-fromclassrooms-to-schools-300242206.html CLASSDOJO (2016b), “Stanford PERTS lab and ClassDojo partner to bring growth mindset to every classroom”, ClassDojo Press Releases, disponible en https://s3.amazonaws.com/static.classdojo.com/docs/Press/press_releases.zip CLOW , D. (2013), “An overview of learning analytics”, Teaching in Higher Education, 18, 6, págs. 683-695. CODE.ORG (2014), “Overview”, Code.org, disponible en https://code.org/files/Code.orgOverview.pdf COMPENDIUM OF PHYSICAL ACT IVIT IES (2011), Home page, Compendium of Physical Activities, disponible en https://sites.google.com/site/compendiumofphysicalactivities/home COMPUT ING AT SCHOOL (2010), “Computing at School White Paper”, Computing at School, disponible en www.computingatschool.org.uk/data/uploads/Computing_at_School.pdf — (2014), “Computing in the national curriculum: a guide for secondary teachers”, Computing at School, disponible en www.computingatschool.org.uk/data/uploads/cas_secondary.pdf COPE, B. y KALANT ZIS, M. (2015), “Interpreting evidence-of-learning: educational research in the era of big data”, Open Review of Educational Research, 2, 1, págs. 218-239. — (2016), “Big data comes to school: implications for learning, assessment and research”, AERA Open, 2, 2, págs. 1-19. CRAWFORD, K. (2014), “The anxieties of big data”, The New Inquiry, 30 mayo, disponible en http://thenewinquiry.com/essays/the-anxieties-of-big-data/ DALT ON, C. y T HAT CHER, J. (2014), “What does a critical data studies look like, and why do we care? Seven points for a critical approach to ‘big data’”, Society and Space, disponible en http://societyandspace.com/material/commentaries/craig-daltonand-jim-thatcher-what-does-a-critical-datastudies-look-like-and-why-do-we-careseven-points-for-a-critical-approach-to-big-data/ DANIELS, J., GREGORY, K. y MCMILLAN COT T OM, T. (comps.) (2016), Digital Sociologies, Bristol, Policy Press. DAVIDSON, C. (2011), Now You See It: how the brain science of attention will transform the way we live, work and learn, Londres, Viking. DAVIES, W. (2012), “The emerging neocommunitarianism”, The Political Quarterly, 83 4, págs. 767-776. — (2015), The Happiness Industry: how business and government sold us wellbeing, Londres, Verso. — (2016), “Happiness and children”, Open Democracy, 11 mayo, disponible en www.opendemocracy.net/transformation/will-davies/happiness-and-children DE ABAIT UA, M. (2007), The Red Men, Haddenham, Snowbooks. DECUYPERE, M. (2016), “Diagrams of Europeanization: European education governance in the digital age”, Journal of Education Policy, 31, 6, págs. 851-872. — CEULEMENS, C. y SIMONS, M. (2014), “Schools in the making: mapping digital spaces of evidence”, Journal of Education Policy, 29, 5, págs. 617-639. DESROSIERES, A. (2001), “How real are statistics? Four possible attitudes”, Social Research, 68, 2, págs. 339355. DICERBO, K. E. y BEHRENS, J. T. (2014), Impacts of the Digital Ocean, Austin, TX, Pearson. DOURISH, P. y BELL, G. (2011), Divining a Digital Future: mess and mythology in ubiquitous computing, Londres, MIT Press. DREDGE, S. (2014), “Forcing a generation to code is unprecedented, says Codecademy chief”, Guardian, 5 septiembre, disponible en www.theguardian.com/technology/2014/sep/05/codecademy-coding-schoolseducation-apps DUCKWORT H, A. L. yYEAGER, D.S. (2015), “Measurement matters: assessing personal qualities other than cognitive ability for educational purposes”, Educational Researcher, 44, 4, págs. 237-251. DUFVA, T. y DUFVA, M. (2016), “Metaphors of code – structuring and broadening the discussion on teaching children to code”, Thinking Skills and Creativity, 22, págs. 97-110. DUNLEAVY, P. y MARGET T S, H. (2015), “Design principles for essentially digital governance”, Annual Meeting of

254

the American Political Science Association, San Francisco, 3-6 septiembre. DWECK, C. S. (2015), “The secret to raising smart kids”, Scientific American, 1 enero, disponible en www.scientificamerican.com/article/the-secret-to-raising-smart-kids1/ EASSOM, S. (2015), “IBM Watson for education”, IBM Insights on Business, 1 abril, disponible en http://insightson-business.com/education/ibm-watson-for-educationsector-deakin-university/ ECCLEST ONE, K. y HAYES, D. (2009), The Dangerous Rise of Therapeutic Education, Abingdon, Routledge. EDSURGE (2016), “The state of edtech: how edtech tools are evolving”, EdSurge Research, disponible en www.edsurge.com/research/special-reports/state-of-edtech-2016 EDT ECH UK (2015), “About us”, Edtech UK, disponible en www.edtechuk.com/about-us/ EDUCAT ION DATALAB (2014), “About”, Education Datalab, disponible en https://educationdatalab.org.uk/about/ EDUCAT ION FOUNDAT ION (2015), “EdTech: London capital for learning technology”, Londres, Education Foundation, disponible en www.ednfoundation.org/wp-content/uploads/EdtechUK_LP_report.pdf EDWARDS, P. N. (1997), The Closed World: computers and the politics of discourse in cold war America, Londres, MIT Press. — J ACKSON, S. J., CHALMERS, M. K., BOWKER, G. C., BORGMAN, C. L., RIBES, D., BURT ON, M. y CALVERT , S. (2013), Knowledge Infrastructures: Intellectual Frameworks and Research Challenges, Ann Arbor, MI, Deep Blue. EDWARDS, R. (2015), “Software and the hidden curriculum of digital education”, Pedagogy, Culture and Society, 23, 2, págs. 265-279. EMEJULA, A. y MCGREGOR, C. (2016), “Towards a radical digital citizenship in digital education”, Critical Studies in Education, septiembre, disponible en www.tandfonline.com/doi/full/10.1080/17508487.2016.1234494 ENSMENGER, N. (2010), The Computer Boys Take Over: computers, programmers, and the politics of technical expertise, Londres, MIT Press. EPST EIN, R. (2016), “The empty brain”, Aeon, 18 mayo, disponible en https://aeon.co/essays/your-brain-doesnot-process-information-and-it-is-not-a-computer EVANS, J. y RICH, E. (2011), “Body policies and body pedagogies: every child matters in totally pedagogised schools?”, Journal of Education Policy, 26, págs. 361-379. FACER, K. (2011), Learning Futures: education, technology and social change, Abingdon, Routledge. FENWICK, T. y EDWARDS, R. (2016), “Exploring the impact of digital technologies on professional responsibilities and education”, European Educational Research Journal, 15, 1, págs. 117-131. FENWICK, T., MANGEZ, E. y OZGA, J. (comps) (2014), Governing Knowledge: comparison, knowledge-based technologies and expertise in the regulation of education, Londres, Routledge. FINN, M. (2016), “Atmospheres of progress in a data-based school”, Cultural Geographies, 23, 1, págs. 29-49. FIT NESSGRAM (2016), “What is FitnessGram?”, FitnessGram, disponible en www.fitnessgram.net/ FIT ZGERALD, D. y CALLARD, F. (2014), “Social science and neuroscience beyond interdisciplinarity: experimental entanglements”, Theory, Culture and Society, 32, 1, págs. 3-32. — ROSE, N. y SINGH, I. (2016), “Revitalizing sociology: urban life and mental illness between history and the present”, British Journal of Sociology, 67, 1, págs. 138-160. FLORIDI, L. (2016), “Should we be afraid of AI?”, Aeon, 9 mayo, disponible en https://aeon.co/essays/true-ai-isboth-logically-possible-and-utterly-implausible FOGG, B. J. (2002), “Persuasive technology: using computers to change what we think and do”, Ubiquity, diciembre, págs. 89-120. FONTAINE, C. (2016), “The myth of accountability: how data (mis)use is reinforcing the problems of public education”, Data and Society, 8 agosto, disponible en https://datasociety.net/pubs/ecl/Accountability_primer_2016.pdf FORD, P. (2015), “What is code?”, Business Week, 11 junio, disponible en www.bloomberg.com/graphics/2015paul-ford-what-is-code FORESIGHT (2008), Mental Capital and Wellbeing: making the most of ourselves in the 21st century. Executive Summary,

Londres,

Government

Office

255

for

Science,

disponible

en

https://www.gov.uk/government/uploads/system/uploads/attachment_data/file/292453/mental-capitalwellbeing-summary.pdf FOUCAULT , M. (1990), The History of Sexuality, Volume I: The will to knowledge (trad. R. HURLEY), Londres, Penguin. (Trad. cast.: Historia de la sexualidad. Vol. 1. La voluntad de saber. Madrid. Siglo XXI, 2011, 3ª ed.) — (1991), Discipline and Punish: the birth of the prison (trad. A. Sheridan), Harmondsworth, Penguin. (Trad. cast.: Vigilar y castigar. Nacimiento de la prisión. Madrid. Siglo XXI, 2009, 16ª ed.) — (2007) Security, Territory and Population: lectures at the College de France 1977-1978 (trad. G. Burchell), Nueva York, Palgrave Macmillan. (Trad. cast.: Seguridad, territorio y población: curso del Collège de France (1977-1978), Madrid. Akal, 2008.) — (2008) The Birth of Biopolitics: lectures at the College de France, 1978-1979 (trad. G. Burchell), Nueva York, Palgrave Macmillan. (Tad. cast.: El nacimiento de la clínica. Una arqueología de la mirada médica. Curso del Collège de France (1978-1979). Madrid. Siglo XXI, 2007, 2ª edic.) FRENKEL, S. (2016), “Renegade Facebook employees form task force to battle fake news”, BuzzFeed, 14 noviembre, disponible en www.buzzfeed.com/sheerafrenkel/renegadefacebook-employees-form-task-force-tobattle-fake-n FRIEDLI, L. y ST EARN, R. (2015), “Positive affect as coercive strategy: conditionality, activation and the role of psychology in UK government workfare programmes”, Medical Humanities, 41, págs. 40-47. FULLER, M. (2003) Behind the Blip: essays on the culture of software, Brooklyn, NY, Autonomedia. — (2008), “Introduction”, en FULLER, M. (comp.), Software Studies: a lexicon. Londres, MIT Press. FUREDI, F. (2009), Wasted: why education isn’t educating, Londres, Continuum. GAYSINA, D. (2016), “How genetics could help future learners unlock hidden potential”, Conversation, 15 noviembre, disponible en https://theconversation.com/how-genetics-could-help-future-learners-unlock-hiddenpotential-68254 GEHL, R. (2015), “Sharing, knowledge management and big data: a partial genealogy of the data scientist”, European Journal of Cultural Studies, 18, 4-5, págs. 413-428. GILLESPIE, T. (2014a), “The relevance of algorithm”, en GILLESPIE, T., BOCZKOWSKI, P. J. y FOOT , K. A. (comps.), Media Technologies: essays on communication, materiality, and society, Londres, MIT Press, págs. 167-193. — (2014b), “Algorithm”, Culture Digitally, 25 junio, disponible en http://culturedigitally.org/2014/06/algorithmdraft-digitalkeyword/ — (2016), “Algorithms, clickworkers, and the befuddled fury around Facebook trends”, Social Media Collective, 18 mayo, disponible en https://socialmediacollective.org/2016/05/18/facebook-trends/ GIT ELMAN, L. y J ACKSON, V. (2013), “Introduction”, en GIT ELMAN. L. (comp.), ‘Raw Data’ is an Oxymoron, Londres, MIT Press. págs. 1-14. GOMES, P. (2015), “Your guide to a nation of Edtech accelerators”, EdSurge, 21 octubre, disponible en www.edsurge.com/news/2015-10-21-your-guide-to-a-nation-of-edtechaccelerators GORUR, R. (2015), “The performative politics of NAPLAN and My School”. Working paper, junio, disponible en www.academia.edu/12817544/The_Performative_Politics_of_NAPLAN_and_My_School GOV.UK (2016), “Games workshop founder and entrepreneur to open 2 free schools”, Gov.uk, disponible en www.gov.uk/government/news/games-workshop-founder-andentrepreneur-to-open-2-free-schools GREGORY, K., MCMILLAN COT T OM, T. y DANIELS, J. (2017), “Introduction”, en DANIELS, J., GREGORY, K. y McMILLAN COT T OM, T. (comps), Digital Sociologies, Bristol, Policy Press, págs. xvii-xxx. GREK, S. (2009), “Governing by numbers: the PISA ‘effect’ in Europe”, Journal of Education Policy, 24, 1, págs. 23-37. — (2016), “The life and work of the killer chart: on the art of visually assembling education comparisons”, Consorcio Europeo para la Investigación Política, Praga, septiembre. GROSVENOR, I. y ROBERT S, S. (2013), “Systems and subjects: ordering, differentiating and institutionalising the modern child”, en LAWN, M. (comp.), The Rise of Data in Education Systems: collection, visualization and

256

use, Oxford, Symposium, págs. 79-96. GULSON, K., SELLAR, S. y WEBB, T. (2017), “Emerging Biological Rationalities for Policy: (Molecular) Biopolitics and the New Authorities in Education”. HACKING, I. (1990), The Taming of Chance, Cambridge, Cambridge University Press. (Trad. cast.: La domesticación del azar: la erosión del determinismo y el nacimiento de las ciencias del caos. Barcelona. Gedisa, 1991.) — (2007), “Kinds of people: moving targets”, Proceedings of the British Academy, 151, págs. 285-318. HAGGERT Y, K. D. y ERICSON, R. V. (2001), “The surveillant assemblage”, British Journal of Sociology, 51, 4, págs. 605-622. HALFORD, S., POPE, C. y WEAL, M. (2013), “Digital futures? Sociological challenges and opportunities in the emergent semantic web”, Sociology, 47, 1, págs. 173-189. HALVERSON, E. R. y SHERIDAN, K. (2014), “The in education”, Harvard Educational Review, 84, 4, disponible en http://hepg.org/her-home/issues/harvard-educational-review-volume-84-number-4/herarticle/themakermovement-in-education HARDY, I. y LEWIS, S. (2016), “The ‘doublethink’ of data: educational performativity and the field of schooling practices”, British Journal of Sociology of Education, disponible en http://dx.doi.org/10.1080/01425692.2016.1150155 HART ONG, S. (2016), “Between assessments, digital technologies and big data: the growing influence of ‘hidden’ data mediators in education”, European Educational Research Journal, 15, 5, págs. 523-536. HAYES, B. (2015), “Cultures of code”, American Scientist, 103, 1. HAYLES, N. K. (2013), How We Think: digital media and contemporary technogenesis, Londres, University of Chicago Press. — (2014), “Cognition Everywhere: the rise of the cognitive nonconscious and the costs of consciousness”, New Literary History, 45, 2, págs. 199-220. HERCHER, J. (2016), “Trump did have a paid media strategy, and it focused on Facebook”, AdExchanger, 15 noviembre, disponible en https://adexchanger.com/ad-exchangenews/trump-paid-media-strategy-focusedfacebook/ HILBERT , M. (2016), “Big data for development: a review of promises and challenges”, Development Policy Review, 34, 1, págs. 135-174. HILL, P. y BARBER, M. (2014), Preparing for a Renaissance in Assessment, Londres, Pearson. HM T REASURY (2013), “100,000 young people to become ‘digital makers’”, disponible en www.gov.uk/government/news/100000-young-people-to-become-digital-makers HOGAN, A., SELLAR, S. y LINGARD, B. (2015), “Network restructuring of global edubusiness: the case of Pearson’s”, Efficacy Framework, en AU, W. y FERRARE, J. J. (comps.), Mapping Corporate Education Reform: power and policy networks in the neoliberal state, Londres, Routledge. págs. 43-64. HOLBEIN, J. (2016), “Left behind? Citizen responsiveness to government performance information”, American Political Science Review, 110, 2, págs. 353-368. HOUSLEY, W. (2015), “The emerging contours of data science”, Discover Society, 23, disponible en http://discoversociety.org/2015/08/03/focus-the-emerging-contoursof-data-science/ HOWARD, P. (2016), “Is social media killing democracy?”, Culture Digitally, 14 noviembre, disponible en http://culturedigitally.org/2016/11/is-social-media-killing-democracy/ HOWARD-J ONES, P., OT T , M., VAN LEEUWEN, T. y DE SMEDT , B. (2015), “The potential relevance of cognitive neuroscience for the development and use of technology enhanced learning”, Learning, Media and Technology, 40, 2, págs. 131-51. HUNCKLER, M. (2015), “How this hackathon is inspiring students to better education”, Forbes, 17 agosto, disponible en https://www.forbes.com/sites/matthunckler/2015/08/17/how-this-hackathon-is-inspiringstudents-to-better-education/ HUNSINGER, J. y SCHROCK, A. (2016), “The democratization of hacking and making”, New Media and Society, 18, 4, págs. 535-538.

257

HUXLEY, M. (2007), “Geographies of governmentality”, en CRAMPT ON, J. y ELDEN, S. (comps.), Space, Knowledge and Power: Foucault and geography, Aldershot, Ashgate, págs. 185-204. IBM (2016), “IBM Watson Education and Pearson to drive cognitive learning experiences for college students”, IBM Press Release, disponible en www-03.ibm.com/press/us/en/pressrelease/50842.wss — Research (2011), “IBM’s first cognitive computing chips mimic functions of the brain”, IBM Research News, 18 agosto, disponible en http://ibmresearchnews.blogspot.co.uk/2011/08/this-cognitive-computing-chiptaught.html — Watson Education (2016a), “Education in the cognitive era”, Watson Education POV, disponible en www01.ibm.com/common/ssi/cgi-bin/ssialias?htmlfid=EDI03007USEN — — — (2016b), “Transform education with Watson”, IBM Watson, disponible en www.ibm.com/watson/education/ ILIADIS, A. y RUSSO, F. (2016), “Critical data studies: an introduction”, Big Data and Society, 3, 2, disponible en http://bds.sagepub.com/content/3/2/2053951716674238.full.pdf+html IMAGINE K12 (2015), “Our program”, Imagine K12, disponible en www.imaginek12.com/our-program.html INT RONA, L. (2016), “Algorithms, governance, and governmentality: on governing academic writing”, Science, Technology, and Human Values, 41, 1, págs. 17-49. IRANI, L. (2015), “Hackathons and the making of entrepreneurial citizenship”, Science, Technology, and Human Values, 40, 5, págs. 799-824. ISIN, E. y RUPPERT , E. (2015), Being Digital Citizens, Londres, Rowman and Littlefield International. IT O, M. (2009), Engineering Play: a cultural history of children’s software, Londres, MIT Press. J ASANOFF, S. (2015), “Future imperfect: science, technology, and the imaginations of modernity”, en J ASANOFF, S. y KIM, S-H. (comps.), Dreamscapes of Modernity: sociotechnical imaginaries and the fabrication of power, Chicago, IL, University of Chicago Press, págs. 1-33. J ONES, R., PYKET T , J. y WHIT EHEAD, M. (2013), Changing Behaviours: on the rise of the psychological state, Cheltenham, Edward Elgar. J URGENSON, N. (2014), “View from nowhere: on the cultural ideology of big data”, The New Inquiry, 9 octubre, disponible en http://thenewinquiry.com/essays/view-fromnowhere/ KELLER, E. F. (2016), “Thinking about biology and culture: can the natural and human sciences be integrated?”, Sociological Review Monograph Series: Biosocial Matters: Rethinking Sociology-Biology Relations in the Twenty-First Century, 64, págs. 26-41. KELLY III, J. E. (2015), Computing, Cognition and the Future of Knowing: how humans and machines are forging a new age of understanding, Somers, NY, IBM Corporation. — y HAMM, S. (2014), Smart Machines: IBM’s Watson and the era of cognitive computing, Nueva York, Columbia University Press. KENNEDY, H. (2016), Post. Mine. Repeat. Social media data mining becomes ordinary, Londres, Palgrave Macmillan. — y MOSS, G. (2015), “Known or knowing publics? Social media data mining and the question of public agency”, Big Data and Society, 2, 2, disponible en http://bds.sagepub.com/content/2/2/2053951715611145 KING, M., CAVE, R., FODEN, M. y ST ENT , M. (2016), Personalised Education: from curriculum to career with cognitive systems, Portsmouth, IBM Corporation. KIT CHIN, R. (2014a), The Data Revolution: big data, open data, data infrastructures and their consequences, Londres, Sage. — (2014b), “Big data, new epistemologies and paradigm shifts”, Big Data and Society, 1, 1, disponible en http://dx.doi.org/10.1177/2053951714528481 — (2017), “Thinking critically about and researching algorithms”, Information, Communication and Society, 20, 1, págs. 14-29. — y DODGE, M. (2011), Code/Space: software and everyday life, Londres, MIT Press. — y LAURIAULT , T. (2014), “Towards critical data studies: charting and unpacking data assemblages and their work”, The Programmable City Working Paper 2, disponible en http://ssrn.com/abstract=2474112

258

— y MCARDLE, G. (2015), “What makes big data, big data? Exploring the ontological characteristics of 26 datasets”, Big Data and Society, 3 (1), disponible en http://bds.sagepub.com/content/3/1/2053951716631130 — LAURIAULT , T. y MCARDLE, G. (2015), “Knowing and governing cities through urban indicators, city benchmarking and real-time dashboards”, Regional Studies, Regional Science, 2, 1, págs. 6-28. KNEWT ON (2011), “Pearson and Knewton partner to advance next generation of digital education”, Knewton in the News, 1 noviembre, disponible en www.knewton.com/press-releases/pearson-partnership/ — (2013), “Knewton Adaptive Learning: building the world’s most powerful education recommendation engine”. Knewton, disponible en www.knewton.com/wpcontent/uploads/knewton-adaptive-learning-whitepaper.pdf KNOX, J. (2016), Posthumanism and the Massive Open Online Course: contaminating the subject of global education, Abingdon, Routledge. KOLODNY, L. (2016), “ClassDojo raises $21 million for app to make parent-teacher meetings obsolete”, TechCrunch, 15 abril, disponible en http://techcrunch.com/2016/04/15/classdojo-raises-21-million-for-app-tomake-parent-teacher-meetings-obsolete/ KRASODOMSKI-J ONES, A. (2016), “What does the alt-right do now that ‘God Emperor’ Trump won?”, CNN, 15 noviembre, disponible en http://edition.cnn.com/2016/11/14/opinions/what-next-alt-right-krasodomski-jonesopinion/index.html LANE, J. E. (2014), Building a Smarter University: big data, analytics and innovation, Nueva York, SUNY Press. LANGLEY, P. y LEYSHON, A. (2016), “Platform capitalism: the intermediation and capitalization of digital economic circulation”, Finance and Society, disponible en http://financeandsociety.org/article/early-view-langley-leyshon/ LAPOWSKY, I. (2015), “Inside the school Silicon Valley thinks will save education” Wired, 4 mayo, disponible en www.wired.com/2015/05/altschool/ — (2016), “The 2016 election exposes the very, very dark side of tech”, Wired, 7 noviembre, disponible en www.wired.com/2016/11/2016-election-exposes-darkside-tech/ LASCOUMES, P. y LE GALES, P. (2007), “Introduction: understanding public policy through its instruments – from the nature of instruments to the sociology of public policy instrumentation”, Governance, 20, 1, págs. 1-21. LAT OUR, B. (1986), “Visualization and cognition: thinking with eyes and hands”, Knowledge and Society, 6, págs. 1-40. — (2016), “Two bubbles of unrealism: learning from the tragedy of Trump”, Los Angeles Review of Books, 17 noviembre, disponible en https://lareviewofbooks.org/article/two-bubbles-unrealism-learning-tragedy-trump/ LAVECCHIA, A. M., LIU, H. y OREOPOULOS, P. (2014), “Behavioral economics of education: progress and possibilities”, National Bureau of Economic Research, Working Paper, disponible en www.nber.org/papers/w20609.pdf LAW , J., RUPPERT , E. y SAVAGE, M. (2011), “The double social life of methods”, CRESC Working Paper No. 95, Open University. LAWN, M. (2013), “The rise of data in education”, en Lawn, M. (comp.), The Rise of Data in Education Systems: collection, visualization and use, Oxford, Symposium, págs. 7-10. — y GREK, S. (2012), Europeanizing Education: governing a new policy space, Oxford, Symposium. LEMKE, T. (2011), Biopolitics: an advanced introduction, Londres, Nueva York University Press. LESSIG, L. (2000), Code v.2, Nueva York, Basic Books. LEVY, H. O. (2016), “How a Trump administration could back revolutionary education technology”, Fox News Opinion, 12 diciembre, disponible en www.foxnews.com/opinion/2016/12/12/how-trump-administrationcould-back-revolutionaryeducation-technology.html LEWIS, S. y HARDY, I. (2016), “Tracking the topological: the effects of standardized data upon teachers’ practice”, British Journal of Education Studies, disponible en http://dx.doi.org/10.1080/00071005.2016.1254157 — y HOGAN, A. (2016), “Reform first and ask questions later? The implications of (fast) schooling policy and ‘silver bullet’ solutions”, Critical Studies in Education, disponible en http://dx.doi.org/10.1080/17508487.2016.1219961

259

LINDH, M. y NOLIN, J. (2016), “Information we collect: surveillance and privacy in the implementation of Google apps for education”, European Educational Research Journal, 15, 6, págs. 644-663, disponible en http://eer.sagepub.com/content/early/2016/06/24/1474904116654917.full.pdf LINDT NER, S. (2015), “Hackerspaces and the internet of things in China: how makers are reinventing industrial production, innovation, and the self”, China Information, 28, 2, págs. 145-167. LIPPERT , I. (2015), “Environment as datascape: enacting emission realities in corporate carbon accounting, GeoForum, 66, págs. 126-135. LIVINGST ONE ASPIRAT IONS (2016), “Home”, Livingstone Aspirations, disponible en www.livingstoneaspirations.org/ LIVINGST ONE, I. (2012), “The quest to release the ICT curriculum from the jaws of the dragon of dullness”, Wired, 23 enero, disponible en www.wired.co.uk/news/archive/2012-01/23/ict-curriculum-ian-livingstone — y HOPE, A. (2011), Next Gen, Londres, Nesta. LOSH, L. (2014), The War on Learning: gaining ground in the digital university, Londres, MIT Press. LUCKIN, R. y HOLMES, W. (2016), Intelligence Unleashed: an argument for AI in education, Londres, Pearson. LUPT ON, D. (2015a), Digital Sociology, Londres, Routledge. — (2015b), “Lively data, social fitness and biovalue: the intersections of health self-tracking and social media”, Social Sciences Research Network, disponible en http://ssrn.com/abstract=2666324 — (2016), The Quantified Self: a sociology of self-tracking, Cambridge, Polity Press. LYNCH, T. L. (2015), The Hidden Role of Software in Education: policy to practice, Nueva York, Routledge. LYON, D. (2014), “Surveillance, Snowden and big data: capacities, consequences, critique”, Big Data and Society, 1, 1), disponible en http://dx.doi.org/10.1177/2053951714541861 LYT ICS LAB (2016), “About Lytics Lab”, disponible en https://lytics.stanford.edu/aboutlytics MACCORMICK, J. (2012), 9 Algorithms that Changed the Future: the ingenious ideas that drive today’s computers, Oxford, Princeton University Press. MACKENZIE, A. (2006), Cutting Code: Software and sociality, Oxford, Peter Lang. — (2012), “More parts than elements: how databases multiply”, Environment and Planning D: Society and Space, 30, págs. 335-350. — (2013), “Programming subjects in the regime of anticipation: software studies and subjectivity” Subjectivity, 6, 4, págs. 391-405. — (2015), “The production of prediction: what does machine learning want?”, European Journal of Cultural Studies, 18, 4-5, págs. 429-445. — y VURDUBAKIS, T. (2011), “Codes and codings in crisis: performativity, signification and excess”, Theory, Culture and Society, 28, 6, págs. 3-23. MAGER, A. (2012), “Algorithmic ideology: how capitalist society shapes search engines”, Information, Communication and Society, 15, 5, págs. 769-787. — (2015), “Glocal search: search technology at the intersection of global capitalism and local socio-political cultures”, Institute of Technology Assessment (ITA), Austrian Academy of Sciences, disponible en www.astridmager.net/wp-content/uploads/2015/11/Abschlussbericht-OeNB_Mager.pdf — (2016), “Search engine imaginary: visions and values in the co-production of search technology and Europe”, Social Studies of Science, disponible en http://sss.sagepub.com/content/early/2016/10/26/0306312716671433 MALT BY, P. (2015), “A new operating model for government”, Open Policy Making, 17 marzo, disponible en https://openpolicy.blog.gov.uk/2015/03/17/a-new-operatingmodel-for-government/ MANDINACH, E. B. y GUMMER, E. S. (2016), “Every teacher should succeed with data literacy”, Phi Delta Kappan, 97, 8, págs. 43-44. MANOVICH, L. (2013), Software Takes Command: extending the language of new media”, Londres, Bloomsbury. MARGET T S, H. y DUNLEAVY, P. (2013), “The second wave of digital-era governance: a quasi-paradigm for government on the Web”, Philosophical Transactions of the Royal Society A, 371 (1987). — y SUT CLIFFE, D. (2013), “Addressing the policy challenges and opportunities of ‘big data’”, Policy and Internet, 5, 2, págs. 139-146.

260

—, J OHN, P., HALE, S. y YASSERI, T. (2016), Political Turbulence: how social media shape collective action, Oxford, Princeton University Press. MARKHAM, A. (2013), “The algorithmic self: layered accounts of life and identity in the 21st century”, Internet Research 14.0, 23-26 octubre. MARKOWET Z, A., BŁASZKIEWICZ, K., MONTAG, C., SWITALA, C. y SCHLAEPFER, T. E. (2014), “Psychoinformatics: big data shaping modern psychometrics”, Medical Hypotheses, 82, 4, págs. 405-411. MARRES, N. (2012), “The redistribution of methods: on intervention in digital social research, broadly conceived”, Sociological Review, 60 (S1), págs. 139-165. MART ENS, K., NIEMANN, D. y T ELT EMANN, J. (2016), “Effects of international assessments in education – a multidisciplinary review”, European Educational Research Journal, 15, 5, págs. 516-522. MAT EOS-GARCIA, J. BAKHSHI, H. y WINDSOR, G. (2015), Skills of the Datavores: talent and the data revolution, Londres, Nesta, disponible en www.nesta.org.uk/sites/default/files/skills_of_the_datavores.pdf MAYER-SCHÖNBERGER, V. y CUKIER, K. (2013) Big Data: a revolution that will change how we live, work and think, Londres, John Murray. — — (2014), Learning from Big Data: the future of education, Nueva York, Houghton Mifflin Harcourt. MCGIMPSEY, I., BRADBURY, A. y SANT ORI, D. (2016), “Revisions to rationality: the translation of ‘new knowledges’ into policy under the coalition government”, British Journal of Sociology of Education, disponible en http://dx.doi.org/10.1080/01425692.2016.1202747 MEAD, R. (2016), “Learn different: Silicon Valley disrupts education”, The New Yorker, 7 marzo, disponible en www.newyorker.com/magazine/2016/03/07/altschoolsdisrupted-education MEAD, S. (2013), “Profile of ClassDojo founders Sam Chaudhury and Liam Don”, Education Week, 11 junio, disponible en http://blogs.edweek.org/edweek/sarameads_policy_notebook/2013/06/sam_chaudhary_and_liam_don_cofounders_classdojo.html MELONI, M. (2014), “Remaking local biologies in an epigenetic time”, Somatosphere, 8 agosto, disponible en http://somatosphere.net/2014/08/remaking-local-biologiesin-an-epigenetic-time.html — WILLIAMS, S. y MART IN, P. (2016), “The biosocial: sociological themes and issues”, Sociological Review Monograph Series: Biosocial Matters: Rethinking Sociology-Biology Relations in the Twenty-First Century, 64, 1, págs. 7-25. MEROLLA, P. A., ART HUR, J. V., ÁLVAREZ-ICAZA, R., CASSIDY, A. S., SAWADA, J., AKOPYAN, F., J ACKSON, B. L., IMAM, N., GUO, C., NAKAMURA, Y., BREZZO, B., VO, I., ESSER, S. K., APPUSWAMY, R., T ABA, B., AMIR, A., FLICKNER, M. D., RISK, W. P., MANOHAR, R. y MODHA, D. S. (2014), “A million spiking-neuron integrated circuit with a scalable communication network and interface”, Science, 345, 6197, págs. 668-673. MEYERS, M. (2015), “Connecting the classroom with the internet of things”, EdSurge, 28 marzo, disponible en www.edsurge.com/news/2015-03-28-connecting-the-classroom-with-the-internet-of-things MICHAEL, M. y LUPT ON, D. (2015), “Toward a manifesto for the ‘public understanding of big data”, Public Understanding of Science, 25, 1, págs, 104-116. MILLER, C. (2014), “The promise of social media”, Demos Quarterly, invierno 2013/14, disponible en http://quarterly.demos.co.uk/article/issue-1/the-promise-of-social-media/ MILLER, P. y Rose, N. (2008), “Governing the Present: administering economic, social and personal life, Cambridge, Polity. MIT T ELSTADT , B. D., ALLO, P., T ADDEO, M. WACHT ER, S. y FLORIDI, L. (2016), “The ethics of algorithms: mapping the debate”, Big Data and Society, 3, 2, disponible en http://dx.doi.org/10.1177/2053951716679679 MODHA, D. (2013), “Systems that perceive, think and act”, The Atlantic, junio, disponible en www.theatlantic.com/sponsored/ibm-cognitive-computing/archive/2013/06/systems-that-perceive-think-andact/276708/ — (2014), “Introducing a brain-inspired computer: TrueNorth’s neurons to revolutionize system architecture” IBM Research, disponible en www.research.ibm.com/articles/brain-chip.shtml MONAHAN, T. (2005), “Globalization, Technological Change, and Public Education”, Londres, Routledge.

261

MONT ERO, C. S. y SUHONEN, J. (2014), “Emotion analysis meets learning analytics: online learner profiling beyond numerical data”, Proceedings of the 14th Koli Calling International Conference on Computing Education Research, 165-9, Koli, Finlandia, ACM Press. MOROZOV, E. (2013a), To Save Everything, Click Here: technology, solutionism and the urge to fix problems that don’t exist, Londres, Allen Lane. (Trad. cast.: La locura del solucionismo tecnológico. Madrid. Clave Intelectual, 2015.) — (2013b), “The real privacy problem”, MIT Technology Review, 22 octubre, disponible en www.technologyreview.com/s/520426/the-real-privacy-problem/ MORRIS, P. (2016), Education policy, cross-national tests of pupil achievement, and the pursuit of world-class schooling, Londres, UCL Institute of Education Press. MOSS, P., DAHLBERG, G., GRIESHABER, S., MANT OVANI, S., MAY, H., PENCE, A., RAYNA, S., BLUE SWADENER, B. y VANDENBROECK, M. (2016), “The Organisation for Economic Co-operation and Development’s International Early Learning Study: opening for debate and contestation”, Contemporary Issues in Early Childhood, 17, 3, págs. 343-351. MULGAN, G. (2016a), “A machine intelligence commission for the UK: how to growinformed public trust and maximise the positive impact of smart machines”, Nesta, 7 febrero, disponible en www.nesta.org.uk/sites/default/files/a_machine_intelligence_commission_for_the_uk_-_geoff_mulgan.pdf — (2016b), “Government as collective intelligence”, Oxford Government Review, 1 agosto, págs, 44-46. NAFUS, D. (2016), “Introduction”, en NAFUS, D. (comp.), Quantified: biosensing technologies in everyday life, Londres, MIT Press, págs. ix-xxxi. NATURE NEUROSCIENCE (2014), “Focus on big data”, Nature Neuroscience, 17, 11, 1429. NAUGHT ON, J. (2012), “A manifesto for teaching computer science in the 21st century”, Observer, 31 marzo, disponible en www.theguardian.com/education/2012/mar/31/manifesto-teaching-ict-education-minister — (2014), “Year of Code already needs a reboot”, The Guardian, 15 febrero, disponible en https://www.theguardian.com/technology/2014/feb/15/year-of-codeneeds-reboot-teachers NESTA (2015), Analytic Britain: securing the right skills for the data-driven economy, Londres, Nesta, disponible en www.nesta.org.uk/sites/default/files/analytic_britain.pdf NEW ZEALAND MINIST RY OF EDUCAT ION (2016), “Establishing a regulatory framework for online learning”, Education.govt.nz, 25 agosto, disponible en www.education.govt.nz/ministry-of-education/legislation/theeducation-update-amendment-bill/establishing-a-regulatory-framework-for-online-learning/ NEW , J. (2016), “Building a data-driven education system in the United States”, Center for Data Innovation, disponible en www.2.datainnovation.org/2016-data-driveneducation.pdf NEYLAND, D. (2015), “On organizing algorithms”, Theory, Culture and Society, 32, 1, págs. 119-132. NIELSEN, M. (2015), “Who owns big data? Change: 19 Key Essays on How the Internet Is Changing Our Lives”, Open Mind, disponible en www.bbvaopenmind.com/en/book/19-key-essays-on-how-internet-is-changing-ourlives/ NIT TA, S. (2014), “Cognitive learning content: a vision for how to make learning deeply engaging as well as intuitive”, IBM Insights on Business, 14 mayo, disponible en http://insights-onbusiness.com/education/cognitive-learning-content-a-vision-for-howto-make-learning-deeply-engaging-aswell-as-intuitive/ NOMINET T RUST (2013), “Digital making activities to expand opportunities for UK young people”, Nominet Trust, disponible en www.nominettrust.org.uk/news-events/news/digital-making-activities-to-expand-opportunitiesuk-young-people NOVOA, A. y YARIV-MASHAL, T. (2014), “Comparative research in education: a mode of governance or a historical journey?”, en Fenwick, T., Mangez, E. y Ozga, J. (comps.), Governing Knowledge: comparison, knowledge-based technologies and expertise in the regulation of education, Londres, Routledge, págs. 13-30. O’KEEFFE, C. (2016), “Producing data through e-assessment: a trace ethnographic investigation into eassessment events”, European Educational Research Journal, 15, 1, págs. 99-116. O’REILLY, T. (2016), “Media in the age of algorithms”, Medium, 11 noviembre, disponible en

262

https://medium.com/the-wtf-economy/media-in-the-age-of-algorithms-63e80b9b0a73 OECD (Organization for Economic Cooperation and Development) (2015), Skills for Social Progress: the power of social and emotional skills, OECD Skills Studies Paris, OECD. OPEN GLASGOW (2014), “Engagement and literacy programme”, Open Glasgow, disponible en http://open.glasgow.gov.uk/content/uploads/LiteracyEngagement.pdf ORT ON-J OHNSON, K. y PRIOR, N. (comps.) (2013), Digital Sociology: critical perspectives, Houndmills, Palgrave Macmillan. — PRIOR, N. y GREGORY, K. (2015), “Sociological imagination: digital sociology and the future of the discipline”, The Sociological Review blog, 17 diciembre, disponible en www.thesociologicalreview.com/blog/sociologicalimagination-digital-sociology-and-the-future-of-thediscipline.html OZGA J. (2009), “Governing education through data in England: from regulation to selfevaluation”, Journal of Education Policy, 24, 2, págs. 149-163. — (2016), “Trust in numbers? Digital education governance and the inspection process”, European Educational Research Journal, 15, 1, págs. 69-81. — DAHLER-LARSEN, P., SEGERHOLM, C. y SIMOLA, H. (comps.) (2011) Fabricating Quality in Education: data and governance in Europe, Londres, Routledge. PACE, L. (2016), “How the president-elect can scale personalized learning”, Getting Smart, 12 diciembre, disponible en www.gettingsmart.com/2016/12/how-the-presidentelect-can-scale-personalized-learning/ PAGLEN, T. (2016), “Invisible images (your pictures are looking at you)”, The New Inquiry, 8 diciembre, disponible en http://thenewinquiry.com/essays/invisible-images-yourpictures-are-looking-at-you/ PAPERT , S. (1980), Mindstorms: children, computers and powerful ideas, Nueva York, Basic Books. (Trad. cast.: Desafío a la mente. Computadoras y educación. Buenos Aires. Galápago, 1985, 4ª edic.) PARISER, E. (2015), “Did Facebook’s big new study kill my filter bubble thesis?”, Backchannel, 7 mayo, disponible en https://backchannel.com/facebook-published-a-big-new-studyon-the-filter-bubble-here-s-what-itsays-ef31a292da95#.63tcv3oiq PART NERSHIP ON AI (2016), “About the partnership”, Partnership on AI, disponible en www.partnershiponai.org/ PASQUALE, F. (2015), “The Black Box Society: the secret algorithms that control money and information”, Cambridge, Harvard University Press. PAT T ON, B. (2016), “The trouble with taking biometric technology into schools”, Conversation, 6 enero, disponible en https://theconversation.com/the-troublewith-taking-biometric-technology-into-schools-52355 PEA, R. (2014), A Report on Building the Field of Learning Analytics for Personalized Learning at Scale, Stanford, Stanford University. PEARSON (2016), “IBM Watson Education and Pearson to drive cognitive learning experiences for college students”, Pearson News, disponible en www.pearson.com/news/media/news-announcements/2016/10/ibmwatson-education-and-pearson-todrive-cognitive-learning-exp.html PECK, J. y T HEODORE, N. (2015), Fast Policy: experimental statecraft at the thresholds of neoliberalism, Minneapolis, MN, University of Minnesota Press. PERROT TA, C. y WILLIAMSON, B. (2016), “The social life of learning analytics: cluster analysis and the performance of algorithmic education”, Learning, Media and Technology, disponible en http://dx.doi.org/10.1080/17439884.2016.1182927 PERSSON, J. (2016), “School census changes add concerns to the richest education database in the world”, Parenting for a Digital Future, 19 julio, disponible en http://blogs.lse.ac.uk/parenting4digitalfuture/2016/07/19/school-census-changes-add-concernsto-the-richesteducation-database-in-the-world/ PEYT ON J ONES, S., MIT CHELL, B. y HUMPHREYS, S. (2013), “Computing at school in the UK”, Microsoft Research Papers, disponible en http://research.microsoft.com/enus/um/people/simonpj/papers/cas/computingatschoolcacm.pdf PIAT T OEVA, N. (2015), “Elastic numbers: national examinations data as a technology of government”, Journal of

263

Education Policy, 30, 3, págs. 316-34. PICARD, R. W. (2016), “What happened to the Q sensor?”, MIT Media Lab, disponible en http://affect.media.mit.edu/projectpages/iCalm/iCalm-2-Q.html PICKERSGILL, M. (2013), “The social life of the brain: neuroscience in society”, Current Sociology, 61, 3, págs. 322-340. PIET Y, P. J., BEHRENS, J. y PEA, R. (2013), “Educational data sciences and the need for interpretive skills”, American Educational Research Association, 27 abril-1 mayo. — HICKEY, D. T. y BISHOP , M. J. (2014), “Educational data sciences – framing emergent practices for analytics of learning, organizations and systems”, LAK ’14, 24-28 marzo, Indianápolis. PLUIM, C. y GARD, M. (2016), “Physical education’s grand convergence: FitnessGram, big-data and the digital commerce of children’s bodies”, Critical Studies in Education, disponible en http://dx.doi.org/10.1080/17508487.2016.1194303 POPKEWIT Z, T. S. (2012), “Numbers in grids of intelligibility: making sense of how educational truth is told”, en Lauder, H., Young, M., Daniels, H., Balarin, M. y Lowe, J. (comps), Educating for the Knowledge Economy? Critical perspectives, Abingdon, Routledge, págs. 169-191. PYKET T , J. (2012), “The pedagogical state: education, citizenship, governing”, en Pykett, J. (comp.), Governing Through Pedagogy: re-educating citizens, Londres, Routledge, págs. 1-20. — (2013), “Neurocapitalism and the new neuros: using neuroeconomics, behavioural economics and picoeconomics for public policy”, Journal of Economic Geography, 13, págs. 845-869. — (2015), Brain Culture: shaping policy through neuroscience, Bristol, Policy Press. — y DISNEY, T. (2015), “Brain-targeted teaching and the biopolitical child”, Politics, Citizenship and Rights, disponible en http://dx.doi.org/10.1007/978-981-4585-94-1_22-1 QUINLAN, O. (2015), “Young digital makers: surveying attitudes and opportunities for digital creativity across the UK”, Nesta, disponible en www.nesta.org.uk/sites/default/files/young-digital-makers-march-2015.pdf RABINOW , P. y ROSE, N. (2006), “Biopower today”, BioSocieties, 1, págs. 195-217. RALEY, R. (2013), “Dataveillance and counterveillance”, en Gitelman, L. (comp.), ‘Raw Data’ is an Oxymoron, Londres, MIT Press, págs. 121-146. RAT T O, M. y BOLER, M. (comps.) (2014), DIY Citizenship: critical making and social media, Londres, MIT Press. REVELEY, J. (2015), “School-based mindfulness training and the economisation of attention: a Stieglerian view”, Educational Philosophy and Theory, 47, 8, págs. 804-821. REYNOLDS, L. y BIRDWELL, J. (2015), Mind Over Matter, Londres, Demos. RICH, E. y MIAH, A. (2014), “Understanding digital health as public pedagogy: a critical framework”, Societies, 4, págs. 296-315. RIEDER, G. y SIMON, J. (2016), “Datatrust: or, the political quest for numerical evidence and the epistemologies of big data”, Big Data and Society, 3, 1, disponible en http://dx.doi.org/10.1177/2053951716649398 RIENT IES, B. y RIVERS, B. A. (2014), Measuring and Understanding Learner Emotions: evidence and prospects, Bolton, University of Bolton. RIZVI, F. y LINGARD, B. (2010), Globalizing Education Policy, Abingdon, Routledge. (Trad. cast.: Políticas educativas en un mundo globalizado. Madrid. Morata, 2013.) ROBERT S-HOLMES, G. (2015), “The ‘datafication’ of early years pedagogy: ‘If the teaching is good, the data should be good and if there’s bad teaching, there is bad data”, Journal of Education Policy, 30, 3, págs. 302315. ROBERT S-MAHONEY, H., MEANS, A. J. y GARRISON, M. J. (2016), “Netflixing human capital development: personalized learning technology and the corporatization of K12 education”, Journal of Education Policy, 31, 4, disponible en http://dx.doi.org/10.1080/02680939.2015.1132774 ROBERT SON, H. y T RAVAGLIA, J. (2015), “Big data problems we face today can be traced to the social ordering practices of the 19th century”, LSE Impact of Social Sciences, 13 octubre, disponible en http://blogs.lse.ac.uk/impactofsocialsciences/2015/10/13/ideological-inheritances-in-the-data-revolution/

264

ROGERS, R. (2013), Digital Methods, Londres, MIT Press. ROSE, G., DEGEN, M. y MELHUISH, C. (2014), “Networks, interfaces and computergenerated images: learning from digital visualizations of urban regeneration projects”, Environment and Planning D: Society and Space, 32, págs. 386-403. ROSE, N. (1996), Inventing Our Selves: psychology, power and personhood, Cambridge, Cambridge University Press. — (1999a), Powers of Freedom: reframing political thought, Cambridge, Cambridge University Press. — (1999b), Governing the Soul: the shaping of the private self (2ª ed.), Londres, Free Association Books. — (2016), “Reading the human brain: how the mind became legible”, Body and Society, 22, 2, disponible en http://dx.doi.org/10.1177/1357034X15623363 — y ABI-RACHED, J. (2013), Neuro: the new brain sciences and the management of the mind, Oxford, Princeton University Press. — — (2014), “Governing through the brain: neuropolitics, neuroscience and subjectivity”, Cambridge Anthropology, 32, 1, págs. 3-23. —, AICARDI, C. y REINSBOROUGH, M. (2016), Future Computing and Robotics: a Foresight report from the Human Brain Project lab, Londres, King’s College London. ROSE, S. (2013), “Beware ‘brain-based learning’”, Times Higher Education, 12 diciembre, disponible en www.timeshighereducation.com/features/beware-brain-based-learning/2009703.article ROSENBERG, D. (2013), “Data before the fact”, en Gitelman, L. (comp.), ‘Raw Data’ is an Oxymoron, Londres, MIT Press, págs. 15-40. ROYAL SOCIET Y (2011), Brain Waves II: neuroscience implications for education and lifelong learning, Londres, The Royal Society. — (2012), Shut Down or Restart? The way forward for computing in UK schools, Londres, The Royal Society. RUNCIMAN, D. (2016), “How the education gap is tearing politics apart”, Guardian, 5 octubre, disponible en www.theguardian.com/politics/2016/oct/05/trump-brexiteducation-gap-tearing-politics-apart RUPPERT , E. (2012), “The governmental topologies of database devices”, Theory, Culture and Society, 29, 4-5, págs. 116-136. — (2015), “Who owns big data?”, Discover Society, 30 julio, disponible en http://discoversociety.org/2015/07/30/who-owns-big-data/ —, HARVEY, P., LURY, C., MACKENZIE, A., MCNALLY, R., BAKER, S. A., KALLIANOS, Y. y LEWIS, C. (2015), “Socialising big data: from concept to practice”, CRESC Working Paper no. 138, disponible en www.cresc.ac.uk/medialibrary/workingpapers/wp138.pdf —, LAW , J. y SAVAGE, M. (2013), “Reassembling social science methods: the challenge of digital devices”, Theory, Culture and Society, 30, 4, págs. 22-46. RUSHKOFF, D. (2010), Program or Be Programmed: ten commends for a digital age, New York. OR Books. SAHLBERG, P. y HASAK, J. (2016), “Data was supposed to fix education”, Washington Post, 9 mayo, disponible en www.washingtonpost.com/news/answer-sheet/wp/2016/05/09/big-data-was-supposed-to-fix-education-itdidnt-its-time-for-small-data/ SALT MAN, K. (2016), “Corporate schooling meets corporate media: standards, testing, and technophilia”, Review of Education, Pedagogy, and Cultural Studies, 38, 2, págs. 105-123. SANDLIN, J. A., O’MALLEY, M. P. y BURDICK, J. (2011), “Mapping the complexity of public pedagogy scholarship, 1894-2010”, Review of Educational Research, 81, 3, págs. 338-375. SANDVIK, L. (2014), “Resignation”, GitHub, 26 agosto, disponible en https://gist.github.com/drtortoise/5dc254c614d6b6a19116 SAVAGE, M. (2013), “The ‘social life of methods’: a critical introduction”, Theory, Culture and Society, 30, 4, 321. — y CUNNINGHAM, N. (2016), “Why inequality matters: the lessons of Brexit”, Items: Insights from the Social Sciences, 20 septiembre, disponible en http://items.ssrc.org/why-inequality-matters-the-lessons-of-brexit/ SCHECHT MAN, N., DEBARGER, A. H., DORNSIFE, C., ROSIER, S. y YARNALL, L. (2013), Promoting Grit, Tenacity

265

and Perseverance: critical factors for success in the 21st century, Washington, DC, US Department of Education, Office of Educational Technology. SCHILLER, D. (2015), D”igital capitalism: stagnation and contention?”, Open Democracy, 13 octubre, disponible en www.opendemocracy.net/digitaliberties/dan-schiller/digitalcapitalism-stagnation-and-contention SCLAT ER, N., PEASGOOD, A. y MULLAN, J. (2016), Learning Analytics in Higher Education: a review of UK and international practice, Bristol, Jisc. SCOT T ISH GOVERNMENT (2016), Delivering Excellence and Equity in Scottish Education: a delivery plan for Scotland, Edimburgo, Scottish Government. SEFT ON-GREEN, J. (2013), Mapping Digital Makers, Oxford, Nominet Trust. SELLAR, S. (2015a), “Data infrastructure: a review of expanding accountability systems and large-scale assessments in education”, Discourse: Studies in the Cultural Politics of Education, 36, 5, págs. 765-777. — (2015b), “A feel for numbers: affect, data and education policy”, Critical Studies in Education, 56 (1), págs. 131-146. SELWYN, N. (2011), Schools and Schooling in the Digital Age: a critical analysis, Abingdon, Routledge. — (2015, “Data entry: towards the critical study of digital data and education”, Learning, Media and Technology, 40, 1, págs. 64-82. — (2016), Is Technology Good for Education?, Cambridge, Polity Press. —, NEMORIN, S., BULFIN, S. y J OHNSON, N. F. (2017), “Toward a digital sociology of school”, en DANIELS, J., GREGORY, K. y MCMILLAN COT T OM, T. (comps.), Digital Sociologies, Bristol, Policy Press, págs. 147-162. SHAPIRO, J. (2016), “President Obama wants every kid to learn coding – for all the wrong reasons”, Forbes, 31 enero, disponible en www.forbes.com/sites/jordanshapiro/2016/01/31/president-obama-wants-every-kid-tolearn-coding-for-all-thewrong-reasons/ SHARPLES, J. y KELLEY, P. (2015), “Introduction to learning, media and technology: neuroscience and education special edition”, Learning, Media and Technology, 40, 2, págs. 127-130. SHEPARD, M. (2011), “Toward the sentient city”, en Shepard, M. (comp.), Sentient City: ubiquitous computing, architecture, and the future of urban space, Cambridge, MA, MIT Press, págs. 10-35. SIEMENS, G. (2013), “Learning analytics: the emergence of a discipline”, American Behavioral Scientist, 57, 10, págs. 1380-1400. — (2016), “Reflecting on learning analytics and SoLAR”, Elearnspace, 28 abril, disponible en www.elearnspace.org/blog/2016/04/28/reflecting-on-learninganalytics-and-solar/ SIMON, S. (2012), “Biosensors to monitor US students’ attentiveness”, Reuters, 13 junio, disponible en www.reuters.com/article/us-usa-education-gates-idUSBRE85C17Z20 120613 SLEEMAN, C. (2016), “The state of interactive data visualization”, Nesta, 12 mayo, disponible en www.nesta.org.uk/blog/state-interactive-data-visualisation SOBE, N. (2013), “Educational data at late nineteenth- and early twentieth-century international expositions: ‘accomplished results’ and ‘instruments and apparatuses’”, en Lawn, M. (comp.), The Rise of Data in Education Systems: collection, visualization and use, Oxford, Symposium, págs. 41-56. SOEP , E. (2014), Participatory Politics: next-generation tactics to remake public spheres, Londres, MIT Press. SOLOVE, D. J. (2006), “A taxonomy of privacy”, University of Pennsylvania Law Review, 154, 3, págs. 477564. SOROKO, A. (2016), “No child left alone? The ClassDojo app”, Our Schools/Our Selves, 25, 3, págs. 63-74. SQORD (2016), “About Sqord”, disponible en http://sqord.com/ SUMMIT BASECAMP (2016), “Explore base camp”, disponible en http://summitbasecamp.org/explore-basecamp/ SUMMIT LEARNING (2016). “Bring personalized learning to your students”, Summit Personalized Learning, disponible en www.summitlearning.org/ SUOT O-OT ERO, M. y BENEIT O-MONTAGUT , R. (2016). “From governing through data to governmentality through data: artefacts, strategies and the digital turn”, European Educational Research Journal, 15, 1, págs. 14-33. T AYLOR, E. (2013) Surveillance Schools: security, disciplines and control in contemporary education,

266

Basingstoke, Palgrave Macmillan. T EACHERMAT CH (2015), “About TeacherMatch”, TeacherMatch, disponible en www.teachermatch.org/about-us/ T HOMPSON, G. (2016), “Computer adaptive testing, big data and algorithmic approaches to education”, British Journal of Sociology of Education, disponible en http://dx.doi.org/10.1080/01425692.2016.1158640 — y COOK, I. (2016), “The logic of data-sense: thinking through learning personalization”, Discourse: Studies in the Cultural Politics of Education, disponible en http://dx.doi.org/10.1080/01596306.2016.1148833 T HRIFT , N. (2005), Knowing Capitalism, Londres, Sage. — (2014), “The promise of urban informatics: some speculations”, Environment and Planning A, 46, págs. 1263-1266. T OWNSEND, A. M. (2013), Smart Cities: big data, civic hackers and the quest for a new utopia, Londres, Norton. T UFEKCI, Z. (2014), “Engineering the public: big data, surveillance and computational politics”, First Monday, 19, 7, disponible en http://dx.doi.org/10.5210/fm.v19i7.4901 UBER (2015), “Uber + HackingEDU: gaining momentum in education”, Uber Newsroom, disponible en https://newsroom.uber.com/2015/09/uber-hackingedugaining-momentum-in-education/ UNICEF KID POWER (2016), “Home”, UNICEF Kid Power, disponible en http://unicefkidpower.org/ URBAN DATA SCHOOL (2015), “Aims”, Urban Data School, disponible en http://urbandataschool.org/ VAN DIJCK, J. (2013), The Culture of Connectivity: a critical history of social media, Oxford, Oxford University Press. (Trad. cast.: La cultura de la conectividad: Una historia crítica de las redes sociales. Buenos Aires. Siglo XXI, 2016.) — (2014), “Datafication, dataism and dataveillance: big data between scientific paradigm and ideology”, Surveillance and Society, 12, 2, págs. 197-208. — y POELL, T. (2013), “Understanding social media logic”, Media and Communication, 1, 1, págs. 2-14. VAN DIJK, P. E. E. (2016), “ClassDojo and PERTS launch growth mindset toolkit”, Stanford Daily, 17 febrero, disponible en www.stanforddaily.com/2016/02/17/classdojoand-perts-launch-growth-mindset-toolkit/ VANDER SCHEE, C. (2009), “Fruit, vegetables, fatness, and Foucault: governing students and their families through school health policy”, Journal of Education Policy, 24, 5, págs. 557-574. VINER, C. (2016), “How technology disrupted the truth”, Guardian, 12 julio, disponible en www.theguardian.com/media/2016/jul/12/how-technology-disrupted-the-truth WAKEFORD, J. (2016), “Fake news detector plug-in developed”, BBC News, 2 diciembre, disponible en www.bbc.co.uk/news/technology-38181158 WAT T ERS, A. (2016), “Ed-tech patents: prior art and learning theories”, Hack Education, 12 enero, disponible en http://hackeducation.com/2016/01/12/patents WEF (World Economic Forum) (2016), New Vision for Education: fostering social and emotional learning through technology, Cologny/Ginebra, World Economic Forum. WEISENT HAL, J. (2016), “Donald Trump, the first President of our post-literate age”, Bloomberg, 29 noviembre, disponible en www.bloomberg.com/view/articles/2016-11-29/donaldtrump-the-first-president-of-our-postliterate-age WHIT E HOUSE (2016a), “The people’s code – now on code.gov”, White House blog, 3 noviembre, disponible en www.whitehouse.gov/blog/2016/11/03/peoples-codenow-codegov — (2016b), “Preparing for the future of artificial intelligence”, Executive Office of the President National Science and Technology Council Committee on Technology, disponible en www.whitehouse.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf WILKINS, A. (2015), “Professionalizing school governance: the disciplinary effects of school autonomy and inspection on the changing role of school governors”, Journal of Education Policy, 30, 2, págs. 182-200. WILLIAMS, S., KAT Z, S. y MART IN, P. (2011), “The neuro-complex: some comments and convergences”, Media Tropes, 3, 1, págs. 135-146. WILLIAMSON, B. (2015a), “Governing methods: policy innovation labs, design and data science in the digital governance of education”, Journal of Educational Administration and History, 47, 3, págs. 251-271.

267

— (2015b), “Algorithmic skin: health tracking technologies, personal analytics and the biopedagogies of digitized health and physical education”, Sport, Education and Society, 20, 1, págs. 133-151. — (2015c), “Educating the smart city: schooling smart citizens through computational urbanism”, Big Data and Society, 2, 2, disponible en http://dx/doi.org/10.1177/2053951715617783 — (2016a), “Digital education governance: data visualization, predictive analytics and ‘real-time’ policy instruments”, Journal of Education Policy, 31 2, págs. 123-141. — (2016b), “Digital methodologies of education governance: Pearson plc and the remediation of methods”, European Educational Research Journal, 15, 1, págs. 34-53. — (2016c), “Coding the biodigital child: the biopolitics and pedagogic strategies of educational data science”, Pedagogy, Culture and Society, 24, 3, págs. 401-416. — (2016d), “Political computational thinking: policy networks, digital governance, and ‘learning to code’”, Critical Policy Studies, 10, 1, págs. 39-58. — (2017a), “Computing brains: learning algorithms and neurocomputation in the smart city”, Information, Communication and Society, 20, 1, págs. 81-99. — (2017b), “Who owns educational theory? Big data, algorithms and the expert power of education data science”, E-learning and Digital Media. WILLSON, M. (2017), “Algorithms (and the) everyday”, Information, Communication and Society, 20, 1, págs. 137-150. WILSON, K. y NICHOLS, Z. (2015), “The Knewton platform: a general-purpose adaptive learning infrastructure”, Knewton, disponible en www.knewton.com/wp-content/uploads/knewton-technical-white-paper-201501.pdf WOLF, M., T AIMURT Y, M., PAT EL, M. y MET EYER, J. (2016), “The Dean’s information challenge: from data to dashboard”, EduCause Review, 28 noviembre, disponible en http://er.educause.edu/articles/2016/11/the-deansinformation-challenge-from-data-todashboard WOOLGAR, S. (1991), “Configuring the user: the case of usability trials”, en Law, J. (comp.), A Sociology of Monsters: essays on power, technology and domination, Londres, Routledge, págs. 57-99. WOOLLEY, S.J. (2016), “Automating power: social bot interference in global politics”, First Monday, 21 (4), disponible en http://firstmonday.org/ojs/index.php/fm/article/view/6161/5300 YEAR OF CODE (2014), “What is year of code?”, disponible en http://yearofcode.org/ YEUNG, K. (2017), “Hypernudge: big data as a mode of regulation by design”, Information, Communication and Society, 20, 1, págs. 118-136. YOUDELL, D. (2016a), “A biosocial education future?”, Research in Education, 96, 1, disponible en http://rie.sagepub.com/content/early/2016/09/16/0034523716664579 — (2016b), “New biological sciences, sociology and education”, British Journal of Sociology of Education, 37, 5, págs. 788-800. YOUNG, J. R. (2016), “What clicks from 70,000 courses reveal about student learning”, Chronicle of Higher Education, 7 septiembre, disponible en www.chronicle.com/article/What-Clicks-From-70000/237704/ ZAMZEE (2016), Zamzee home page, disponible en www.zamzee.com/ ZEIDE, E. (2016), “Student privacy principles for the age of big data: moving beyond FERPA and FIPPS”, Drexel Law Review, 8, pág. 339. ZERNIKE, K. (2016), “Testing for joy and grit? Schools’ nationwide push to measure students’ emotional skills”, New York Times, 29 febrero, disponible en www.nytimes. com/2016/03/01/us/testing-for-joy-and-gritschools-nationwide-pushto-measure-stu dents-emotional-skills.html

268

Academias Livingstone, 218, 219 Acción por la Felicidad, campaña, 151, 156 actividad electrodermal — — monitorización, 188 — física, monitores/seguidores, 163, 164, 165, 166 Administrative Data Research Network (UK), 37, 86 Alamuddin y col., 142 alfabetización en datos, 140 algoritmistas, 45-46 algoritmos, 6, 63 — análisis de conglomerados, 134 — aprendizaje automático, 40-41, 49, 70, 131, 132 — en la ciencia imformática, 68 — implicaciones éticas, 68 — poder social, 68-71 — predictivos, 75 — reflejo de los objetivos del programador, 69-70 AltSchool, 14-15, 21, 115-117, 120, 143 alumnos — categorías y clasificaciones, 26 — supervisar y disciplinar, 26 ANAGNOST OPOULOS y col. , 95 análisis de conglomerados, 134 — — los sentimientos, 150, 153, 161 — del habla, aplicaciones, 151 analítica de — — aprendizaje, 124, 128 — — datos, 39-41 — — — agencias, 85 — — — distinción y clasificación social, 49 — — — métodos de perfilado de las personas, 50 — — evaluación en tiempo real, 9 — del aprendizaje emocional, 160-162 — — — prácticas de cálculo, 135 — — cuerpo, 162-166 — emocional, 150, 151-152 — política, 84-88

269

— prescriptiva, 111 — visual, 42 — — métodos, 42-43 ANDERSON, Chris, 211 ANDREJEVIC y col., 40, 49 aplicaciones de seguimiento del estado de salud, 163-166 apps de aptitud física, 163-166 aprender a codificar, 208, 209 — — — capital humano, 213-215 — — — centro de interés político, 213, 214 — — — ciudadanos digitales, 225-226 — — — codificación civil, 221-224 — — — orígenes, 208-212 aprendizaje, 9, 11-12, 147 — adaptativo, programas, 9, 34, 110, 127 — automático, 39-41 — — algoritmos, 49, 69-70, 132, 133 — — diseño, 133 — — formación en, 133 — — retroalimentación, 133 — basado en la evidencia, 13 — centrado en el alumno, 116 — electrónico (e-learning), 6, 7 — no cognitivo, 147, 154-158 — personalizado, 108, 120 — — analítica del aprendizaje, 127 — — perfil genético, 183 — — véase también Altschool; Knewton asignaturas STEM, 212 aula, 26 — uso de software, 60 automatismo, 50 BALL, S. J. , 90, 62 Banco de Datos de la Curva de Aprendizaje, 103, 104, 105, 192 BARBER, Michael, 96, 103, 105, 106 bases de datos, sistemas, 36-37 — — — — principios funcionales, 84 — — — — servicios online, 49 BBC (British Broadcasting Corporation), 218 BEER, D., 44, , 52, 71, 119 BEHRENS, John, 136 bienestar — medición, 150, 153 — nacional, 173 — optimización, 156 big data — — como sistema sociotécnico, 44 — — consecuencias sociales, 47-50 — — definición, 38-39 — — digitales, 38-39 — — infraestructuras y prácticas, 44-46 — — prácticas sociales y técnicas, 135

270

— — primera ola, 36-37 — — reconfiguradores del aprendizaje, 12 — — segunda ola, 38-39 biologías locales, concepto de, 203 biopedagogía, 163 bio-poder, 149 biopolítica, 146, 149 — blanda, 153-154 biosensores, 158, 160, 165 BOGOST , I. 57, 68 BONE, J. 154, 182 BOWKER, G. C. 39, 70, 47, 84-85 BRADBURY y col. 126, 150 Brain Waves, proyecto (Royal Society), 177, 179, 188 Breitbart, 236 British Computing Society (BCS), 217 burbujas filtro, 238 BURGER, M. 144, 170 cálculo, 90 Cambridge Analytica, 236 capital humano — — codificación, 213-215 — — medición y comparación, 192 — — para industrias técnicas, 220 — riesgo, 10, 15, 17, 18 capitalismo, 157 — digital, 153, 154, 157, 172-173 — de las plataformas, 153 Casa Blanca informe sobre Inteligencia Artificial (IA), 190 — — lanzamiento de Code.gov, 86-87 CEGLOWSKI, M., 66-67 Center for Data Innovation (Centro para la Innovación de Datos), 12, 190 Centro Leverhulme para el Futuro de la Inteligencia, 178 — para los Datos Digitales, la Analítica y el Aprendizaje Adaptativo, 123, 130, 190 centros de cálculo, 90, 104 cerebro — chips neurosinápticos, 194 — como software mental, 200 — computación, 199-201 — interés científico y politico por, 177 — neurocomputación, 184-186 — neuroplasticidad, 179, 182 — política basada en el cerebro, 181 — técnicas de escaneado e imagen, 188 — véase también Inteligencia Artificial (IA) — vida biosocial, 180-184 Character Lab, 155-156 CHAUDHARY, Sam, 169, 170 chips de silicio, 62 — neurosinápticos, 194 ciencia de datos, 124-125

271

— — — educativos — — — — algoritmos, 119 — — — — competencias, 124 — — — — definición, 118 — — — — enfoque psico-informático, 126 — — — — infraestructura de big data, 119, 124 — — — — movimiento sociotécnico, 124 — — — — protección y privacidad de los datos, 139-142, 143 — — — — realismo metrológico, 143 — — — — técnicas y aplicaciones, 128 — — — — teoría de la educación, 137-138 — informática, 61-63, 218 — — niños que aprenden a codificar, 211-212 ciencias sociales, 182 — — algoritmos, 68 científicos de datos, 45, 52 — — — educativos, 124 ciudadanía, 208, 209 — digital, 208, 209 — emprendedora, 208 — HTM, 208, 209, 224 ciudadanos digitales, 208 — — producción, 224-227 — sintientes, 34 ciudades inteligentes, 33, 34, 222-223 ClassDojo, 168-169, 170, 171 Code Club, 210-211, 212, 221, 224 Code.gov, 86-87 code.org, 213 codificación civil, 221-224 código, 5, 6, 7, 8 — actuación, 23 — aprendizaje por los niños, 208 — como productivo, 16-17, 65-66 — — producto, 16-17, 64 — contexto social y, 62-63 — discursos, 67 — emergencia, 23 — enfoques sociotécnicos, 66 — financiación, 17 — metáforas, 212 — Producción de — véase también aprender a codificar; movimiento de hacedores; programación; software; desarrollo de software Common Basic Data Set, CBDS (base de datos básicos comunes) , 96 comparaciones — del rendimiento educativo de los países, 103-104, 105 — — — de las escuelas, 100-101 — flujos de datos personales del alumno, 110 — virtuales, 103, 104, 105 Comparador Virtual, 100 Compare su País, herramienta online, 103, 104

272

Compendium of Physical Activities, 165 CompPsi, complejo, 147-154, 174 — — analítica del aprendizaje emocional, 160-162 — — — — cuerpo, 162-166 — — control de la mentalidad, 166-171 — — psico-políticas, 143 — — rendición afectiva de cuentas, 171-173 — — tecnologías biométricas, 158-160 computación — afectiva, 152, 160 — cognitiva, 193 — — en la Educación, programa (IBM), 195 — — inspirada en el cerebro, 194 — persuasiva, 151, 152, 153, 170 — psicológica, 149-154 Computer Science for All, iniciativa, 215 Computing at School (CAS), 216-217 — Cognition and the Future of Knowing (IBM), 194 Concepción psicológica, influencia, 156-157 construccionismo, 207-208, 210-211 COPE, B. y KALANT ZIS, M., 133 copia en datos, 34 crowdsourcing (colaboración masiva), 86, 87, 208, 224-225 cultura hacker de la resolución de problemas, 211, 212 Cumbre sobre la Reforma Educativa, 18 currículos de informática, 215-221 dataficación, 7-8, 10-16, 47 — definición, 53 — de la educación, 54 — del niño, 172 — investigación, 23-24 — política educativa, 80 — visiones/imaginario, 12, 13 datos — definición, 35-36 — digitales, 5, 6 — — en la educación, 34 — educativos a gran escala, 90-97 — personas como consumidoras y productoras de, 33 — sobre el alumno, 139-142 — — — — protección, 142 DAVIDSON, C., 200 DAVIES, W. , 156 Demos, 85 desarrolladores de software, 3, 5, 62, 65 — — — véase también programadores desarrollo de programas de software, 15, 61, 94, 215, 220 desarrollo de software democratización, 225 — — — véase también programación digitalización — estudio, 23-24 Disney World, 32 DON, Liam , 169

273

DUNLEAVY, P. y MARGET T S, H. , 87 DWECK, C. S. , 167, 168-169, 170 economía conductual, 150, 167, 169 Edtech UK, 17-19 educación terapéutica, 156-157, 173 — y Progreso Social, proyecto (OCDE), 155 Education Datalab, 96 — Endowment Foundation (EEF), 100 — Foundation, 18 — GPS, 102, 104 El uso responsable de los datos del alumno en la enseñanza superior, proyecto, 142 electroencefalograma (EEG), 187-188 EMEJULA, A. y MCGREGOR, C., 226 ensamblajes de datos, 25 enseñanza superior — — dataficación, 12 — — medición, 102 — — rendimiento, 102 — y aprendizaje dirigidos al cerebro, 192 ENSMENGER, N., 63 epigenética, 182-183, 185-186 escuelas, 8 — como centros de datos, 51-52 — comparación de rendimiento, 100-101 — dataficación, 12 — dependencia del software, 60 — gestores de datos, 97 — para destrezas de programación informática, 218-219 — startup, 13-14 estadística, 36-37 Estándares Common Basic Data Set, CBDS (base de datos básicos comunes) , 96 estudiantes, 8 estudios biosociales, 181-182, 184, 186-187 — críticos sobre datos, 24 — sobre software, 23 evaluación, 9 Facebook, 15 — asociación con Summit Schools Families of Schools Database, 100, 102 — experimentos sobre emociones de los usuarios, 69 — influencia en sucesos políticos, 69 — Network, 126 — noticias falsas, 235-236 Families of Schools Database, 100,102 física social, 68 FitnessGram, 164 FIT ZGERALD y col., 183 flujos digitales de datos en tiempo real, 106-111 Foro Económico Mundial (FEM), 155 — — — — computación afectiva en la educación, 160-161 — — — — sensores biométricos, 159-183 FOUCAULT , M. , 26, 37, 73, 149

274

— —, sobre estadística, 37 FULLER, M. 19, 23 FUREDI, F., 156, 173 GEHL, R. 38, 45, 47 gestión automatizada, 74-75, 91 GILLESPIE, T., 46 GIT ELMAN, L. y J ACKSON, V. , 42 gobernanza — algorítmica, 71-76 — anticipative, 75 — digital, 87, 104, 112, 153, 227 — — de la educación, 82, 111-112 — dirigida por datos, 85 — educativa, 111-112 — — cálculo, 90 — — distribución, 92 — — tiempo-futuro, 111 — — véase también gobernanza digital de la educación; gobernanza digital gobernanza psicológica, 150, 170 — estilo biopolítico, 73 — psicológica, 150, 170 — véase también gobernanza algorítmica; gobernanza educativa — urbana, 33 gobierno a distancia, 81, 82, 97 — de base de datos, 87 gobiernos — auditoría permanente de la conducta, 88 — información personal de los ciudadanos, 32 — psico-políticas, 173 — rabajo con agencias de analítica de datos, 85 — véase también gobernanza; poblaciones Google, 221, 237-239 — algoritmos, 68 — Apps para la Educación, 9 — — — — — resultados de búsqueda personalizados, 15 — perfiles de usuario, 31 — Research — — plataforma Project Bloks, 207 GORUR, R., 101 GREK, S., 94 habilidades sociales y emocionales del niño, 155 hacer/hacedores digitales, 217 hackatones, 115, 221 hackers, 4, 5 HackingEDU, 4, 5 HART ONG, S., 83 HAYLES, N. K. , 186 hiperempujón, técnicas, 152, 170 hojas de cálculo, 59 HOPE, Alex, 216 Hour of Code, proyecto, 213-214, 215 HOWARD-J ONES y col., 188

275

IBM — asociación con Pearson, 198 — chips neurosinápticos, 194, 197 — programa Watson Education, 196, 198, 199 — sistemas informáticos cognitivos, 193-199 — superordenador Watson, 194 imagen por resonancia magnética funcional (fMRI) 159, 188 imaginario de los big data, 50-54 imaginarios — algorítmicos, 20 — sociotécnicos, 19-20, 21, 50, 52, 199-200 — véase también imaginario de los big data Imagine K12, 4, 5 imgenieros de software, 45, 65, 67 indicadores, 104 industria de la felicidad, 157 influencia de las ideas psicológcias véase también políticas educativas, diseño informática, currículos, 215-221 infraestructura de rendición de cuentas, 95 infraestructuras, 44 — véase también infraestructuras de datos infraestructuras de conocimiento, 137 — de datos, 44-46 — — — definición 95 Insight, base de datos, 100, 102 instrumentación de la política, 89 integración cerebro-máquina, 185 — persona-máquina, 185, 191-192 inteligencia — artificial, 160-161, 178 — — en la educación 190-193 — — véase también Pearson, entornos inteligentes de aprendizaje — automática, 178, 191-192, 201, 202 — emocional automática, 151, 152, 154 — fusión de lo humano y lo automático 191-192 — procesable, 47 — teoría de 166-167 — véase también inteligencia artificial (IA) — y Autonomía, proyecto, 178 interacción entre humano y computadoras (HCI), 46 Internet de las Cosas (Internet of Things, IoT), 34 investigación educativa, 240-241 Ithaka S+R, 142 JASANOFF, S., 19, 20, 21, 50, 52 J URGENSON, N. , 48-49 KENNEDY, H., 6 KENNEDY, H. y MOSS, G., 73-74 Kid Power (UNICEF), 165 KING y col., 194-195, 197 KIT CHIN, R., 35, 36, 38, 39, 40, 42, 43, 44, 48, 68, 69,70, 136, 215 — y Dodge, M., 23-24, 64, 65, 66, 67, 70, 73, 75, 91 — y Lauriault, T. , 44

276

Knewton, 129-130, 131-132, 133, 135, 136, 138 LAPOWSKY, I., 235 LAT OUR, B., 239 LEMKE, T., 149 lenguajes de programación, 63 LESSIG, L., 72 Ley Every Student Succeeds Act (EE. UU., 2015), 155 LIVINGST ONE, Ian, 217, 218, 219 LUCKIN, R. y HOLMES, W., 190 LUPT ON, D. , 15, 22, 89, 121, 158, 163, 166 Lytics Lab (Learning Analytics Laboratory), 123 MAcKENZIE, A., 40, 41, 42, 60, 63, 64, 65, 66, 69, 70, 71, 133 Make It Digital (BBC), 218 Make Things Do Stuff, 214, 215, 224 MANDINACH, E. B. y GUMMER, E. S., 140 MARKOWET Z y col., 125-126 MART ENS y col., 82 Massachusetts Institute of Technology (MIT), 159 Massive Open Online Courses, MOOC (Cursos Masivos Abiertos Online), 120 MAYER-SCHONBERGER, V. y CUKIER, K. , 117 MEAD, S., 169 medición — bienestar, 150, 153 — capital humano, 149 — características del alumno, 161 — de la felicidad, 150, 153 — educación, 5-6 — enseñanza superior, 102 — felicidad, 150, 153 — habilidades sociales y emocionales del niño, 155, 156, 157 — sistemas gubernamentales de información a gran escala, 95 — véase también rendimiento medios sociales — — ciencia, 86 — — lógica, 53 — — plataformas, minería del tráfico online, 53-54 — — software, 53 mentalidades de crecimiento, 167, 168 MEYERS, M., 188 micro:bit, 218 mindfulness en educación, 157 minería de datos, 39-40, 41 — — — algorítmica, 74 — — — diferenciación y clasificación social, 49 — — — métodos de perfilado de las personas, 50 MK:Smart, 223 Monsuta Fitness, 163 MONT ERO, C. S. y SUHONEN, J., 161 MOROZOV, E. , 71 MORRIS, P., 93 motores de búsqueda, 72

277

— — — política de, 72 movimiento de hacedores, 208, 209 — — — centro de interés político, 213, 214 — — — ciudadanos digitales, 224-226 — — — influencia del construccionismo, 211 — — — orígenes, 208-212 MULGAN, G. , 86 My School, base de datos, 100, 102, 108 National Pupil Database, NPD (Base Nacional de Datos sobre el Alumno), 95-96 NAUGHT ON, J., 211-212, 221 Nesta Analytic Britain: Securing the right skills for the data-driven economy, informe, 214 Nesta, 85, 214, 217 — Next Gen, informe, 216 — Skills of the Datavores: Talent and the data revolution, informe, 214 — Young Digital Makers, informe, 218 neurociencia, 177, 179 — como empresa de big data, 184 — computacional, 184-186, 200 — conocimientos cerebrales, 177, 180-181, 184 — divisiones en la conceptualización del cerebro, 201 — producción, 184 — véase también Inteligencia Artificial (IA); cerebro neurocomputación, 184-186, 203 neuroeducación, 186-189 neuroplasticidad, 182 neurosensores, 188 neurotecnologías, 185 NIELSEN, M., 136 niños — concepciones psicológicas, 156-157 — datificación del aprendizaje no cognitivo, 172 — medición de destrezas sociales y emocionales, 155, 156, 157 — mindfulness, 157 NIT TA, S. , 195 noticias falsas, 235-236 Obama, Barack, presidente, 213, 214 OCDE (Organización para la Cooperación y el Desarrollo Económicos), 80 — — — — — — — — — Compare su País, herramienta online, 103 — — — — — — — — — Education GPS, 102 — — — — — — — — — Educación y Progreso Social, proyecto, 155 — — — — — — — — — Programa Internacional para la Evaluación de las Competencias del Adulto (PIACC), 9394 — — — — — — — — — — — — — — del Estudiante (PISA), 92, 93, 102 — — — — — — — — — pruebas globales estadarizadas, 93-94 Ofsted (Office for Standards in Education), 98-99 Oracle Corporation, 220 OSBORNE, George, 214 PAPERT , Seymour, 207, 210 PEA, R., 123, 128-129, 160 Pearson, 9, 103

278

— asociación con IBM, 198 — — — Knewton, 129-130 — Banco de Datos de la Curva de Aprendizaje, 103, 104, 105, 192 — Centro para el Aprendizaje y la Evaluación de la Próxima Generación — — — los Datos Digitales, la Analítica y el Aprendizaje Adaptativo, 123, 130, 190 — entornos inteligentes de aprendizaje IAEd, 190-193 — Intelligence Unleashed: An argument for AI in education, 190 — propiedad de los datos educativos, 136 PECK, J. y T HEODORE, N., 81 pedagogía de la ciencia de datos, 126-132 — pública, 231-232 — — falsa educación política, 238-239 pensamiento computacional, 222 perfilado — analitica de datos, 50 — de los países, 104 — minería de datos, 50, 74 — predictivo, 49, 109 — programabilidad, 53 — Programa Internacional para la Evaluación de las Competencias del Adulto (PIACC), 93 — — — — — — del Estudiante (PISA), 92, 93, 102 performatividad, 90, 91, 93 PERROT TA, C. y WILLIAMSON, B., 134 PERSSON, J., 97 PIET Y y col., 124, 161 poblaciones — conocimiento estadístico, 36-37 — gestión, 38, 74 — gobernanza y control, 73 — información del Estado sobre, 32, 66, 84, 85 poder informático, 95 política — giro analítico, 32 — participativa, 209 — posverdad, 32-33, 235 — rápida, 81, 82, 110-111, 213 — visual, 102-106 políticas basadas en la evidencia, 9 —, diseño cambiar el comportamiento de las personas, 150 — — interés del Estado por la neurociencia, 181 — educativas, diseño dataficación, 80 — — — reforma escolar corporativa, 108 — — — visualizaciones de los datos, 104 — — — política rápida, 81, 82, 110-111, 213 — — — Pearson, 137 Positive Behavior Interventions and Supports, PBIS (Intervenciones y Apoyos a la Conducta Positiva), 168, 171 prácticas de los datos, 45, 54 predicciones — actuaciones futuras del estudiante, 12 — algoritmos, uso de, 75 — analítica del aprendizaje, 127 — producción, 40

279

— software de analítica predictiva, 75, 109-110 — técnicas de aprendizaje automático algorítmico, 130-131 — véase también aprendizaje automático Preparación para la Futura Inteligencia Artificial, proyecto, 178-179 privacidad, 139-142, 143 —, perjuicios a, 141 procesado del lenguaje natural, 161 producción de conocimiento, 136 profesores — alfabetización en datos, 140 — como recolectores de datos, 98, 109 Programa de Evaluación Nacional: Lengua y Matemáticas (NAPLAN), 107 programación, 61 — arte de, 63, 64 — incorporación al currículo escolar, 208 — véase también código; aprender a codificar; movimiento de hacedores programadores, 4, 5, 17, 45, 62 — culturas de, 63 — diseñadores de valores, 72-73 — habilidades técnicas, 63 — sistemas de pensamiento, 66 — véase también desarrolladores de software; ingenieros de software programadores consecuencias sociales del trabajo, 67 programas aceleradores, 4, 5 — incubadora, 4, 5 Project Bloks, 207, 210-211 propaganda computacional, 236 propiedad — de los big data, 136, 139 — interés y preocupación por, 139 — por organizaciones privadas con ánimo de lucro, 137-138, 139 prosumo, 224-225 protección y privacidad de los datos, 139-142, 143 Proyecto Cerebro Humano, 184 — para la Investigación Educativa que Escala (PERTS), 168-169 psicoinformática, 125-126, 148, 161 psicología — aprendizaje no cognitivo, 154-158 — clasificación y medición de los humanos, 158 — expertos en psicológica, 150 — influencias, 146 — positiva, 157 — — política posverdad, 32-33, 235 psicometría, 125, 161 psico-políticas, 173 PYKET T , J., 150, 178 — y DISNEY, T., 158, 189-187 QUINLAN, O., 217 realismo metrológico, 143 reconocimiento facial, 151, 152, 158, 159 recopilación de datos

280

— — — a gran escala, 36, 91-97 — — — digital, 54, 91 — — — educativa, 96 — — — vigilancia, 140 Red Men, The (de Abaitua), 147 redes neuronales, 201 reforma escolar corporativa, 108 rendición de cuentas, 90, 91 — — — afectiva, 171-173 — — — infraestructura, 95 — — — privada, 97-102 — — — sistemas de información a gran escala del Estado, 95 rendimiento — medición, 90 — comparación entre escuelas, 99-100 — — — países, 103-104 — véase también medición Reporting and Analysis for Improvement through School Self-Evaluation, RAISEonline (Informes y Análisis para la Mejora mediante la Autoevaluación de la Escuela), 98-99 Research Machines (RM), 99 RIEDER, G. y SIMON, 16 RIENT IES, B. y RIVERS, B. A., 161 ROBERT S-MAHONEY y col. , 108 robots profesor (teacher bots), 9 ROSE y col. , 43, 152, 178 ROSE, N., 84 — y ABI-RACHED, J., 181, 197 ROSE, S., 160, 189 Royal Society, 177, 188, 217 — — informe Shut Down or Restart?, 217 — — véase también Brain Waves, proyecto — Statistical Society, 85 RUNCIMAN, D., 233, 234 SAVAGE, M. y CUNNINGHAM, N., 198, 233-234 SCHMIDT , Eric 184, 217 School Finder (website), 99 SCLAT ER y col. , 127 Scratch, 211 SELWYN, N., 54 sensores Q, 159 SIEMENS, G., 123 Silicon Valley, 4, 13-14, 62 — — cultura de la resolución de problemas, 211, 212 — — escuelas startup, 13-14 sistemas CAT, 9, 107 — cognitivos para el aprendizaje, 193-199 — de codificación de la acción facial (FACS), 151 — — recomendación, 111 — — Tutoría Inteligentes (STI) , 191, 195-196 — educativos nacionales, 93 — — — comparaciones, 103, 104, 105 SnOWDEN, Edward, 32

281

sociedad del software, 59 — para el Estudio de la Analítica del Aprendizaje (SoLAR), 123 — sobre IA, 178-179 sociología digital, 22-23 software, 5, 6-8 — ciencia informática y, 61-63 — dependencia de las instituciones educativas de, 60 — de procesamiento de datos, 9, 83, 90, 202, 231 — véase también código SOLOVE, D. J., 140 solucionadores civiles, 224 solucionismo, 47-48, 54 Sqord, 165 stándares, 63-65 Summit Personalized Learning Platform, 126-127 — Schools Network, 126-127 superordenador Watson, 194 tablas de rendimiento de escuelas, 98 Tablero de Datos sobre las Escuelas, 98 tableros, tablas de datos, 98, 99, 100, 101, 102 TeacherMatch 7, 9 tecnologías biométricas, 158-160 teoría del empujón, 150, 151, 153, 167 — educativa, 137-138 tests adaptativos informatizados véase sistemas CAT T HIEL, Peter, 4-5 T HOMPSON, G. , 107 — y COOK, I., 87-88 T OWNSEND, A. M., 33 trabajadores del conocimiento, 45-46 TrUMP , Donald, 4, 232, 233, 235 tutores artificiales, 189 Twitter influencia en sucesos políticos, 69 — noticias falsas, 235-236 Uber, 3, 5, 14 UNESCO, 92 Unicef, 165 universidades, 8 — dependencia del software, 60 — redes informacionales, 60 — rendimiento y medición, 102 Urban Data School, 223 usuarios — clics y enlaces, 31-32 — de big data, 46 — perfiles del Estado, 32 — — online, 31, 33 — reconfiguración de costumbres, 74 VAIZEY, Ed, 216 VENT ILLA, Max, 14, 15, 115, 117

282

vida humana biopolítica, 149 — — medición y comparación, 150 — social de los métodos, 119-121 vigilancia, 49, 75, 94, 140 visión automática, 159 visualización de los datos, 42-43 — véase visualización de los datos Watson Education, programa, 196, 198, 199 webs comparativas de escuelas, 9, 99-100, 101 WEISENT HAL, J., 236 Wired, revista, 116, 235 Y Combinator, 4, 5 Year of Code, campaña, 213, 214, 215, 221 Yo cuantificado (Quantified Self), movimiento, 33, 158, 162, YOUDELL, D., 187 Zamzee, 165 ZUCKERBERG, Mark, 237 Nota: Las páginas corresponden a la edición impresa.

283

284

285

286

Vínculos afectivos: formación, desarrollo y pérdida Bowlby, John 9788471128010 176 Páginas

Cómpralo y empieza a leer La teoría del apego explica cómo el ser huma no desde su nacimiento necesita desarrollar una relación con al menos un cuidador principal con el objetivo de que su desarrollo social y emocional se produzca con normalidad. El establecimiento de este primer vínculo fun damenta la seguridad del niño pero también marca la futura seguridad del adulto.La teoría del apego se centra en la interacción entre, principalmente, madre e hijo, o cualquier mayor colocado en el lugar de protector. No solo es la necesidad del bebé sino la de los adultos que se ubican en ese lugar, son adultos sensibles y receptivos a las relaciones sociales y permanecen como cuidadores consistentes. Cuando el bebé comienza a gatear y caminar, empieza a utilizar las figuras conocidas como una relación de confianza y seguridad. La reacción de los padres lleva al desarrollo de patrones de apego y conduce a la construcción de modelos internos que guiarán las percepciones individuales, emociones y pensamientos del niño.Bowlby fue un creador y un investigador clínico que supo incluir en su formulación teórica conceptos interaccionales en un tiempo en que las conductas se analizaban de manera intrapsíquica y lineal. Su teoría del apego constituye la base de la seguridad y de la futura valoración personal que asegura en cierta manera lograr reproducir en nosotros mismos esos patrones positivos internalizados.Es una gran suerte que Editorial Morata vuelva a publicar este material que recoge investigaciones y conferencias del autor y para mí es un honor ser invitado a escribir su prólogo a 287

la sexta edición. Todos los textos de cada capítulo son inspiradores e invitan a reflexionar la clínica. Este libro es un legado y como tal nunca muere.

Cómpralo y empieza a leer

288

289

Psicología del niño (ed. renovada) Piaget, Jean 9788471128041 166 Páginas

Cómpralo y empieza a leer Piaget e Inhelder, escribieron numerosos libros, pero éste es probablemente el único en el que se resumen sus concepciones sobre todos los aspectos del desarrollo que estudiaron y que incluyen los estudios sobre el nacimiento de la inteligencia, la construcción de lo real, la formación temprana de las primeras categorías del pensamiento, el surgimiento de las capacidades de representación, las operaciones concretas, las operaciones formales, pero también sus estudios sobre la percepción y la inteligencia, sobre el juicio moral, y además se ocupan también de los aspectos afectivos y sociales del desarrollo, discutiendo las opiniones de psicoanalistas (incluyendo a Freud) y de otros autores. No se descuida ninguno de los aspectos que se estudiaron en Ginebra a lo largo de muchos años. El lector tiene en sus manos un resumen bastante completo de los trabajos de Piaget y sus colaboradores hasta la fecha en que fue publicado, que proporciona una perspectiva comprensiva del enfoque piagetiano y de sus orientaciones teóricas. Por ello sigue siendo una obra de mucha utilidad para el estudioso del desarrollo humano. En esta nueva edición se ha realizado una nueva traducción, se ha completado la bibliografía, se han añadido ilustraciones sobre las pruebas de Piaget, así como un índice de autores y de materias, precedido por un prólogo de Juan Delval, que estudió con Piaget en Ginebra.

Cómpralo y empieza a leer

290

291

292

Las entrevistas en investigación cualitativa Kvale, Steinar 9788471126887 200 Páginas

Cómpralo y empieza a leer Las entrevistas son uno de los principales enfoques en la recogida de datos en la investigación cualitativa. Conocemos una variedad de formas de hacer entrevistas con objetivos y principios diferentes. Al mismo tiempo, la entrevista se presenta con varias ventajas, prácticas y problemas diversos comunes a todas las opciones de su realización. Podemos estudiar la realización de entrevistas en niveles diferentes: teórico, epistemológico, ético y práctico. Una vez que la entrevista se ha realizado, le siguen varios pasos: las formas específicas de documentar lo que ha ocurrido en la entrevista individual llevan a necesidades y reglas para la transcripción. Los datos obtenidos demandan formas específicas de realización del análisis cualitativo. La realización de entrevistas trae consigo necesidades específicas de aumentar la calidad de la entrevista en general y su validez en particular, y finalmente de informar de lo que se dijo y cómo se analizó. Este libro trata muy detalladamente todas estas cuestiones de la realización de entrevistas y se basa en la larga experiencia del autor en la realización de entrevistas y en escribir sobre ellas y su realización. Este libro es una parte de la colección de investigación cualitativa que dirijo y tiene un sólido enfoque en la recogida de datos, pero también en cuestiones específicas sobre el análisis y la evaluación de esta forma específica de datos. Por consiguiente, algunos de los otros libros de la colección deberían ser útiles para complementar lo que se dice en esta obra. En particular, los volúmenes de GIBBS (2007) sobre análisis de datos cualitativos y de RAPLEY (2007a) sobre análisis de discurso y de conversación dan más información sobre cómo analizar 293

los datos cualitativos procedentes de entrevistas (y de otras fuentes). El libro de FLICK (2007a) entra más en los detalles de la planificación y el diseño de la investigación cualitativa (y de la realización de entrevistas) en general.

Cómpralo y empieza a leer

294

295

El diseño de la Investigación Cualitativa Flick, Uwe 9788471128072 168 Páginas

Cómpralo y empieza a leer El diseño de la Investigación Cualitativa es el volumen con el que se abre esta colección. Proporciona una introducción a la investigación cualitativa muy últil para justificar cómo planificar y diseñar un estudio concreto, sus distintos pasos e instrumentos. Perfila un marco para los otros volúmenes, centrándose en problemas y dilemas que suelen plantearse y en cómo resolverlos en el proceso de investigación. Trata cuestiones referidas al diseño, los pasos para su realización y puesta en práctica; debate problemas habituales y cuestiones pragmáticas como el de los recursos necesarios, pero también asuntos como la calidad de la investigación cualitativa y sus implicaciones éticas. Uwe FLICK escribe esta obra con un enfoque más general que los otros de la serie. Aquí, las cuestiones de diseño se debaten desde ángulos diferentes, añadiendo una perspectiva más comparativa. Se centra también en cómo se desarrollan las preguntas de investigación, teniendo en cuenta intereses de investigación más generales, las experiencias personales y el contexto sociopolítico. Asimismo, se analizan los recursos, fases y requisitos necesarios para que la investigación cualitativa funcione. Este volumen, en síntesis, tiene dos funciones en el contexto de la colección: como obra autónoma, aspira a dar una explicación cabal de los problemas y soluciones en el campo del diseño de la investigación cualitativa; como un elemento más, añadido a los otros volúmenes de la Colección Investigación Cualitativa, completa el marco de justificación en sus niveles teórico, metodológico y práctico. Todos los libros de esta serie se han enfocado teniendo en cuenta las necesidades de muy diferentes tipos de personas, por lo 296

que serán muy útiles para una gran diversidad de profesionales, investigadores, docentes y estudiantes de ciencias sociales, medicina, enfermería, comunicación, periodismo, educación, psicología, etc.

Cómpralo y empieza a leer

297

298

El Diseño Universal para el Aprendizaje Pastor, Carmen Alba 9788471128300 124 Páginas

Cómpralo y empieza a leer Una de las paradojas más evidentes respecto al nuevo campo científico llamado Diseño Universal para el Aprendizaje, DUA (Universal Design for Learning, UDL), es que de ningún modo ha alcanzado ese carácter universal. El DUA nació como un experimento educativo en el contexto del sistema escolar norteamericano y cobró cuerpo como movimiento para abordar las barreras a que se enfrentan los escolares en los Estados Unidos para acceder al aprendizaje. Sin embargo, los principios y prácticas del DUA tendrían que ser realmente universales y globales, porque proporcionar educación asequible y eficaz para cualquier alumno y alumna es una necesidad humana que transciende límites nacionales, culturales, políticos, lingüísticos o étnicos. Este nuevo libro de la profesora de la Universidad Complutense de Madrid Carmen Alba Pastor constituye sin duda una excelente introducción al DUA para el extenso mundo hispanohablante. El DUA trasciende lenguas y culturas, porque donde quiera que haya quien intente aprender, puede encontrarse con barreras para hacerlo. Nuestra tarea como educadores es limitar o eliminar tantas de esas barreras como resulte posible. Vamos comprobando que el DUA es una vía eficaz para lograrlo.

Cómpralo y empieza a leer

299

300

Índice Portadilla 2 Créditos 3 Nota de la editorial 4 Contenido 5 El autor 7 Agradecimientos 8 Prólogo a esta edición española 10 Prefacio 13 El libro 17 CAPÍTULO 1. Introducción 20 CAPÍTULO 1. Introducción. Las máquinas de aprender, los datos 22 digitales y el futuro de la educación CAPÍTULO 2. La conceptualización de los datos digitales 46 CAPÍTULO 2. La conceptualización de los datos digitales. Minería, 48 analítica e imaginarios de los datos CAPÍTULO 3. El software, el código y los algoritmos 72 CAPÍTULO 3. El software, el código y los algoritmos. 74 Programación, automatización y gobierno de la vida cotidiana CAPÍTULO 4. La gobernanza digital de la educación 91 CAPÍTULO 4. La gobernanza digital de la educación. Analítica, 93 performatividad y responsabilidad políticas CAPÍTULO 5. La vida social de la ciencia de datos educativos 126 CAPÍTULO 5. La vida social de la ciencia de datos educativos. Analítica del aprendizaje, minería de datos educativos y 128 plataformas metrológicas CAPÍTULO 6. El complejo CompPsi 157 CAPÍTULO 6. El complejo CompPsi. Aprendizaje no cognitivo, 159 mejora psicológica y cambio conductual CAPÍTULO 7. El recableado del cerebro 186 301

CAPÍTULO 7. El recableado del cerebro. Inteligencia artificial, sistemas cognitivos y neuroeducación CAPÍTULO 8. Las culturas del hacer y codificar CAPÍTULO 8. Las culturas del hacer y codificar. Ciudadanos digitales, del “hazlo tú mismo” y aprendices de analistas de datos CAPÍTULO 9. Conclusión CAPÍTULO 9. Conclusión. Pedagogías públicas programables del software y los big data Bibliografía Índice de materias y nombres Contraportada

302

188 215 217 238 240 251 269 284