Acepto las condiciones, Capítulo 4: Salir de la era de la ingenuidad (Cristóbal Cobo)

with No Comments

A través del panoptismo apunto a un conjunto de mecanismos que operan en el interior de todas las redes de procedimientos de los que se sirve al poder. El panoptismo ha sido una invención tecnológica en el orden del poder, como la máquina de vapor en el orden de la producción. Esta invención tiene esto de particular: que ha sido utilizada en un principio en niveles locales: escuelas, cuarteles, hospitales. En ellos se ha hecho la experimentación de la vigilancia integral.  — Foucault, M; 19801


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.
Capítulo 4. Salir de la era de la ingenuidad.

(p. 126-134.)

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266


Cristóbal Cobo: Durante los últimos diez años, o más incluso, he dedicado parte importante de mi vida profesional a investigar, entender e impulsar proyectos que combinan el desarrollo de capacidades y su intersección con las tecnologías digitales, especialmente en el mundo de la educación (en todos sus niveles). He tenido el privilegio de trabajar con representantes de gobiernos e importantes organismos internacionales, pero también con docentes y estudiantes de los lugares más humildes y recónditos. Ello desde los días en que se gestaban todos los discursos inclusivos de licencias y conocimiento abierto en línea, de reducción de brechas y de creación de nuevas formas de ciudadanía en los diferentes circuitos digitales. El entusiasmo que existe hoy por la emergencia de la inteligencia artificial e internet de las cosas, ayer lo vimos en la creación de los primeros sitios web personales, y con ellos la llamada web 2.0.

Cada innovación tecnológica sigue un ciclo similar. Es decir, la adopción y el frenesí por parte de unos pocos, la masificación posterior y finalmente el desencanto o el terminar fagocitado por una tecnología superior o más poderosa. Este ciclo se repite, y probablemente se siga repitiendo, como un déjà vu interminable en los espacios tecnológicos. El haber participado en innumerables encuentros y diálogos en distintas latitudes de Asia, Europa y de toda América hoy me hace preguntarme si no he jugado a ser un agente doble, sin saberlo. ¿Hasta qué punto al formar parte de una generación que quiso tener alguna contribución en la reducción de las brechas digitales no terminamos abonando para favorecer la consolidación de nuevas asimetrías? La respuesta supongo que no es sencilla. Lo que sí sé es que la gravedad y los abusos de poder y control que hoy conocemos no eran tan evidentes hace algunos años o no supimos leerlos a tiempo.

De la misma manera que otros alzaron la voz para advertir tanto los riesgos como la emergencia de nuevas asimetrías, esperamos que las voces que se presentan en este capítulo nos ayuden a entender el punto de inflexión en el que estamos y los posibles caminos a cursar. Así que, en vez de tener nostalgia por el futuro que no llegó, quizá sea mejor no olvidar que el presente que tenemos entre manos necesita ser reinventado.

Muchos de los desafíos expuestos en este libro son tanto de orden global como local. Es por ello por lo que parece oportuno generar diálogos de opiniones y perspectivas provenientes desde diferentes latitudes y diversos campos del conocimiento. Aquí presentamos un conjunto de voces expertas que se dedican a investigar o a trabajar sobre las asimetrías aquí discutidas.


Primera pregunta: ¿cuáles son las nuevas brechas y asimetrías que emergen o se consolidan en la era digital?

Luci Pangrazio: Para mí, hay dos inequidades en la era digital que son las de mayor preocupación. La primera es lo que Mark Andrejevic (20143) llama la «brecha de los datos masivos», una brecha que no solo se da entre los individuos y sus datos, sino que también involucra la capacidad de las personas para acceder y aprovechar esos datos. Las plataformas digitales están ahora entrelazadas con nuestra vida cotidiana, desde la educación y la atención médica hasta el transporte y la comunicación social. El funcionamiento de estas plataformas digitales depende de los datos personales. A pesar de la ubicuidad de los datos personales en la vida actual, resulta cada vez más difícil comprenderlo por parte de aquellos que no son especialistas. Se requiere más trabajo sobre estas «asimetrías de la información» (Brunton y Nissenbaum, 20154) para que la gente pueda comprender las implicaciones de sus datos personales y, por lo tanto, tomar decisiones informadas sobre sus prácticas digitales.

La segunda es lo que podría llamarse «noticias falsas», que puede usarse como lo indica su nombre para arrojar dudas sobre la opinión de los demás. Por ejemplo, si alguien presenta una opinión con la que no se está de acuerdo, declararla como una «noticia falsa» desprestigia automáticamente esa opinión. Esta es una indicación clara de que estamos en la era de la posverdad. La investigación nos dice que las personas que buscan activamente noticias y que consultan múltiples fuentes son más conscientes de la información que encuentran (Dubois y Blank, 20185). Típicamente estas son personas de clase media más educadas. Pero ¿qué hay de aquellos que no buscan activamente noticias y solo escuchan sobre política y otros problemas mundiales a través de las redes sociales? Cada año, más y más personas reciben sus noticias solo a través de las redes sociales (Gottfried y Shearer, 20166). Estas personas son potencialmente más vulnerables a la desinformación, resultando el objetivo perfecto. Lo que surge es una inequidad provocada por la clase social y la educación, pero amplificadas a través de las plataformas de redes sociales.

Jonathan Bright: Creo que una de las desigualdades más relevantes tiene que ver con la predicción de analíticas. La predicción de algoritmos tiene un impacto enorme para la definición de oportunidades en las vidas de las personas, por ejemplo, el coste del seguro de tu automóvil, si pides una hipoteca y cuánto te cuesta, etc. Pero esto está alcanzando más y nuevas áreas que comienzan a utilizar estas técnicas para la toma de decisiones. ¿Cuál es la desigualdad que esto genera? Bueno, básicamente si tú eres estadísticamente similar a otros grupos, los cuales tienen un desempeño más pobre en esos algoritmos, entonces los algoritmos establecerán que tu desempeño también será pobre. Por ejemplo, si eres un hombre joven, accederás a un seguro de autos de peor calidad que el de una mujer joven, porque estadísticamente registran menos accidentes automovilísticos.

Taha Yasseri: Me gusta pensar en este tema planteando tres niveles o capas diferentes: la generación de datos, el acceso a los datos y el consumo de datos:

Nivel de generación de datos. Muchos de estos datos no se generan por igual. Hay ciertas personas más representadas que otras. En muchos casos, hay más datos sobre el típico hombre blanco, de países industrializados occidentales, que datos sobre personas de otras partes del mundo. Esto se suma a las desigualdades existentes, porque los datos se utilizan para entrenar algoritmos, para estudiar personas y estos estudios y tecnologías basados en estos datos son sesgados hacia el tipo de personas que están sobrerrepresentados. Es algo de lo que no somos conscientes, pero es necesario pensarlo más como un problema de generación de datos que como consumo de datos. Hablamos mucho sobre los sesgos de los algoritmos, pero creo que la mayoría de estos sesgos se basan en el sesgo que tenemos sobre los datos.

Nivel de la accesibilidad de los datos. Se generan datos, pero, mientras algunas personas y organizaciones tienen acceso a esos datos, otras no. Es una desigualdad en el acceso. Puede haber datos generados sobre personas en países menos avanzados que no tienen acceso a sus propios datos, mientras que hay personas y grandes empresas con sede en países desarrollados que no solo tienen acceso a sus propios datos, sino también tienen acceso a los datos de los países en vías de desarrollo. Esto amplifica la desigualdad existente.

Nivel de consumo de estos datos. Los productos y servicios basados en estos datos también son sesgados y presentan desigualdades. Las empresas están más orientadas a proporcionar servicios a quienes pueden pagarlos. En cada uno de los tres niveles hay desigualdades que amplifican las que provienen del nivel anterior y podemos ver fácilmente cómo las brechas existentes podrían crecer exponencialmente en el futuro.

Neil Selwyn: Independientemente de la tecnología, la distinción que considero más importante trazar es la relativa a aquellos que logran «hacer» tecnología digital y aquellos a quienes «se les aplica» la tecnología digital. La capacidad de «hacer» tecnología refleja la capacidad de interactuar con la tecnología digital de manera informada y autónoma (agency), para fines que son significativos y útiles para el individuo y sus comunidades, conduciendo a resultados que pueden ser beneficiosos y/o empoderadores.

Las personas que se benefician de la tecnología digital son quienes poseen la tecnología a la que acceden, y tienen la capacidad de suscribir o rechazar el uso de la misma, ya que comprenden los procesos que hay detrás de la tecnología que utilizan y toman decisiones en consecuencia. Ellos son quienes pueden interactuar con la tecnología digital en sus propios términos y de una manera que funcione para ellos. Al resto simplemente «se le aplica» la tecnología. Esta distinción definirá las capacidades y las brechas de la próxima década.

Monica Bulger: Grandes plataformas como Alphabet (Google), Facebook o Amazon controlan la recolección, venta y acceso a una gran cantidad de datos de una creciente población global. Esto genera distintas formas de desigualdad frente a la información. Primero, las compañías que se pueden permitir comprar estos datos y emplear personal y capacidades analíticas para su beneficio tendrán una ventaja frente a quienes no pueden. Segundo, el escándalo de Cambridge Analytica trajo serios cuestionamientos sobre cómo los datos pueden ser utilizados para identificar y explotar vulnerabilidades en poblaciones específicas. En el contexto escolar, por ejemplo, existe el riesgo de que los padres de las zonas más acomodadas presionen a las escuelas para que limiten los tipos de datos recopilados sobre sus alumnos. Por lo tanto, es más probable que las escuelas en zonas más acomodadas protejan la privacidad de datos de sus estudiantes, por lo que la privacidad se convierte en un lujo, en lugar de un derecho individual.

Jordi Adell: Las nuevas brechas se asientan sobre viejas asimetrías, como la brecha de acceso y la de formación. Los nuevos equilibrios que aparecen en internet y en el mundo de las tecnologías consolidan antiguas brechas que favorecen a los grupos de poder. Las nuevas brechas vinculadas a los datos, entendidos como una nueva materia prima y como nuevo objeto de explotación, dividen el mundo en dos tipos de personas: aquellos que disponen de los datos y son capaces de extraerlos y utilizarlos, y los que son objeto de los datos, es decir, son sujetos pasivos frente a estos datos su información es extraída, medida y evaluada por el primer grupo. Esto genera nuevas asimetrías que se asientan en las anteriores.

John Moravec: Lo que más me asusta es simplemente no saber quién tiene qué información, especialmente si tiene relación conmigo. El mes pasado fui a hacer un cambio de aceite a una estación de servicio, y mientras me registraban me pidieron mi número de teléfono y con solo esa pequeña información extrajeron toda una fuente de datos sobre mí, sobre mi casa y, por supuesto, sobre mi automóvil. Lo más inquietante es que nunca antes utilicé esa estación de servicio. Obviamente, utilizaron alguna fuente de servicio de información proporcionada por alguna empresa que recopila y vende información muy detallada sobre las personas. Esta información se recopila sin mi consentimiento expreso, no sé qué compañía utilizan, no sé cómo están obteniendo toda la información, y ni siquiera tuvieron mi permiso para registrar mis datos en su estación de servicio. Estoy muy preocupado por la escala de la información que se está recopilando. Estas empresas saben mucho más sobre nosotros de lo que realmente sabemos sobre nosotros mismos. Mis preguntas son: ¿podría toda esta información usarse en contra de nosotros?, ¿se usará esta información para controlarnos?, ¿pueden chantajearnos para que hagamos ciertas cosas o nos comportemos de cierta manera?

Daniela Trucco: Las tecnologías son ambivalentes, traen oportunidades, pero también riesgos. En América Latina, este proceso se da en contextos de histórica y persistente desigualdad que estructura los diferentes campos de acción y experiencias de vida. La innovación tecnológica, con tecnologías digitales maduras, como internet, internet móvil, etc., ha generado brechas digitales que exacerban desigualdades preexistentes, en términos de acceso a la información y al conocimiento, dificultando la integración social de parte de la población que ve limitadas sus capacidades de desarrollar las habilidades básicas, como saber buscar, seleccionar, analizar, compartir y colaborar con información en ambientes digitales, para la participación plena en las sociedades actuales.

No se trata solamente de las diferencias en el acceso a las tecnologías en el campo de actividades personales, sino de comprender el impacto que tiene, por ejemplo, el no saber cómo proteger la información personal y la privacidad, o bien discriminar entre fuentes de información fidedigna y de buena calidad para tomar decisiones que afectan a las trayectorias personales, como aquellas relacionadas con temas de salud o decisiones de representación política. La experiencia muestra que garantizar el acceso a las tecnologías, si bien es importante, está lejos de ser suficiente para que impacten de manera significativa en la vida de las personas.

Miguel Brechner: Otra brecha que existe es la generacional. Lo que yo observo es que en las generaciones más jóvenes hay un aspecto de privacidad que no les molesta. A mí me cuesta entenderlo, pero la gente publica lo que quiere. A mí me preocupa que nadie crea que lo privado es importante, pero considero que es un problema más generacional. Como consecuencia de ello, hay mucha menor presión hacia los gobiernos.

Entre los países también se genera una nueva brecha de dependencia tecnológica. Por ejemplo, entre los que pueden tener una «nube» propia (almacenamiento de datos de manera virtual) y los que dependen de «nubes» administradas por terceros. ¿Cuántos países pueden decir «en mi país la “nube” va a ser local»? ¿Cuántos van a poder hacer la inversión para que su «nube» sea local? En Europa sí, en Estados Unidos sí, en Corea y Japón sí, pero ¿qué pasa con países como Vietnam, Laos, Camboya o Malasia?

Ian Brown: Todavía está por verse el impacto de las inversiones a gran escala realizadas por un número reducido de compañías que están construyendo sistemas de recopilación de datos y aprendizaje automático a escala planetaria. Esto ocurre incluso antes de que internet de las cosas, los automóviles conectados, las ciudades inteligentes y otras manifestaciones de un capitalismo vigilante con esteroides se conviertan en un fenómeno generalizado. Evgeny Morozov7 está en lo correcto al puntualizar que los sectores industriales y gubernamentales alrededor del mundo se están volviendo altamente dependientes de los servicios desarrollados por estas herramientas.

[ … ]

Los expertos participantes de esta consulta fueron:

  • Daniela Trucco, oficial de asuntos sociales de la División de Desarrollo Social, Comisión Económica para América Latina y el Caribe (CEPAL, Naciones Unidas), Chile.
  • Ian Brown, director científico del Departamento de Medios Digitales, Cultura, Medios de Comunicación y Deportes, Gobierno del Reino Unido.
  • John Moravec, fundador de Education Futures, Estados Unidos.
  • Jonathan Bright, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.
  • Jordi Adell, profesor del Departamento de Educación de la Universitat Jaume I, España.
  • Luci Pangrazio, investigadora de la Facultad de Artes y Educación, Deakin University, Australia.
  • Martin Hilbert, profesor de la Universidad de California, Davis, California, Estados Unidos.
  • Miguel Brechner, presidente del Plan Ceibal, Uruguay.
  • Monica Bulger, investigadora principal del Future of Privacy Forum, Estados Unidos.
  • Neil Selwyn, profesor de la Facultad de Educación de la Universidad de Monash, Australia.
  • Taha Yasseri, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.

  1. Michel Foucault, Power/Knowledge: Selected Interviews and Other Writings 1972-1977 (Londres: Harvester Press, 1972).
  2. Los textos de las entrevistas corresponden a un extracto de algunas de las respuestas recabadas. Las respuestas de algunos de los participantes fueron traducidas. Algunas de ellas han sido editadas y condensadas para privilegiar la claridad.
  3. Mark Andrejevic, «The Big Data Divide», International Journal of Communication 8 (2014): 1673- 1689.
  4. Finn Brunton y Helen Nissenbaum, Obfuscation. A User’s Guide for Privacy and Protest (Cambridge: The MIT Press), accedido el 27 de agosto de 2018, https://mitpress.mit.edu/books/obfuscation.
  5. Elizabeth Dubois y Grant Blank, «The echo chamber is overstated: the moderating effect of political interest and diverse media», Information, Communication & Society 21, n.o 5 (4 de mayo de 2018): 729-45, https://doi.org/10.1080/1369118X.2018.1428656.
  6. Jeffrey Gottfried y Elisa Shearer, «News Use Across Social Media Platforms 2016», Pew Research Center’s Journalism Project, 26 de mayo de 2016, http://www.journalism.org/2016/05/26/news-use-across-social-media-platforms-2016/.
  7. Evgeny Morozov, «Who’s the True Enemy of Internet Freedom – China, Russia, or the US?», The Guardian, 2015, sec. Opinion, https://www.theguardian.com/commentisfree/2015/jan/04/ internet-freedom-china-russia-us-google-microsoft-digital-sovereignty.


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.

© Cristóbal Cobo Romani. © Fundación Santillana, 2019, para esta edición. ISBN: 978-84-680-5430-8. Cómo citar este libro: Cobo, Cristóbal (2019): Acepto las Condiciones: Usos y abusos de las tecnologías digitales, Fundación Santillana, Madrid.

“Usted es libre de: Compartir: copiar y redistribuir el material en cualquier medio o formato; Adaptar: remezclar, transformar y crear a partir del material. Bajo los siguientes términos: Atribución: Usted debe darle crédito a esta obra de manera adecuada, proporcionando un enlace a la licencia e indicar si se han realizado cambios. No Comercial: Usted no puede hacer uso del material con fines comerciales o de lucro. Compartir Igual: Si usted mezcla, transforma o crea nuevo material a partir de esta obra, usted podrá distribuir su contribución siempre que utilice la misma licencia que la obra original. El licenciante no puede revocar estas libertades en tanto usted siga los términos de la licencia.”

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266