[3] Acepto las condiciones, Capítulo 4: Salir de la era de la ingenuidad (Cristóbal Cobo)

with No Comments

A través del panoptismo apunto a un conjunto de mecanismos que operan en el interior de todas las redes de procedimientos de los que se sirve al poder. El panoptismo ha sido una invención tecnológica en el orden del poder, como la máquina de vapor en el orden de la producción. Esta invención tiene esto de particular: que ha sido utilizada en un principio en niveles locales: escuelas, cuarteles, hospitales. En ellos se ha hecho la experimentación de la vigilancia integral.  — Foucault, M; 1980


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.
Capítulo 4. Salir de la era de la ingenuidad.

(p. 140-144.)

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266


Tercera Pregunta: ¿cuáles son las acciones y estrategias necesarias para reducir las actuales asimetrías de información que se producen en la era de los datos masivos?

Martin Hilbert: Si vendes fruta, algún día te van a robar manzanas. Si es ilegal, la policía va a intervenir. Hoy la policía también tiene que tener hackers y entender este tipo de crímenes digitales.

Miguel Brechner: Hoy se genera una brecha cada vez más grande entre los gobiernos (las estructuras de regulación) y las empresas tecnológicas. La velocidad de los cambios tecnológicos es muy acelerada. Como consecuencia, los gobiernos tratan de regular, pero están avanzando siempre desde atrás. ¿Cuántos años va a demorar hasta que los Estados entiendan las cosas al mismo nivel de las empresas? Porque ahí está la asimetría. La velocidad de cambio en estos momentos es tan rápida que los gobiernos, por más que quieran ajustar algunas cosas, a esa acelerada velocidad les resulta imposible. Como consecuencia, se genera una brecha entre los que producen y los que no producen (datos, contenidos, tecnologías, etc.).

Aquí hay un tema tecnológico y de control y tengo mis dudas de que los Estados hoy en día estén en condiciones de hacer cumplir las normas. Hoy se necesita contar con un Estado altamente sofisticado tecnológicamente para verificar todos estos conflictos. Porque si te dicen «estos son mis algoritmos», ¿cómo el Estado verifica qué hay detrás de estos algoritmos? Solo imaginemos ¿cuánta gente se necesitaría tener trabajando en el Estado para enfrentar estos problemas? No necesariamente se tiene la capacidad de hacerlo, salvo que se contrate a los hackers éticos más grandes del mundo. De ese modo el Estado podría fiscalizar si las multinacionales cumplen las políticas.

John Moravec: En lo que respecta a las políticas, no creo que haya una solución simple en ninguno de estos casos. De partida creo que necesitamos un cambio en nuestras perspectivas. Las desigualdades de información se crean cuando los sistemas están diseñados para atender solo a grupos específicos de personas. Necesitamos crear estrategias para que los individuos y las comunidades aprovechen el uso de la información y los datos tanto como sea posible. Necesitamos encontrar formas para que las personas creen aplicaciones (apps), para que los individuos construyan sus plataformas, para que las personas creen sistemas en lugar de convertirse en consumidores de los sistemas hechos por otras personas. Desde un enfoque de políticas, el desafío está en cómo facultamos a las personas a construir cosas y obtener las herramientas que necesitan. Esa es una excelente manera de romper algunas de las inequidades existentes.

Neil Selwyn: Siendo positivo, apuntaría a la clara necesidad de una regulación estatal y gubernamental. El Reglamento General de Protección de Datos (GDPR, en inglés) de la UE es una medida interesante y parece estar teniendo algunos resultados positivos, al menos en el corto plazo. Creo que hay un apetito por la regulación estatal. Hemos pasado a una especie de tercera fase en la que incluso algunas empresas transnacionales y grandes empresas tecnológicas reconocen que es necesario que haya algún tipo de regulación. Si soy negativo, y cada vez me siento más negativo, no creo que haya nada significativo que se pueda hacer en este momento más allá de fomentar la conciencia colectiva sobre estos temas. Las cuestiones que podemos identificar no son realmente cuestiones que los gobiernos o Estados puedan reconocer y actuar. Son asuntos extremadamente complejos que van más allá de la idea de estructura y agencia de los gobiernos del siglo XX en términos de naciones y sociedades. Lo primero es generar conversaciones y reconocimientos comunes sobre los problemas que debemos abordar de una manera más crítica y equilibrada. El problema es que no creo que haya voluntad pública para que esto suceda en este momento, particularmente entre la clase media y aquellos que realmente se benefician de la tecnología. Nuestras vidas están llenas de plataformas, sistemas y medios digitales que nos benefician individualmente. ¿Somos incapaces de cambiar las cosas a nivel colectivo? Puede decirse que necesitamos un despertar radical y colectivo de estos temas. Un poco como sucedió con el cambio climático, pero en ese caso el proceso ha sido increíblemente lento. Hay muchos intereses creados contra los que hay que luchar tan solo para poner los temas sobre la mesa.

Luci Pangrazio: Las plataformas digitales deben estar bajo un mayor escrutinio por parte del gobierno. Muchas de las nuevas formas de poder y control surgen como resultado de procesos intrincados y complejos que operan a nivel de sistema, que son difíciles de comprender para el individuo, y mucho menos para poder hacer algo al respecto. Los gobiernos deberían responsabilizar a estas grandes compañías para que garanticen el cumplimiento de su responsabilidad corporativa a fin de proteger la privacidad y la seguridad de sus clientes.

También necesitamos una mayor transparencia en la forma en que se procesan los datos. ¿Por qué la gente común no puede analizar los datos y algoritmos que se utilizan para tomar decisiones sobre ellos? Una mayor comprensión pública de cómo se generan, capturan y reutilizan los datos es esencial si queremos corregir este desequilibrio de poder. Esto comienza con la educación en las escuelas a través de programas diseñados para desarrollar alfabetizaciones de datos, pero estos temas deben ser llevados a la conciencia pública.

Necesitamos crear conciencia y aumentar la comprensión crítica a través de más debates públicos y programas sobre estos temas. ProPublica’s “Breaking the Blackbox”13, Note to Self’s “The Privacy Paradox”14 o MyData Local Hubs15 son todos buenos ejemplos del tipo de concienciación que debe producirse.

Daniela Trucco: Aprovechar los beneficios de la era digital es un desafío para la política social que requiere poner en el centro a las personas, y en especial a quienes ya han quedado atrás con los avances tecnológicos que se han expandido en las últimas décadas. Pensar en las habilidades y capacitación necesarias es clave para no dejar a nadie atrás, considerando el ciclo de vida, la pertenencia étnica y características de género; ejes que van más allá de las diferencias de ingresos económicos. Todas estas dimensiones tienden a combinarse y generar núcleos de exclusión, que en relación con las tecnologías no solo se resuelven con políticas de masificación de acceso, ni con una concepción sobre «grupos vulnerables». Hay que trabajar sobre políticas de inclusión. Es fundamental el rol de los sistemas educativos y de formación a lo largo de la vida.

En términos muy generales, puede afirmarse que el proceso de apropiación de las tecnologías requiere que: las personas tengan la motivación necesaria para acceder y usarlas con ciertos propósitos relevantes en sus vidas; que tengan la posibilidad material de acceder a los dispositivos y servicios tecnológicos; que tengan las habilidades necesarias para hacer un uso significativo de los mismos y, por último, que hagan uso y que se traduzca en resultados tangibles para sus vidas16.

Ian Brown: Creo que precisamos de una acción más fuerte y coordinada del Estado. Los pasos que dio la Unión Europea en protección de datos y el derecho de la competencia son un buen comienzo. El Consejo Europeo se ha modernizado en la convención de protección de datos y está ganando popularidad en los Estados que no forman parte de la Unión Europea, lo cual es una señal positiva. Para mí, el beneficio que generó la indignante interferencia de Rusia en las recientes elecciones de Estados Unidos, las europeas y otras elecciones, evidencia la necesidad de reformas urgentes de las leyes electorales y de las campañas. Espero que coaliciones internacionales integradas por la sociedad civil como European Digital Rights (EDRi) se fortalezcan y se conviertan en acciones integradas en las campañas políticas alrededor del mundo.

Taha Yasseri: Soy muy escéptico cuando se piensa en regulaciones globales como GDPR. Es ridículo crear una regulación nacional o internacional y que nadie sepa realmente lo que hace. Estoy seguro de que para el 99 % de las personas GDPR se traduce en un montón de ventanas emergentes en el navegador cuando se usa internet. Creo que debemos devolver el poder a los individuos para que puedan decidir lo que quieren hacer con sus datos, tanto a nivel técnico y de infraestructura como a nivel político y conceptual. Creo que se necesita un cambio en la manera en que pensamos sobre los datos. Se piensa en servicios y sistemas centralizados y globalizados, pero tenemos que pensar en una infraestructura que permita a las personas compartir sus datos de la forma que deseen en diferentes niveles y darles acceso diferente a distintas organizaciones. El paso más importante aquí es la educación, que las personas sepan qué significan todas estas conversaciones, qué significa mostrar sus datos, qué significa dar acceso a los datos a diferentes sectores, cómo podemos prevenir el abuso y cómo podemos confiar.

Monica Bulger: Creo que la alfabetización crítica, digital, mediática e informacional tiene un rol clave en la lucha de la desigualdad informacional. Sin embargo, en los formatos actuales la formación de estos alfabetismos y habilidades no se corresponde con el poder potencial de la manipulación existente, sobre todo en un contexto en que las plataformas nos brindan exactamente la información que queremos, basada en la analítica de nuestros datos y en la comprensión de nuestras vulnerabilidades psicológicas.

Jordi Adell: Es una lucha desigual entre muchísimos muy débiles, y unos pocos muy poderosos. La acción se debería estructurar en diferentes ámbitos, a nivel individual y colectivo desde la educación. Si la gente no es consciente de que es manipulada, difícilmente puede contraprogramar y salir de esa manipulación. Es necesario redefinir la competencia digital. Hay que superar el viejo esquema de reducir las competencias instrumentales al manejo de la tecnología, y ampliar las competencias ético-legales (por ejemplo, la piratería) a los aspectos sociales, económicos y políticos. Por otra parte, los responsables políticos tienen la obligación de ofrecer información veraz y de proteger a la ciudadanía frente al poder inmenso de las empresas tecnológicas. Es necesario ampliar nuestro entendimiento de qué es la tecnología en general, no solo la digital, en síntesis, comprender el poder que tiene la tecnología sobre nosotros y que dicho poder sí se puede resistir con más información, más formación y con acción política.


Los expertos participantes de esta consulta fueron:

  • Daniela Trucco, oficial de asuntos sociales de la División de Desarrollo Social, Comisión Económica para América Latina y el Caribe (CEPAL, Naciones Unidas), Chile.
  • Ian Brown, director científico del Departamento de Medios Digitales, Cultura, Medios de Comunicación y Deportes, Gobierno del Reino Unido.
  • John Moravec, fundador de Education Futures, Estados Unidos.
  • Jonathan Bright, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.
  • Jordi Adell, profesor del Departamento de Educación de la Universitat Jaume I, España.
  • Luci Pangrazio, investigadora de la Facultad de Artes y Educación, Deakin University, Australia.
  • Martin Hilbert, profesor de la Universidad de California, Davis, California, Estados Unidos.
  • Miguel Brechner, presidente del Plan Ceibal, Uruguay.
  • Monica Bulger, investigadora principal del Future of Privacy Forum, Estados Unidos.
  • Neil Selwyn, profesor de la Facultad de Educación de la Universidad de Monash, Australia.
  • Taha Yasseri, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.

  1. Julia Angwin y Surya Mattu, «Breaking the Black Box: What Facebook Knows About You», text/html, ProPublica, 28 de septiembre de 2016, https://www.propublica.org/article/breaking-the-black-box-what-facebook-knows-about-you.
  2. Project wync, «Privacy Paradox from the Note to Self Podcast», Privacy Paradox, 2018, http://privacyparadox.com.
  3. My Data, «MyData Hubs», MyData.org, 2018, https://mydata.org/hubs/.
  4. Ignacio Jara, «Informe de Cooperación Técnica a la Estrategia de Inclusión Digital de Costa Rica», Informe de Cooperación. No publicado, 2017.


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.

© Cristóbal Cobo Romani. © Fundación Santillana, 2019, para esta edición. ISBN: 978-84-680-5430-8. Cómo citar este libro: Cobo, Cristóbal (2019): Acepto las Condiciones: Usos y abusos de las tecnologías digitales, Fundación Santillana, Madrid.

“Usted es libre de: Compartir: copiar y redistribuir el material en cualquier medio o formato; Adaptar: remezclar, transformar y crear a partir del material. Bajo los siguientes términos: Atribución: Usted debe darle crédito a esta obra de manera adecuada, proporcionando un enlace a la licencia e indicar si se han realizado cambios. No Comercial: Usted no puede hacer uso del material con fines comerciales o de lucro. Compartir Igual: Si usted mezcla, transforma o crea nuevo material a partir de esta obra, usted podrá distribuir su contribución siempre que utilice la misma licencia que la obra original. El licenciante no puede revocar estas libertades en tanto usted siga los términos de la licencia.”

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266