[2] Acepto las condiciones, Capítulo 4: Salir de la era de la ingenuidad (Cristóbal Cobo)

with No Comments

A través del panoptismo apunto a un conjunto de mecanismos que operan en el interior de todas las redes de procedimientos de los que se sirve al poder. El panoptismo ha sido una invención tecnológica en el orden del poder, como la máquina de vapor en el orden de la producción. Esta invención tiene esto de particular: que ha sido utilizada en un principio en niveles locales: escuelas, cuarteles, hospitales. En ellos se ha hecho la experimentación de la vigilancia integral.  — Foucault, M; 1980


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.
Capítulo 4. Salir de la era de la ingenuidad.

(p. 135-139.)

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266


Segunda Pregunta: ¿cuáles son las «nuevas» formas de poder y control en la era digital y de qué manera generan nuevas periferias (formas de exclusión) en la sociedad?

Luci Pangrazio: Nuevas formas de poder y control han surgido como resultado del procesamiento automatizado y algorítmico de los datos personales. Los operadores de plataformas determinan quién tendrá acceso a los datos personales de los usuarios, ya sean agentes intermediarios de datos, anunciantes o aquellos con fines más nefastos, como la firma británica de consultoría Cambridge Analytica, que pudo utilizar los datos personales de las personas para manipular su opinión política. Este poder permite a los operadores de plataformas y anunciantes no solo perfilar y categorizar individuos, sino también permitir o denegar el acceso a bienes y servicios particulares.

Ejemplo de ello es el trabajo de Cathy O’Neil (2016), que ha demostrado cómo esto puede tener un profundo impacto en la vida de las personas. Puede afectar a las posibilidades de un individuo para obtener un trabajo, recibir un préstamo o incluso su elegibilidad para beneficiarse de la libertad condicional. Lo que más preocupa es que estas nuevas formas de poder y control están en gran parte oscurecidas porque el procesamiento algorítmico es una «caja negra»8. Es decir, no tenemos forma de saber si estos procesos son justos. Por ejemplo, a un cliente se le puede negar un préstamo de un banco, pero es prácticamente imposible descubrir por qué se tomó esta decisión.

Martin Hilbert: La manera más común de realizar la manipulación de una campaña política es lo que se llaman las «burbujas de filtro» (cuando los sitios web utilizan algoritmos para asumir de forma selectiva la información que un usuario desearía ver). En la política especialmente es muy fácil. Por ejemplo, si yo identifico 60 promesas que cada político tiene en su agenda, y concluyo que tú estás de acuerdo con dos de estas promesas, las otras 58 nunca te las voy a mostrar y tú no lo vas a saber. Estas «burbujas de filtro» están bien encapsuladas, solamente ves lo que te debería llegar y tú después piensas «mira qué bien este candidato, yo estoy completamente de acuerdo con todo lo que veo», pero tú estás viendo dos de 60 y al final acabas votando por él.

Lo que hace Facebook es crear estas «burbujas de filtro» para empresas, y tú como persona lo puedes utilizar. Entras a Facebook y pides exactamente un determinado perfil de personas. Es el negocio de la publicidad hoy en día. Los políticos hacen lo mismo. Yo tengo este mensaje y quiero que llegue exactamente a esta persona, ese es el negocio en que está Facebook. Y la campaña de Trump lo mismo, gastó 70 millones de dólares en algo que es totalmente legal. Esta es la personalización en el marketing, te damos exactamente lo que tú necesitas. Para el comercio privado, para las empresas, esto es muy bueno, pero para la democracia no estoy tan seguro.

Ian Brown: Una gran cantidad de poder está en manos de Google, Amazon, Microsoft y Facebook, pero ¿cómo utilizan ese poder, y en qué medida podrían ser limitados por los Estados y la sociedad civil? Esa será una pregunta clave de este siglo y la evidencia que tenemos hasta el momento es mixta. Hay acciones valiosas, como la Global Network Initiative, sin embargo, prácticas corporativas como los aparentes planes de Google por censurar las búsquedas en China, y la débil respuesta de Facebook a las campañas de desinformación rusas dirigidas a las elecciones, no nos permiten mucho optimismo.

Los Estados están haciendo declaraciones cada vez más fuertes sobre la necesidad de regulación, pero fuera de la Unión Europea no estoy seguro de cuán efectivas estén siendo. Creo que esto se debe a que los responsables de las políticas y los reguladores han comprendido estos temas muy lentamente, frente a empresas tecnológicas muy rentables que han aprendido a hacer lobby y a ganar poder político muy rápidamente.

Monica Bulger: La atención es una de las formas más poderosas de poder y control en la era digital. Tristan Harris es un defensor de un diseño más ético de la tecnología. Harris explica que en el Laboratorio de Tecnología Persuasiva de la Universidad de Stanford se enseña a los desarrolladores de servicios digitales a utilizar el feedback positivo y social como un incentivo para mantener a las personas en sus plataformas: los «me gusta» de Facebook, los rankings de la información más buscada en Google, el recuento de Snapchat sobre los días consecutivos en línea, los seguidores en Twitter, los «me gusta» y los retweets. Todo esto refleja una estrategia psicológica, pero el problema es que manipular a las personas a través de sus necesidades de aceptación, validación y atención crea un espacio fértil para manipularlas más allá del simple uso de tecnología, en prácticas, por ejemplo, como votar, comprar y otros tipos de decisiones.

Jordi Adell: Las brechas son manifestaciones de poder. Poder, por ejemplo, para diseñar y masificar aplicaciones o para hacernos utilizar ciertos servicios de internet. Se crea, por una parte, una forma de monetizar y de convertir en dinero la información y los datos, y por otra parte una manera de influir políticamente en la gente. El escándalo Facebook- Cambridge Analytica y las formas de desinformación adoptadas para manipular la opinión de las personas son un claro ejemplo de ello. Frente a la idea ingenua de «los anunciantes tienen mis datos para ofrecerme productos que me interesan», lo que en realidad observamos es que permite diferentes formas de manipulación.

Taha Yasseri: Poder y control son conceptos centrales en las sociedades humanas, pero históricamente se han relacionado con la geografía. Para tener poder y control sobre las sociedades había que conquistar un lugar y un espacio físico. En esta era digital, lo que es fundamentalmente nuevo e interesante es la falta de necesidad de presencia física. Puede explotarse y controlar desde lejos y sin necesidad de correr el riesgo de estar allí presente. Es un nuevo tipo de guerra que ocurre más allá de las fronteras geográficas. Las ecuaciones de poder tradicionales incluían tener acceso a océanos o el poder de navegar alrededor del globo. Hoy lo que importa es tu ancho de banda, tu capacidad de competencia, el número de personas que pueden ayudarte a codificar o ejecutar bots. Estos son los principales factores en nuestros días, en lugar de la cantidad de barcos que tienes, o dónde están tus fuerzas militares.

John Moravec: Me gustó mucho el trabajo de Douglas Rushkoff (autor del libro Program or Be Programmed: Ten Commands for a Digital Age9), que escribió sobre este tema hace casi una década. Esta idea de programar o ser programado es interesante. Ahora estamos programando la cultura. Pareciera que la gente está abierta a la idea de construir un mundo que no está muy conectado a la realidad. La gente parece estar bien viviendo en cámaras de eco o de resonancia (echo chambers) de los medios sociales. Creo que la gente busca la comodidad que ofrecen estas cámaras de eco a través de los medios sociales. En este contexto, confundir las noticias falsas es una manera muy conveniente de evitar el desafío de pensar o el reto de autoevaluarse. Una pregunta crítica que debemos hacernos es: ¿no nos conviene más que nos programen? En vez de pensar por nosotros mismos que nos digan qué pensar. El estar sumergidos entre más y más información, creo que puede hacer que la gente termine por sentirse abrumada. En el fondo a mucha gente le agrada la idea de estar controlada.

Daniela Trucco: Díaz Anadon y otros (2015)10 señalan que los sistemas de innovación manejados por los mercados se caracterizan por tener problemas en la distribución de poder, que se reflejan en que las necesidades de los más marginalizados y de las futuras generaciones no están habitualmente consideradas.

La automatización de procesos, la robótica y la inteligencia artificial tienen el potencial de afectar al menos algunos sectores productivos, lo que implica incertidumbre respecto de lo que ocurrirá con los y las trabajadores/as de tareas más rutinarias en aquellos sectores que se verán más afectados por estos cambios, generando desempleo y/o precarización laboral11. Por otra parte, la irrupción de los nuevos modelos de negocios de las llamadas empresas plataforma y la «uberización» de la economía imponen nuevos desafíos no solo para las políticas de competencia, sino también para las políticas laborales. Se estipula que esta es una tendencia hacia la precarización del empleo por la pérdida de derechos y beneficios laborales al cambiar la relación entre empleador y empleado tradicional y formal por una de mayor flexibilidad y ambigüedad.

Neil Selwyn: Podría decirse que las «nuevas» siguen siendo las mismas viejas formas de poder y control que siempre han existido. Hemos visto el surgimiento de la cooperación transnacional, el declive de los Estados, el ascenso de las clases técnicas sobre los liderazgos tradicionales. Si nos fijamos en Silicon Valley, por ejemplo, se puede apuntar que es una constelación diferente de actores, pero de alguna manera son los mismos viejos intereses y agendas. Vemos la emergencia de una «plataformización de la sociedad», la idea de que las plataformas se han convertido en intermediarias centrales para amplificar el poder y el control. Hoy las redes son enormes y todo se ve afectado de manera casi instantánea y a gran escala. El texto de Deleuze12 sobre «sociedades de control» profundiza sobre una agenda, infraestructuras y formas de control basadas en datos.

[ … ]

Los expertos participantes de esta consulta fueron:

  • Daniela Trucco, oficial de asuntos sociales de la División de Desarrollo Social, Comisión Económica para América Latina y el Caribe (CEPAL, Naciones Unidas), Chile.
  • Ian Brown, director científico del Departamento de Medios Digitales, Cultura, Medios de Comunicación y Deportes, Gobierno del Reino Unido.
  • John Moravec, fundador de Education Futures, Estados Unidos.
  • Jonathan Bright, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.
  • Jordi Adell, profesor del Departamento de Educación de la Universitat Jaume I, España.
  • Luci Pangrazio, investigadora de la Facultad de Artes y Educación, Deakin University, Australia.
  • Martin Hilbert, profesor de la Universidad de California, Davis, California, Estados Unidos.
  • Miguel Brechner, presidente del Plan Ceibal, Uruguay.
  • Monica Bulger, investigadora principal del Future of Privacy Forum, Estados Unidos.
  • Neil Selwyn, profesor de la Facultad de Educación de la Universidad de Monash, Australia.
  • Taha Yasseri, investigador del Instituto de Internet de la Universidad de Oxford, Reino Unido.

  1. Frank Pasquale, «The Black Box Society. The Secret Algorithms That Control Money and Information», 2015, http://www.hup.harvard.edu/catalog.php?isbn=9780674368279.
  2. Douglas Rushkoff, Program or Be programmed: Ten Commands for a Digital Age, Or Books (New York: Or Books, 2010).
  3. Laura Diaz Anadon et al., «Making Technological Innovation Work for Sustainable Development» (Estados Unidos: Harvard Kennedy School, 1 de diciembre de 2015), https://doi.org/10.13140/ RG.2.1.3796.7122.
  4. Amalia Palma, «Impacto social de la cuarta revolución tecnológica» (2017).
  5. Gilles Deleuze, «Postscript on the Societies of Control», The MIT Press, 1992.


Acepto las Condiciones. Usos y abusos de las tecnologías digitales/Cristóbal Cobo.

© Cristóbal Cobo Romani. © Fundación Santillana, 2019, para esta edición. ISBN: 978-84-680-5430-8. Cómo citar este libro: Cobo, Cristóbal (2019): Acepto las Condiciones: Usos y abusos de las tecnologías digitales, Fundación Santillana, Madrid.

“Usted es libre de: Compartir: copiar y redistribuir el material en cualquier medio o formato; Adaptar: remezclar, transformar y crear a partir del material. Bajo los siguientes términos: Atribución: Usted debe darle crédito a esta obra de manera adecuada, proporcionando un enlace a la licencia e indicar si se han realizado cambios. No Comercial: Usted no puede hacer uso del material con fines comerciales o de lucro. Compartir Igual: Si usted mezcla, transforma o crea nuevo material a partir de esta obra, usted podrá distribuir su contribución siempre que utilice la misma licencia que la obra original. El licenciante no puede revocar estas libertades en tanto usted siga los términos de la licencia.”

Este libro se puede descargar en:   www.aceptolascondiciones.com

CC BY NC SA 266