Fuente: Las humanidades por venir: políticas y debates en el siglo XXI / José Goity… [et al.]; coordinación general de Sandra Contreras; José Goity -1a ed- Rosario: Humanidades y Artes Ediciones – HyA ediciones, 2020.

“Los trabajos e imágenes contenidos en esta obra y que no pertenecen al dominio público se publican bajo Licencia Creative Commons Atribución – NoComercial – SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0).”

 

Restos actuales. Desafíos digitales para las humanidades
Nicolás Quiroga, Universidad Nacional de Mar del Plata – CONICET

 

Ideología

El título de este capítulo evoca al libro de Erich von Däniken, Recuerdos del futuro, un texto sobre la importancia de los extraterrestres en la historia mundial. Ese libro partía de un extrañamiento: había en el mundo objetos “fuera de lugar”. Y advertía que era más racional comprender su naturaleza como futura y  extraterrestre que seguir insistiendo en su carácter humano. No recomiendo el libro, solo retengo esa idea porque algunas tecnologías del presente a veces son pensadas del mismo modo. Por eso mi pregunta inicial tiene esta forma: ¿cómo serán los archivos futuros, conformados por restos actuales? ¿Serán las  grandes cantidades de datos y metadatos que circulan hoy parte de los archivos futuros? Casi inmediatamente me pregunto si esos datos son socialmente significativos, si la repetición incansable de likes, las listas interminables de compras en supermercados o los miles de tuits agraviantes y sus millones de retuits, significan algo más allá de su monetización. La pregunta presupone una afinidad ímproba: lo que nos pasa estará en los archivos del futuro. Pero basta con interrogar a esos grandes términos (la  Historia, el Archivo) para comprender que sus relaciones solo pueden ser supuestas. De la incertidumbre nos rescata la certeza de que los hilos que conectan el presente y el futuro, las leyes de los hechos actuales y la ley del archivo futuro, son los de la ideología.

Con frecuencia creciente escuchamos y decimos que los medios digitales, especialmente la web y las redes sociales, son cada vez más  importantes en nuestras vidas; que la dicotomía actual/virtual ya no palpita como en los noventa del siglo XX. También a menudo argumentos como esos se utilizan para legitimar unos temas de investigación sobre otros: si todo el poder lo tienen los medios digitales, entonces son relevantes las preguntas que los tengan por objeto. Pero no es necesario fundar la necesidad de ocuparse de los desafíos que le imponen a las humanidades los medios y mediaciones digitales en su vigencia o extensión. Esa decisión puede incluso contribuir a instalar presupuestos, a naturalizar internet1 –el internet-centrismo sobre el que Evgeny Morozov (2016) ha escrito mucho–. ¿Han dejado de existir brechas digitales? ¿Son la misma, la internet de 1992 y la de 2019? ¿Es este panorama una ventana al futuro? Definitivamente no. Y, aun así, los desafíos digitales merecen ser atendidos por las humanidades en tanto devienen ideología y delimitan actividades como interpretar o significar. Es bajo ese supuesto que la pregunta sobre los archivos futuros adquiere densidad.En lo que sigue expondré en tres entradas aspectos de una reflexión  necesaria sobre datos, métodos y proyectos científicos.

Datos

¿De cuántos datos estamos hablando? Es un cálculo difícil de hacer porque es complicado hallar los datos sobre los datos y porque

________________________

1. También existen creencias de igual tono con otras tecnologías, por ejemplo, la fe en que el libro tal como lo conocemos nunca dejará de existir.

 

esa operación tiene algo de antojadiza y forzada. Exploremos a partir de una analogía. Tomemos como referencia el metro lineal de archivo, es decir, un metro lineal de papeles, unas hojas puestas de canto a lo largo de un metro, para graficarlo con alguna imprecisión. Y hagamos una conversión a su espectro digital: un metro lineal de archivo equivale a quinientos megas de información. Cuatro metros lineales, una pequeña estantería repleta de papeles, equivale a dos gigabytes de información, unos doscientos libros. Un disco rígido estándar tiene un terabyte. Los fondos del Ministerio del Interior en el Archivo General de la Nación de Argentina tienen casi novecientos metros lineales, es decir medio disco rígido.2

Twitter producía doce terabytes por día en 2010 (Naone, 2010) cuando estaba en los cincuenta millones de tuits diarios (en el 2019 decuplicó este valor3); un Boeing 737 en un vuelo de seis horas producía, hace unos años, doscientos cuarenta terabytes (Pohl, 2015); Facebook produce más de cuatro mil terabytes por día (Desjardins, 2019). cinco mil terabytes o cinco petabytes de información había en los discos que mostró la joven programadora que logró el reciente y muy publicitado retrato de un agujero negro. (La materialidad de esa cifra en la foto de Katie Bouman abrazando algunos de los discos rígidos donde fue almacenada la información astronómica se reveló más interesante para lxs participantes del foro sobre datos en Reddit que el resultado de la investigación4.) Esos cinco petabytes suponen diez o quince veces más espacio que lo que

_________________________

2. En las unidades de medida sobreviven los ecos del trabajo mundano que las producen por necesidad. La referencia para estos demasiado imprecisos valores puede encontrarse en Gilheany (2000). Información sobre fondos documentales del Archivo General de la Nación Argentina en https://www.argentina.gob.ar/interior/archivo-general/contenidos/libros-de-fondos-documentales.Recuperado: 14 de agosto de 2019.
3. https://www.internetlivestats.com/twitter-statistics/ Recuperado: 14 de agosto de 2019.
4. https://www.reddit.com/r/DataHoarder/ Recuperado: 14 de agosto de 2019.

 

pueden ocupar todos los artículos académicos publicados desde mediados del siglo XVII (comenzando en 1665 con Le Journal des Sçavans) hasta el 2009: unos cincuenta millones (Jinha, 2010)5. Doscientos veinticinco petabytes guardaba, a finales de 2018, el archivo más grande de información meteorológica (Guerrini, 2019). Trescientos treinta petabytes de información posee el banco de datos del CERN, la organización europea para la investigación nuclear. De acuerdo con su propia presentación, el Centro produce más de cien petabytes por año y eso los obliga a desarrollar tecnologías que permitan el acceso a más de tres mil millones de archivos6. Los datos en el área de la salud abruman: para esta fecha rondan los mil seiscientos exabytes aproximadamente (Health Data Archiver, 2018).

¿Sirve de algo esa información cruda? ¿Qué nos dice su enumeración? Unos pocos minutos de cifras nos recuerdan el apartado sobre el fetichismo de la mercancía de Marx. En este asunto, nuestro saco de harina o nuestra chaqueta es el metro lineal de archivo. Creo que podemos alcanzar a percibir el tipo de imaginación que comienza a materializarse en la actualidad. Una época con muchos nombres y todos ellos  indicando formas relacionadas con lo digital, lo computacional. Algoritmo es un término ubicuo. Como ha mostrado Jonathan Sterne (2016), análogo/analógico son términos que a lo largo del siglo XX fueron reduciéndose en su significación al ritmo que le imponía su par ahora necesario: el término digital, también simplificado. El primer compromiso para responder entonces a la pregunta inicial es comprender cómo

________________________

5. En la actualidad, los artículos con referato suman aproximadamente 179 millones, de acuerdo con Semantic Scholar, una aplicación del Allen Institute for Artificial Intelligence para encontrar y analizar esos objetos. URL: https://www.semanticscholar.org/ Recuperado: 14 de agosto de 2019.
6. https://home.cern/science/computing/storage. Recuperado: 14 de agosto de 2019.

 

funcionan los algoritmos, en un doble sentido del término “funcionar”: saber qué hacen y cómo son funcionales a los procesos sociales en la actualidad (Beer, 2016). Como han indicado Boyd y Crawford (2012), “los datos nos necesitan”, es decir que no hablan por sí mismos. Pero unos años después de haber sido escrita, esa sentencia puede ser interpretada menos como una proclama que como una enrevesada expresión de deseo: necesitamos que los datos nos necesiten. Esa posibilidad se hizo cada vez más próxima a medida que los algoritmos capturaban y procesaban más datos, pero también a medida que la imaginación social disponía las habilidades de las máquinas en el retablo de la industria cultural: las torpezas del robot canino de Boston Dynamics (“Spot”) ya no se inscriben en la tradición de las películas de Buster Keaton sino que se figuran como breves antecedentes ominosos del ascenso de las máquinas. Publicistas y expertas han contribuido a la forja de esa imaginación técnica. La idea de algoritmo fue despegándose del sistema sociotécnico en el que surge y participa, incluso, en discursos que se proponen explicar las características mundanas del procesamiento algorítmico. El diagnóstico mil veces repetido de que vivimos en una black box society (Pasquale, 2015) y la intuición de que existe un cambio sustantivo en la programación y en el aprendizaje de las máquinas –de funciones que devuelven resultados a algoritmos que hacen algoritmos (Domingos, 2015)– potencian todavía más lo que David Beer, en su artículo ya citado, entiende como el “poder social” del algoritmo, esto es, su creciente separación de la ecología social que lo produce. En la misma dirección apunta Ziewitz (2015) cuando reflexiona sobre el “drama algorítmico”: la recursividad entre la capacidad productiva del algoritmo y la dificultad de comprender cómo hacen lo que hacen. También a Ziewitz la forma en que pensamos estos temas le recuerda otras  reificaciones, como las de “mano invisible” y la “selección del más apto”. La denuncia de los algoritmos o la crítica sobre su utilización para fines injustos, por momentos, se contradicen: ¿exigimos transparencia a las empresas que los utilizan? ¿Abogamos por el cambio de paradigma en la codificación? ¿Hacemos mejores algoritmos, como proponen algunas excelentes analistas (Terranova, 2017; O’Neil, 2018)? La pregunta para las humanidades todavía más urgente es ¿cómo estudiarlos?

Dice Domingos (2015) que los algoritmos, en la actualidad, no solo no son entidades escindibles de los datos (en tanto no funcionan bajo régimen de escasez de datos, y además producen esos mismos datos), sino que por otra parte podrían producir/ordenar esos datos sin esos rastros del poder que impregnan las clasificaciones, esos procedimientos humanos que también son recetas para producir hechos. ¿Cómo podemos comprender la opacidad de esos procedimientos que se promueven como máquinas de producir(se) e interpretar(se)? Para Ziewitz tres cuestiones se imponen: la agencia de los algoritmos, su inescrutabilidad y los aspectos éticos que implican su gestión. Kitchin (2017) por su parte sugirió estrategias para avanzar sobre el segundo aspecto, acaso el asunto del que dependen los otros dos. La inescrutabilidad se potencia debido a las condiciones de los algoritmos en la actualidad: son heterogéneos, privados, son parte de sistemas y redes, y actúan contingente y contextualmente. Kitchin propone algunas líneas posibles para desbrozar el hermetismo de los algoritmos: interpretar pseudocódigo, practicar ingeniería inversa, trabajar con diseñoras y programadoras, analizar cómo funcionan en el mundo.

La comprensión de las relaciones de los datos con la ideología debe considerar la discontinuidad fundamental en la codificación (programación), que tiene ya muchas décadas (Finn, 2018); lo que Adrian Mackenzie (2017) ha denominado, en unos de los libros más importantes para el análisis del “drama algorítmico”, el paso de diagramas lógico-simbólicos a diagramas algorítmico-estadísticos, acaso condensado en esa pieza mínima de código de los años cincuenta del siglo XX, el perceptrón, con la que una máquina aprende (entre comillas y en itálicas) procedimientos lógicos a partir del cotejo de pesos estadísticos.

La ideología de nuestro presente no está solo en la distopía de las máquinas pensantes y oponentes, sino también en la fetichización del algoritmo como algo creado por la humanidad, la fe en que la figura última de las tecnologías digitales es la de El Turco de von Kempelen, esa máquina de ajedrez que jugó contra Napoleón y que ocultaba una persona en su interior.

Archivo

Pero pasa algo curioso con los datos: son inaccesibles, o se pierden, o cambian sin dejar registro de esos cambios, o son privados, o son guardados de muchas y disímiles maneras. Por eso, entre otras cosas, no se ajustan a la idea tradicional de archivo. Son materiales, sí, pero están actualizados a través de capas de plataformas: sistemas operativos, programas, protocolos de intercambio, formatos de archivos, etc. (Owens, 2018). En cierto sentido, mutan por las máquinas o por la circulación que las tecnoentusiastas le imponen a las lógicas de estabilidad y originalidad, propias de una idea tradicional de archivo (De Kosnik, 2016). Se comprende por qué algunos proyectos han impulsado colectar información y promover el acceso a la misma, incluso cuando también se oponen firmemente a la cibervigilancia o apuestan por políticas de protección de datos privados. Archive Team, por ejemplo, es un grupo abierto que ha recuperado parcialmente contenidos de GeoCities, Friendster y muchos otros sitios dados de baja. Su editor en jefe, Jason Scott, mantiene además textfile.com, un sitio con datos de la época del modemismo. La premisa de estos equipos de rescate no responde del todo la pregunta sobre el futuro, más bien la desplaza: guardamos todo lo que podemos porque desconocemos las preguntas que surgirán en el futuro.

Los desafíos relacionados con el archivo y su plural alcanzan las áreas disciplinares de distinta manera y las problemáticas y enfoques han ido aumentando desde hace décadas (Pons, 2013). Pero esos conjuntos de temas relacionados con tecnologías, formatos, taxonomías, búsquedas y recuperación de datos son, por lo general, demasiado abstractos, demasiado lejanos a nuestro trabajo. Interrogarnos sobre los problemas de la investigación concreta puede afinar los modos en que concebimos conceptos o procedimientos relacionados con los archivos nacidos o renacidos digitales.

Sigamos en este escrito un ejemplo actual que es un archivo del pasado virtual y puede servir como campo de pruebas para responder la pregunta que propuse al comienzo de este artículo. GeoCities fue un servicio de hosting muy utilizado, creado en 1994 y cerrado en 2009 (su versión japonesa permaneció en línea hasta el 2019). No fue el único emprendimiento que permitió la creación de páginas web (Angelfire y Tripod fueron sus principales competidores), pero sí fue el más exitoso. En 1999, cuando Yahoo! compró la empresa e introdujo cambios significativos en su diseño, tenía más de 7 millones de usuarios registrados. Gracias al trabajo de Archive Team disponemos en la actualidad de una copia con una buena cantidad de las páginas web que integraban la ciudad de Geocities; y ese archivo se puede bajar en formato torrent o visitar en Internet Archive (186 millones de páginas tuvo Geocities cerca de su cierre definitivo). GeoCities es una ciudad organizada por barrios temáticos, los que a duras penas sepultan la heterogeneidad propia del período inicial de la web.

Ian Milligan (2019a), historiador canadiense, es uno de los que mejor ha pensado este archivo para la investigación histórica. Cualquier investigador/a que se interese en los años noventa del siglo XX podría considerar relevante esta documentación… si pudiera consultarla. No es fácil: una vez extendida en nuestros discos rígidos, esa enorme ciudad no nos dice mucho cuando queremos explorarla sin preguntas que amolden o escandan el corpus7. ¿Cómo “mirar”, “leer”, “buscar” en esas páginas/archivos? Tal como Carlo Ginzburg (2004) ha contado de su “conversación” con el catálogo de publicaciones de la UCLA, el momento de “dar golpes en la oscuridad” está ligado a las posibilidades de las personas de “derivar” las consultas, producir variables y riadas futuras en ese ejercicio intelectual del que forma parte la ejecución de queries contra una base de datos. Pero recorrer los directorios y subdirectorios de una copia de GeoCities, o surfear a través de las páginas web de ese  sitio en Internet Archive implica una forma imprecisa y unos contenidos que el diseño desplazó incalculablemente lejos de la cultura letrada. No hay curaduría; las preguntas no se hacen contra el fondo, contra la arquitectura precisa de una base de datos relacional. La sensación frente a millones de páginas web no es la misma que la que producen millones de páginas de archivos documentales. El “esencialismo de pantalla” (Montfort, 2004) y el de árbol de directorios son problemas iniciales y para “saltarlos” se nos han propuesto ejercicios de “lectura distante” (Moretti, 2015; Kirschenbaum, 2007) o macroanálisis (Jokers, 2013): uso (y problematización) de herramientas digitales para procesar datos. Es en el proceso de imaginar indicios y patrones que permitan afinar preguntas para leer el archivo de GeoCities, cuando el término “datos” se revela inestable: ¿es algo más que un repositorio corporativo de la cultura de masas finisecular?; y a la vez, “estabilidad” ¿no es un supuesto  primero lineal (el metro lineal de archivo) y luego multidimensional (la base de datos) con el que “leemos” el mundo?

____________________________
7. Podemos apreciar una vista en The Deleted City 3.0. URL: http://www.deletedcity.net/

 

El topic modeling, tal vez la metodología más conocida de las que promovidas por las humanidades digitales, nos devuelve recurrencias en forma de series de palabras asociadas a un tema, a partir de distintos algoritmos (el más conocido es el Latent Dirichlet Allocation [LDA])8. Probar el corpus de las ruinas de GeoCities contra ese algoritmo es un ejercicio fascinante y revelador; lo que revela no son sin embargo propiedades de los datos sino incógnitas y desafíos inscriptos en las herramientas de análisis. Aunque para algunas intelectuales estos ejercicios se muestren ineficaces y cuestionables (Fish, 2012a y 2012b) y para otrxs lo que hacen es exponer la importancia de otros aspectos del oficio, por ejemplo, la intuición (Brauer y Fridlund, 2013), las discusiones sobre los algoritmos y sobre las múltiples consultas a las que se lo someten, muestran una actividad cada vez más instalada, noble heredera de la “toma de notas”: la conversación con las máquinas –Schmidt (2012) es un
excelente ejemplo de esa deriva–.

La exploración de GeoCities no puede limitarse a producir “bolsas de palabras” y Milligan (2019b), junto con otrxs investigadorxs, ha propuesto cruzar este procedimiento semántico con análisis de redes para analizar links e imágenes, por ejemplo. Su exploración permitió la creación de una herramienta para analizar repositorios como el de GeoCities: Archives Unleashed Toolkit.9 Pero la curva de aprendizaje de Apache Spark, el motor sobre el que se asienta el programa, y el trabajo con la arquitectura Hadoop y el protocolo WARC para la gestión de archivos son arduos, razones por las que un instrumento creado para facilitar la práctica también puede acentuar el modo “caja negra” de las operaciones algorítmicas, alejándonos de la conversación y promoviendo la interpasividad.

______________________________
8. Un punto de partida muy recomendable para estos temas es la lección traducida al español en el sitio The Programming Historian, que por otro lado es un sitio imprescindible para explorar muchos otros asuntos relacionados con la historia digital, de Graham, Weingart y Milligan (2018): https://programminghistorian.org/es/lecciones/topic-modeling-y-mallet.
9. Archives Unleashed Project. URL: https://archivesunleashed.org/

 

La exploración de un archivo como el de GeoCities –restos rescatados del pasado de la red, posible futuro– nos sugiere que lo socialmente
significativo en el futuro se define un poco ahora y está relacionado con nuestra conversación con las máquinas.

Interpretación

¿Cómo podríamos entonces comprender el funcionamiento de lo digital y contribuir aún más a la forma que adoptarán los interrogantes sobre los datos masivos, tal como vienen haciendo algunas líneas de investigación vigentes? Aquí mi propuesta es menos ambiciosa y menos técnica que las que mencioné más arriba. No se trata de cambiar de tema de investigación o aprender métodos. No se trata de sostener que estos temas nos exigen reorientar nuestra atención y los ahora inexistentes fondos de investigación; no se trata tampoco de aprender a usar librerías de lenguajes de programación (que, como sugerí más arriba, podemos usar sin controlar lo que hacen, más bien admirando la belleza de lo que devuelven).

La propuesta tiene y no tiene que ver los desafíos digitales. En primer lugar: cualquier proyecto de investigación actual puede interrogarse sobre el impacto de lo digital en sus temas, abordajes o procedimientos. Será posible pensar entonces la producción de anticipaciones en proyectos, intervenciones ladinas y estratégicas hacia una comprensión del funcionamiento de lo digital, que no ocupen la centralidad que promueven los entusiastas de lo digital ni se apoyen en la histéresis de quienes deciden “seguir trabajando” como si nada hubiera pasado. Propone una falsa disyuntiva la discusión sobre programar o no programar. Codificar es una práctica próxima, aunque la hayamos alterizado, pero no es la única  manera de encarar el desafío digital.

En segundo lugar: hay que alentar instancias de aprendizaje menos basadas en la exposición de certezas y más interesadas en la presentación de problemas en nuestras actividades de investigación: desafíos concretos y exploración de posibles soluciones; prácticas mínimas,  especialmente relacionadas con la recolección de datos; otras experiencias de escritura (Burpee et. al., 2015).

Como bien ha sugerido Lovink (2019), no debemos cambiar una crítica radical por “mapeo” del impacto de la red y la producción de “visualizaciones” atractivas. El reto es comprender la significación de estos cambios tecnológicos que impactan social y analíticamente, pero eso implica interpretar cómo cristalizó esa separación entre datos y datos “digitales”, no simplemente usarlos o denunciarlos. Lo socialmente significativo para las humanidades actuales da forma a los restos actuales, y allí se instala la urgencia. Porque, si bien es cierto que “los datos nos necesitan”, al parecer no nos están necesitando tanto, es decir, no nos esperan.

REFERENCIAS BIBLIOGRÁFICAS

Beer, D. (2016) The social power of algorithms. Information, Communication & Society. 20(1), 1-13.
Boyd, D. y Crawford, K. (2012). Critical Questions for Big Data. Information, Communication & Society. 15(5), 662-679.
Brauer, R. y Fridlund, M. (2013). Historizing topic models: A distant reading of topic modeling texts within historical studies. En B. Nikiforova y
N. Nikiforova (Eds.), Cultural Research in the Context of “Digital Humanities”: Proceedings of International Conference, 3 al 5 de octubre de 2013, San Petersburgo.
Burpee, K. J.; Glushko, B.; Goddard, L. & Kehoe, I.; y Moore, P. (2015). “Outside the Four Corners: Exploring Non-Traditional Scholarly Communication”, Scholarly and Research Communication, 6, 2.
De Kosnik, A. (2016). Rogue Archives Digital Cultural Memory and Media Fandom. Cambridge, Estados Unidos: The MIT Press.
Desjardins, J. (2019). How Much Data is Generated Each Day? Visual Capitalist. Recuperado el 14 de agosto de 2019 de https://www.visualcapitalist.com/how-much-data-is-generated-each-day/
Domingos, P. (2015). The Master Algorithm: How the Quest for the Ultimate Leaming Machine Will Remake Our World. Nueva York, Estados Unidos: Basic Civitas Books.
Finn, E. (2018). La búsqueda del algoritmo. Imaginación en la era de la informática. Salamanca, España: Alpha Decay.
Fish, S. (2012a). The Digital Humanities and the Transcending of Mortality. New York Times, 9 de enero de 2012. Recuperado el 9 de agosto de 2019 de https://opinionator.blogs.nytimes.com/2012/01/09/the-digital-humanities-and-the-transcending-of-mortality/

_____(2012b). Mind Your P’s and B’s: The Digital Humanities and Interpretation.
New York Times, 23 de enero de 2012. Recuperado el 9 de agosto de 2019 de https://opinionator.blogs.nytimes.com/2012/01/23/mind-your-ps-and-bs-the-digital-humanities-and-interpretation/
Gilheany, S. (2000). Measuring Scanned Documents, Born-Digital Documents, & Digital Storage. ArchiveBuilders.com. Recuperado el 14 de Agosto del 2019 de https://web.archive.org/web/20051220014858/http://www.archivebuilders.com/whitepapers/index.html
Ginzburg, C. (2004). Conversar con Orión. En C. Ginzburg, Tentativas, 321-336. Rosario, Argentina: Prohistoria.
Graham, S.; Milligan, I. y Weingart, S. (2018). Exploring Big Historical Data: The Historian’s Macroscope. Londres, Reino Unido: Imperial College
Press.
Guerrini, F. (2019). Europe’s big weather supercomputer data center is about to leave UK. ZDNet.com. Recuperado el 14 de agosto de 2019 de https://www.zdnet.com/article/europes-big-weather-supercomputer-data-center-is-about-to-leave-uk/ Health Data Archiver (2018). Health Data Volumes Skyrocket, Legacy Data Archives On the Rise. Recuperado el 14 de agosto de 2019 de https://www.healthdataarchiver.com/health-data-volumes-skyrocket-legacy-data-archives-rise-hie/
Jokers, M. (2013). Macroanalysis: Digital methods and literary history. Chicago, Estados Unidos: University of Illinois Press.
Kirschenbaum, M. (2007). The Remaking of Readings: Data Mining and the Digital Humanities. Proceedings of the National Science Foundation Symposium on Next Generation of Data Mining and Cyber-Enabled Discovery for Innovation. Recuperado de: h http://www.cs.umbc.edu/~hillol/NGDM07/abstracts/talks/MKirschenbaum.pdf
Kitchin, R. (2017). Thinking critically about and researching algorithms. Information, Communication & Society. 20(1), 14-29.
Lovink, G. (2019). Tristes por diseño. Las redes sociales como ideología. Bilbao, España: Consonni.

Mackenzie, A. (2017). Machine Learners. Archaeology of a Data Practice. Cambridge, Estados Unidos: MIT Press.
Milligan, I. (2019a). Exploring Web Archives in the Age of Abundance: A Social History Case Study of GeoCities. En N. Brügger y I. Milligan, The SAGE Handbook of Web History. Londres, Reino Unido: SAGE Publications Ltd.
_____(2019b). History in the Age of Abundance? How the Web Is Transforming Historical Research. Montreal, Canadá: McGill-Queen’s University Press.
Montfort, Nick (2004). Continuous Paper: MLA. Recuperado de: http://nickm.com/writing/essays/continuous_paper_mla.html.
Moretti, F. (2015). Lectura distante. Buenos Aires, Argentina: Fondo de Cultura Económica.
Morozov, E. (2016). La locura del solucionismo tecnológico. Buenos Aires, Argentina: Katz.
Naone, Erica (2010). What Twitter Learns from All Those Tweets. MIT Technology Review. Recuperado el 14 de agosto de 2019 de: https://www.
technologyreview.com/s/420968/what-twitter-learns-from-all-thosetweets/
O’Neil, C. (2018). Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Madrid, España:  Capitán Swing Libros.
Owens, T. (2018). The Theory and Craft of Digital Preservation. Baltimore, Estados Unidos: Johns Hopkins University Press.
Pasquale, F. (2015). The Black Box Society: The secret algorithms that control money and information. Cambridge, Estados Unidos: Harvard University Press.
Pohl, Th. (2015). How Big Data Keeps Planes In The Air. Forbes. Recuperado el 14 de Agosto de 2019 de: https://www.forbes.com/sites/
sap/2015/02/19/how-big-data-keeps-planes-in-the-air/
Pons, A. (2013). El desorden digital. Guía para historiadores y humanistas. Madrid, España: Siglo XXI editores.
Schmidt, B. (2012). Words Alone: Dismantling Topic Models in the Humanities. Journal of Digital Humanities. 2(1).

Sterne, J. (2016). Analog. en B. Peters, Digital keywords: A vocabulary of information society and culture. Princeton, Estados Unidos: Princeton University Press.
Terranova, T. (2017). Red Stack attack! Algoritmos, capital y la automatización del común. En A. Avanessian y M. Reis (Comps.). Aceleracionismo. Estrategias para una transición hacia el postcapitalismo. Buenos Aires; Argentina: Caja Negra.
Ziewitz, M. (2015). Governing algorithms: Myth, mess, and methods. Science, Technology & Human Values. 41, 3-16.

_________________________________________________________________________________