Résumé

Dans une perspective dialectique, cet article cherche à saisir les fondements sociohistoriques des catégories centrales qui sont mobilisées dans le domaine de l’intelligence artificielle : la communication, la commande, le contrôle et l’information. L’intention est de poser les bases conceptuelles de l’élaboration d’une théorie critique de la gouvernance algorithmique en montrant comment les développements contemporains de l’intelligence artificielle participent d’une disqualification de la lettre au profit du nombre, c’est-à-dire à la substitution de la langue par le code (informatique). Au plan sociopolitique, cette mutation conduit à la mise en place d’une nouvelle forme algorithmique de régulation de la pratique sociale, la gouvernance algorithmique, qui repose sur un processus d’automatisation de la production de connaissances.

Index par mots-clés : Big data, Gouvernance algorithmique, Intelligence artificielle, Théorie critique, Capitalisme de plateforme

Source : tic&société. Vol. 15, N° 1 | 1er semestre 2021 | 2021 Logique algorithmique et reproduction sociétale: les médiations sociales saisies par les algorithmes. p. 9-40. https://doi.org/10.4000/ticetsociete.5603

Droits d’auteur : Creative Commons – Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0International – CC BY-NC-ND 4.0

_____________________________________________________

 

Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle
Maxime Ouellet

Texte intégral

1 Si la crise générée par la pandémie de COVID-19 a suscité chez certains l’espoir de voir émerger un monde nouveau ou encore les conditions de possibilité d’une révolution, force est de constater que les solutions préconisées pour endiguer la crise semblent plutôt se diriger vers la consolidation des transformations structurelles dans lesquelles les sociétés capitalistes avancées se sont engagées depuis le milieu du XXe siècle. Le recours généralisé aux outils numériques dans l’ensemble des facettes de la vie sociale pour maintenir un semblant de vie normale, du travail à la santé, en passant par la culture et l’éducation notamment, fait dire à Naomi Klein que le « Green new deal » espéré par les écologistes pour endiguer la crise écologique risque plutôt de ressembler à un « Screen new deal » (Klein, 2020). En effet, la pandémie semble avoir permis le renforcement d’une nouvelle forme institutionnelle du capitalisme tantôt nommé capitalisme de plateforme (Srnicek, 2018), tantôt capitalisme cybernétique (Ouellet, 2016 ; Peter et al., 2009 ; Robins et Webster, 1988) ou encore de surveillance (Zuboff, 2019), dominé par les monopoles du numérique (GAFAM) (Smyrnaios, 2017). Comme le souligne l’économiste Robert Boyer dans son plus récent livre intitulé Les capitalismes à l’épreuve de la pandémie :

[…] la covid-19 a accéléré deux des tendances observées depuis la décennie 2010. D’une part, après beaucoup de tâtonnements, un puissant capitalisme de plateforme, centré sur l’exploitation de l’information sous toutes ses formes, est né aux États-Unis et a commencé à conquérir le monde, au point de devenir transnational. Dans la crise sanitaire, il a montré sa puissance en maintenant l’activité du e-commerce grâce à ses algorithmes dopés par l’intelligence artificielle et sa logistique, en proposant des informations en temps réel sur toutes les activités, en facilitant travail et enseignement à distance, explorant des voies d’avenir ouvertes dans de nouveaux secteurs (véhicules autonomes, exploitation commerciale de l’espace, télémédecine, équipements médicaux). Pour leur part, les financiers parient sur leur succès à long terme dans le contexte d’un déclin de l’économie traditionnelle. Ce capitalisme transnational invasif semble bien être sorti économiquement encore plus puissant de la crise sanitaire. (Boyer, 2020, p. 15-16)

2 Si au plan économique, le capitalisme de plateforme semble s’imposer comme forme institutionnelle hégémonique (Montalban et al., 2019), il apparaît toutefois nécessaire de dépasser le cadre d’analyse strictement économiciste généralement proposé par l’économie politique en vue de saisir également les transformations qualitatives opérées dans le mode de reproduction des sociétés capitalistes avancées qui sont générées par cette logique de numérisation et de plateformisation (Van Dijk et al., 2018). Dans le champ des théories critiques, un certain nombre de travaux contemporains font état de la mise en place d’un nouveau mode de reproduction sociétal apolitique, cybernétique et opérationnel (Freitag, 2013) qui reposerait sur la numérisation et la plateformisation généralisées des sociétés. Ces nouvelles manières de réguler la pratique sociale au moyen d’algorithmes sont tantôt nommées « gouvernementalité algorithmique » (Rouvroy et Berns, 2013), « régulation algorithmique » (Morozov, 2015), « société automatique » (Stiegler, 2015) ou encore « société de plateforme » (Van Dijk et al., 2018). Ces travaux soutiennent notamment que l’utilisation des données massives à des fins de personnalisation, de microciblage ou d’optimisation des processus de prise de décision par gestion prédictive au moyen d’algorithmes fonctionnant grâce à l’apprentissage machine participerait à une mutation des sociétés qui marquerait une rupture avec les idéaux sur lesquels s’était édifié le monde moderne. En effet, comme nous le verrons dans ce texte, les sociétés modernes ont institué un ensemble de médiations de nature juridique et politique à portée universaliste qui avait pour ambition l’émancipation face aux formes de dominations particularistes s’exerçant de manière directe par le maître sur ses serviteurs dans les communautés antérieures (Weber,2004). Qu’advient-il lorsque ces médiations sont court-circuitées ou encore remplacées par des procédures automatisées de prises de décision fonctionnant au moyen d’algorithmes auto-apprenants ? S’agit-il d’une rupture avec un idéal que s’est donné le monde moderne ou encore d’une radicalisation de certaines de ces dimensions constitutives ? De fait, s’il faut reconnaître que le monde moderne a mis en place les conditions de possibilité pour l’auto-institution de la société, il s’est également érigé, via le développement du capitalisme industriel, sur une conception abstraite de la liberté dont le fondement est strictement individualiste (Macpherson, 1971) et sur une acception instrumentale de la raison qui vise, grâce au développement technologique, un contrôle intégral de la vie sociale et de la nature (Adorno et Horkeimer, 1974 ; Castoriadis, 1996).

3 Les développements contemporains dans le domaine de l’intelligence artificielle nous invitent à engager cette réflexion générale sur le devenir de la société et ses modalités de reproduction dans le contexte d’une numérisation généralisée de la pratique sociale (George, 2019). L’objectif de ce texte est de répondre à l’appel lancé dans le testament philosophique de Bernard Stiegler (2020, s.p.) qui disait vouloir « entamer une critique fondamentale de l’informatique théorique ». Il s’agira donc de proposer une triple critique à la fois ontologique, épistémologique et politique des différentes techniques de traitement et d’analyse des données numériques (Big data, machine learning, deep learning, etc.) qui ont été recadrées dans la sphère médiatique sous le vocable générique d’« intelligence artificielle » (Katz, 2017). Sur le plan ontologique, dans la lignée de la redécouverte de la dialectique d’inspiration hégélo-marxienne par certains auteurs dans le domaine des études critiques en communication (notamment Fuchs, 2019, et Stiegler, 2012), il s’agira de montrer que les développements de l’informatique depuis les années 1950 ont participé à la dissolution de la société comprise comme une totalité, et conséquemment à sa recomposition en un « système opérationnel-décisionnel » de transmission de l’information de nature cybernétique (Freitag, 2002). Au plan épistémologique, nous verrons que cette mutation a contribué à la disqualification de la lettre au profit du nombre, c’est-à-dire à la substitution de la langue par le code (informatique) (Herrenschmidt,2007). Au plan politique, ces transformations concourent à la mise en place d’une nouvelle forme algorithmique de régulation de la pratique sociale reposant sur l’automatisation de la connaissance, à savoir la gouvernance algorithmique (Rouvroy et Stiegler, 2015).

Gouvernance algorithmique et automatisation des médiations sociales
Une critique dialectique des médiations sociales

4 En tant que méthode, la dialectique vise à comprendre l’ensemble des rapports sociaux qui sont médiatisés par la totalité. En ce sens, la catégorie de société peut se définir comme une totalité subjective et objective, c’est-à-dire comme une unité qui médiatise et oriente les pratiques sociales particulières, lesquelles médiatisent en retour la totalité (Freitag,2002). La société est inséparable d’une représentation a priori, ou pour parler comme Castoriadis (1975), d’un imaginaire social, qui fait tenir ensemble les diverses particularités qui la composent en fournissant un sens aux pratiques sociales. C’est notamment par la médiation du langage, qui se présente comme une institution symbolique, qu’il est possible d’accéder à la réalité et de conférer un sens à la pratique sociale. Suivant cette acception de la dialectique, développée notamment par le sociologue Michel Freitag ‒ dans la lignée du matérialisme culturel de Raymond Williams (2009) ‒ le fondement de l’être social repose sur le caractère ontologique accordé à la pratique symbolique (Freitag, 2011).

5 Si le fondement de l’existence humaine repose sur l’existence de normes objectives assumées subjectivement (Freiatg, 2011), cela implique sur le plan épistémologique, et ce, contrairement à la majorité de la pensée moderne, de refuser le dualisme entre les catégories de l’être et les catégories de la pensée. Les catégories de la pensée sont des représentations qui médiatisent la pratique sociale, elles expriment à la fois la normativité qui est inscrite dans le social, mais également les formes de domination qui s’y trouvent. Comme le soulignent Adorno et Horkeimer dans La dialectique de la raison :

Il faut préciser que ce caractère social des catégories de penser n’est pas, comme l’enseigne Durkheim, l’expression de la solidarité sociale, mais qu’il atteste l’unité inextricable de la société et de la domination […]. C’est cette unité de la collectivité et de la domination et non l’universalité sociale directe, la solidarité, qui s’exprime dans les catégories du penser. (Adorno et Horkeimer, 1974, p. 38-39)

6 En ce sens, si dans sa nature même le concept de société compris comme une totalité possède une signification fonctionnelle, il implique également une dimension normative puisque c’est à partir des idéaux que les sociétés se sont elles-mêmes donnés que les sujets peuvent critiquer les orientations significatives que prend la collectivité. Une des tâches de la théorie critique consiste donc à confronter de manière immanente la réalité sociale avec les idéaux qui la fondent. La théorie critique, dans son acception dialectique, telle que formulée initialement par Hegel et Marx, puis reprise par l’École de Francfort, est une méthode qui consiste à déduire les catégories de la pensée à partir du social, permettant ainsi la critique immanente des catégories fétichisées qui médiatisent la pratique sociale. Il s’agit de saisir l’ontogénèse des catégories de la pensée qui, dans l’épistémologie classique, apparaissent comme transhistoriques et naturelles. La dialectique dans son essence même est une théorie critique, car elle est une forme de pensée négative en ce qu’elle nie le donné dans sa forme phénoménale d’apparition, c’est-à-dire dans sa manifestation strictement empirique, pour en saisir l’essence (Marcuse, 1968a). Puisque dans son essence même, le réel est fondamentalement contradictoire, la dialectique vise à saisir la totalité comme une unité des contradictions qui permet de penser, par-delà l’état de fait, le possible qui est inscrit dans le réel.

7 Étant donné que toute connaissance possède comme condition de possibilité un sujet qui est inscrit au sein d’une forme de communauté particulière, cela implique que la catégorie de société exprime une réalité sociale-historique qui est propre au monde moderne en ce qu’elle repose sur la capacité de la société de produire par elle-même ses institutions, ce que Freitag nomme « l’institutionnalisation de la capacité d’institutionnalisation » (Freitag,2013). On reconnaît généralement que la modernité s’est instituée à partir de médiations sociales, à la fois culturelles-symboliques et politico-institutionnelles, permettant aux sociétés de penser réflexivement leurs pratiques (Freitag, 2013). Le langage, en tant qu’ « expression objective d’une expérience significative collective » (Freitag p. 159), représente la principale forme de médiation symbolique qui oriente significativement les pratiques sociales au sein d’un monde commun. Selon cette acception, le langage fait nécessairement référence aux langues particulières telles qu’elles se sont constituées historiquement et qui sont propres à chacune des sociétés comprises comme universum concrets. Dès lors, la conception d’un langage universel et abstrait, telle qu’on la retrouve dans les théories linguistiques computationnelles en intelligence artificielle, réduit la langue en un pur code informatique, c’est-à-dire en une « série d’opérations réglées sur des éléments définis » (Broca, 2016, p. 6), évacuant ainsi la dimension expressive et normative constitutive de la communication humaine (Golumbia, 2009). Ces pratiques culturelles-symboliques composent l’infrastructure (Williams, 2009) sur laquelle s’érigent les superstructures politico-institutionnelles permettant aux sociétés de se donner réflexivement des finalités normatives collectives. D’un point de vue idéal-typique, ces finalités normatives tirent leur légitimité d’une idéologie qui peut être débattue de manière rationnelle et agonistique au sein d’un espace public politique (Habermas, 1993). De plus, cet espace public moderne, et la raison critique qui lui est associée, possède comme condition de possibilité une technique de communication particulière (notamment l’imprimerie). Comme le soutient Jean Vioulac :

Les modalités de constitution des communautés, de leur être en commun et de leur être au monde, ont été bouleversées de fond en comble par l’emprise irrésistible des nouveaux moyens de communication. Toute communauté se fonde en effet sur des techniques déterminées de communication : le projet culturo-politique moderne est indissociable des techniques qui ont inaugurés la Renaissance. (Vioulac, 2018, p. 58)

8 En s’autonomisant du social, les institutions politiques permettent une certaine forme de distance critique à partir de laquelle la société peut réfléchir sur elle-même et institutionnaliser au moyen de la praxis politique ses finalités normatives sous la forme de la loi (Supiot, 2010). Les médiations politico-institutionnelles propres au monde moderne avaient ainsi pour fonction de maintenir une certaine unité au sein d’une totalité qui était traversée par une série de conflits s’exprimant sur le plan théorique sous la forme de positions dualistes que la théorie critique cherche à dialectiser : Particulier/Universel, Individu/Société, Humanité/Nature, Humain/Machine, Émetteur/Récepteur, Temps/Espace, Sujet/Objet, Fin/Moyen, etc.

De la gouvernance par les nombres à la gouvernance algorithmique

9 Or une des transformations radicales à laquelle a conduit l’émergence de la cybernétique qui est au fondement de l’intelligence artificielle a été de rabattre immédiatement la théorie sur la pratique, dissolvant ainsi les catégories binaires constitutives de la pensée moderne dans un même processus informationnel de rétroaction. C’est cette rétroaction qui rend possible une nouvelle forme de régulation automatisée de la pratique sociale, qui correspond au passage de la notion moderne de gouvernement vers celle post-moderne de gouvernance. En effet, avec la cybernétique, les dualismes constitutifs de la pensée moderne sont absorbés dans un même principe, l’information, plutôt que d’être dépassés dialectiquement au moyen de l’action politique réformiste ou révolutionnaire (Marcuse,1968a).

10 Avec l’émergence de la corporation comme forme institutionnelle prédominante au sein du capitalisme avancé, un glissement de sens s’opère entre le gouvernement et la gouvernance. Le gouvernement qui tirait sa légitimité du principe juridique de la loi sera substitué, dans le contexte néolibéral, par une gouvernance par les nombres (Supiot, 2015). Dans une optique foucaldienne, plusieurs travaux ont montré que le néolibéralisme consiste en une nouvelle forme de gouvernementalité qui vise à programmer de manière stratégique les comportements des individus (Dardot et Laval 2009 ; Foucault, 2004). Si la gouvernementalité néolibérale s’effectue au moyen de l’intériorisation subjective des normes quantitatives provenant du marché, les avancées dans le domaine des technologies numériques ont permis son automatisation (Birch, 2020), ce pourquoi Antoinette Rouvroy nomme gouvernementalité algorithmique le :

[…] mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s’adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu’en s’appuyant sur leurs capacités d’entendement et de volonté. (Rouvroy, 2012, s.p.)

11 Afin d’éviter les ambiguïtés entourant le concept de gouvernementalité, notamment la séduction que semble avoir opérée le néolibéralisme sur la pensée de Foucault (Dean et Zamora, 2019 ; Zamora, 2015), le concept de gouvernance algorithmique nous apparaît plus approprié, d’autant plus qu’il permet de souligner sa filiation directe avec la cybernétique. En effet, le terme cybernétique provient du mot grec kubernêtes, qui signifie « pilote » ou « gouvernail » ; il possède la même racine étymologique que gouvernance (Lazar, 1992).

12 Le passage du gouvernement à la gouvernance algorithmique correspond à une mutation sociétale, dans la mesure où la société comprise comme une totalité normative qui régule apriori la pratique sociale cède sa place à un système qui opère une forme de totalisation aposteriori rendue possible par la numérisation de l’ensemble de l’activité humaine et nonhumaine transformé en flux d’informations. Cette mutation institutionnelle correspond au passage du concept de pouvoir, défini en tant que capacité d’instituer une norme universelle qui agit comme une médiation orientant la pratique particulière, vers celui de contrôle, signifiant la capacité d’agir immédiatement (sans médiation politique ou juridique) sur la pratique. Comme le souligne Alain Supiot, sous le règne de la gouvernance, la normativité perd son caractère vertical : « il ne s’agit plus de se référer à la loi qui transcende les faits, mais d’inférer la norme sur la mesure des faits » (Supiot, 2012, p. 78). C’est sur cette « dictature de l’état de fait » que se met en place la nouvelle forme de régulation algorithmique de la pratique sociale qui fonctionne au moyen de techniques de« nudging » visant à orienter de manière béhaviorale les comportements des individus (Thaler et Sustein, 2012). Le « nudging » instaure selon Thaler et Sustein un « paternalisme libertarien » en ce qu’il ne repose pas sur des mécanismes de légitimation idéologique ou encore sur des contraintes institutionnelles jugées autoritaires. Il s’agit plutôt de mettre en place des procédés de manipulation « soft » inspirés de la psychologie béhaviorale visant à modifier les comportements des individus afin qu’ils fassent les bons choix au moyen d’incitatifs tels qu’on les retrouve dans le design persuasif élaboré dans certains sites web afin d’encourager les usagers à cliquer sur un lien plutôt que sur un autre (Thaler et Sustein, 2012).

13 La gouvernance algorithmique décrit ainsi une nouvelle manière de gouverner propre aux sociétés capitalistes avancées qui consiste à mettre en place des mécanismes de pilotage et de décisions automatisés grâce à une mise en données du réel. La spécificité de la gouvernance algorithmique repose sur le postulat voulant qu’au moyen de l’accumulation, de l’analyse et du traitement d’une gigantesque quantité de données (les Big data), il soit possible d’anticiper les événements avant qu’ils ne surviennent. Grâce à l’accumulation et au traitement de ces données, il ne s’agirait plus de connaître les causes des problèmes sociaux, mais plutôt d’agir de manière préemptive sur le réel.

14 Comme nous le verrons dans la section suivante, la mise en place d’une gouvernance algorithmique est indissociable des mutations contemporaines du capitalisme. En effet, le capitalisme de plateforme accumule de manière prédatrice en ponctionnant une rente sur les échanges symboliques des usagers, qui, une fois transformés en données numériques, peuvent être marchandisés ou valorisés sous la forme d’actifs intangibles dans la sphère boursière (Durand, 2020 ; Ouellet, 2019). Dans ce contexte s’opère un processus d’abstraction similaire à celui qu’avait analysé Marx pour le travail. En effet, de la même manière que le travail concret, une fois subsumé par le capital, devient le travail abstrait produisant une forme abstraite de richesse, la valeur (Marx, 1993), la langue n’est plus l’expression d’une culture particulière, mais devient une langue universelle abstraite, un code composé de données numériques. Ces données numérisées, une fois captées et traitées par des algorithmes, permettent de diriger la conduite des individus au moyen de mécanismes de feedback cybernétiques. Dans ce processus généralisé de numérisation et de marchandisation du savoir, de l’information et des données personnelles, le langage devient essentiellement performatif (Lyotard, 1979). La valeur de ce qui est communiqué ne se mesure plus en fonction de son contenu, de sa valeur d’usage, mais plutôt en fonction de sa valeur d’échange, qui repose sur le principe de circulation (Dean, 2002). Pour paraphraser McLuhan, lorsque le médium devient le message, l’information qui détient le plus de valeur est celle qui est répétée le plus souvent dans un flux de communication autoréférentiel. Le critère de la circulation circulaire de l’information remplace celui de la vérité comme fondement normatif du discours public. Le discours argumentatif cède sa place au discours performatif ; la répétition, l’écho, la redondance, la résonance et l’autoréférence remplacent la réflexivité. Par le biais de la capture et du traitement algorithmique des données provenant de l’activité sociale se manifeste ainsi une objectivité détachée du social qui prend la forme d’une puissance inhumaine (Dyer Whiteford et al.,2019), phénomène qui a été saisi sous le concept d’aliénation par la théorie critique depuis Marx (1996). Puisque le capitalisme de plateforme accumule en ponctionnant une rente sur la pratique constitutive de l’essence symbolique de l’être humain, c’est donc à une seconde transformation structurelle (Pasquale 2017), voire à une reféodalisation de l’espace public que l’on assiste (Durand, 2020).

Mutations du capitalisme et développements de l’intelligence artificielle
Idéologie de la communication et intelligence artificielle

15 Les études critiques en communication sont particulièrement propices à l’analyse des transformations décrites précédemment puisque les dispositifs cybernétiques propres aux Big data et à l’intelligence artificielle reposent sur une idéologie de la communication (Breton et Proulx, 2002), laquelle possède la spécificité de se présenter comme l’expression immédiate du réel. En effet, selon cette idéologie, qui tire ses origines de la cybernétique, les sociétés n’auraient plus besoin de recourir à des médiations symboliques et politiques pour se reproduire, puisque les technologies de communication viendraient se substituer à ces dernières. Sfez introduit le concept de tautisme, – néologisme né de la contraction entreautisme, tautologie et totalitarisme ‒ pour décrire cette nouvelle idéologie de la communication qui repose sur la confusion des genres : « On croit être dans l’expression immédiate, spontanée, là où règne en maîtresse la représentation. Délire. Je crois exprimer le monde, ce monde de machines qui me représentent et qui en fait s’expriment à ma place » (Sfez, 1992, p. 108).

16 Or, suivant la théorie des médiums développée par Innis (2008), il faut reconnaître que la technique n’est pas neutre, elle consiste en une médiation concrète qui participe à l’organisation a priori des catégories à partir desquelles on se représente la réalité. Il convient toutefois de ne pas interpréter l’approche innissienne selon une conception déterministe technologique. Pour lui, les techniques de communication sont des conditions de possibilité d’une forme particulière de rationalité qui est dialectiquement liée aux rapports de production et aux formes institutionnelles (Comor, 1994).

17 Ainsi, à partir de la méthode dialectique de déduction sociale des catégories, il importe de saisir historiquement l’émergence des catégories fondatrices de la cybernétique, soit celles de communication, de commande, de contrôle et d’information (C3I) dans le cadre des mutations institutionnelles propres au capitalisme avancé. De fait, les développements contemporains d’un capitalisme de surveillance ou de plateforme tirent leur origine de l’avènement de la corporation comme forme institutionnelle prédominante au sein du capitalisme avancé (Foster et McChesney, 2014 ; Srnicek, 2018). Cette mutation institutionnelle est fondamentale puisque la médiation des rapports sociaux au moyen du marché est remplacée par le contrôle communicationnel exercé par le management sur son environnement au sein de la corporation. Les critiques du capitalisme de surveillance comme Zuboff (2018) oublient généralement de situer historiquement cette « nouvelle » forme de capitalisme. Ce type d’approche, qu’on retrouve dans plusieurs travaux dans le domaine des surveillance studies, conduit trop souvent à dénoncer de manière superficielle les effets néfastes pour la vie privée au nom d’un « bon capitalisme » respectueux de la liberté de choix individuel des consommateurs. Les propositions de réformes visant à rendre plus transparents le fonctionnement des algorithmes s’inscrivent également dans cette critique plutôt libérale du capitalisme de surveillance (par exemple Lessing, 1999 ; Pasquale, 2015). Bien que nécessaire, ce type de critique ne permet pas de comprendre les structures profondes du capitalisme avancé et les possibilités de dépasser ses contradictions. En effet, l’émergence de la corporation au début du XXe siècle va modifier substantiellement la régulation de la pratique sociale en ce qu’il s’agira désormais de modifier les attitudes des individus afin d’arrimer la dynamique de surproduction du système industriel à celle de la surconsommation (Foster et McChesney, 2014). C’est aussi à cette époque que le marketing développera les techniques de surveillance des individus et de captation de l’attention qui sont à l’origine des outils de profilage des comportements des consommateurs utilisés par les géants du numérique (GAFAM). Les premiers développements dans le domaine de l’intelligence artificielle tout comme l’ancêtre de l’Internet, ARPANET, s’expliquent également par la nécessité d’absorber le surplus de valeur généré par la suraccumulation capitalistique des grandes corporations au moyen des dépenses publiques dans le domaine militaire afin de maintenir la croissance économique (Foster et McChesney, 2014).

18 Si la cybernétique se présente sous le sceau de la neutralité scientifique, son émergence fut pourtant fortement orientée par les demandes provenant du complexe militaro-industriel (Mirowski, 2000). Dans un contexte de paranoïa générée par la crainte du communisme, la cybernétique venait offrir au plan épistémologique une alternative « réductionniste, atomistique, positiviste, pragmatique, conservatrice, mécaniste et empiriste » face à la montée de l’attrait pour la théorie critico-dialectique chez les intellectuels, principalement dans les pays périphériques (Heims, 1991, p. 8). La cybernétique est l’expression théorique de la société-machine américaine de l’après-guerre et fera partie de l’arsenal utilisé dans le cadre de son impérialisme culturel afin de poursuivre sa guerre totale (Mattelart, 2015, p. 273). Cette guerre est tout autant économique, financière, politique, psychologique et scientifique que militaire, puisque les avoir et l’information se superposent aux missiles comme armes de persuasion massive (Stiegler, 2012).

19 C’est dans ce contexte que s’effectuera une convergence entre les théories cybernétiques et les théories économiques néoclassiques, grâce au financement des travaux en économétrie par la RAND Corporation et la Cowles Commission. Si Hayek intégrera théoriquement le paradigme cybernétique en économie en comparant le marché à un système de transmission de l’information, l’ouvrage de John von Neumann et d’Oscar Morgenstern (1964), intitulé Theory of Games and Economic Behavior, constituera son application pratique. La théorie des jeux, qui sera utilisée comme outil de prise de décision automatisée au sein des organisations capitalistes et dans le domaine militaire, a été développée par von Neumann – qui a travaillé sur le projet du premier supercalculateur UNIVAC – pendant la Seconde Guerre mondiale dans le cadre d’une recherche financée par l’armée américaine (Mirowski, 2000).

20 Les travaux théoriques dans le domaine de la cybernétique vont donner naissance à l’informatique et jeter les bases de ce qui deviendra plus tard l’intelligence artificielle (IA). Il convient de rappeler que deux positions s’opposent dans le domaine de l’IA : le paradigme de l’IA symbolique fondé sur le modèle hiérarchique de la représentation, et la perspective connexionniste qui se base sur l’idée d’auto-organisation (Cardon et al., 2018; Dupuy, 2005). Si les premiers travaux dans le domaine de l’intelligence artificielle naissent de la théorie cybernétique, ils considéreront celle-ci trop réductrice et chercheront à s’en distancier afin de construire une science autonome qui a la prétention de simuler l’intelligence humaine. La perspective dite symbolique s’appuie sur le modèle cartésien qui reproduit les mêmes dualismes que le rationalisme moderne : Corps/Esprit, Sujet/Objet, Émetteur/Récepteur, etc. Elle va s’inspirer des théories chomskiennes sur la grammaire générative pour concevoir une théorie de l’intelligence artificielle qui a l’ambition de représenter au moyen du langage informatique les processus cognitifs des êtres humains. Cette logique computationnelle réduit la pensée humaine à sa capacité de calculer des symboles supposés représenter la réalité matérielle (Cardon et al., 2018). C’est abusivement que le terme symbolique est utilisé ici, puisque s’opère une substitution du symbole par le signe. Alors que le symbole connote, donc qu’il est sujet à interprétation, le signe dénote, c’est-à-dire qu’il impose une « vérité » a-signifiante. L’IA dite symbolique repose sur des signaux a-signifiants qui, selon Lazzarato, participent à un asservissement machinique. Les signaux fonctionnent en effet de manière non langagière suivant un modèle stimulus-réponse alors que les symboles interpellent l’entendement des individus par l’entremise du langage (Lazzarato, 2006). Il s’agit dans les faits d’une dissolution du caractère normatif et expressif du langage humain qui est retraduit en un code informatique qu’on peut programmer sous la forme d’un algorithme, c’est-à-dire « une suite finie de règles à appliquer, dans un ordre déterminé, à un nombre quelconque de données, pour arriver, en un nombre fini d’étapes, à un résultat, et cela qu’elles que soient les données traitées » (Herrenschmidt, 2007, p. 434). L’algorithme correspond à ce que Marcuse appelle le langage fonctionnel dans L’homme unidimensionnel : « Le langage fonctionnel est une langue harmonisée qui est fondamentalement anti-critique et anti-dialectique. En lui, la rationalité opératoire et la rationalité du comportement absorbent les éléments transcendants, négatifs, oppositionnels de la Raison » (Marcuse, 1968b, p. 133).

De la grande corporation au capitalisme de plateforme

21 D’un point de vue critico-dialectique, il est particulièrement intéressant de constater que l’un des principaux représentants de l’IA symbolique s’avère également l’un des plus influents théoriciens en management moderne, c’est-à-dire Herbert Simons. On pourrait en ce sens poser l’hypothèse que sa pensée est l’expression théorique des mutations institutionnelles du capitalisme de l’après-guerre. En effet, le capitalisme monopoliste qui se met en place à partir des années 1950 repose sur la puissance organisationnelle des grandes corporations. C’est pourquoi la théorie de Simons en IA s’appuie sur l’étude de la prise de décisions assistée par ordinateur d’acteurs qui, en raison du fait qu’ils évoluent au sein des systèmes complexes que sont les grandes organisations, possèdent nécessairement une rationalité limitée. L’approche symbolique en IA va d’ailleurs s’opérationnaliser dans les systèmes-experts, lesquels consistent en une extension de la logique tayloriste au processus de prise de décisions. En effet, alors que le taylorisme consistait à décomposer l’ensemble des gestes des travailleurs manuels afin d’assurer l’efficience du procès de production, les systèmes-experts décomposent l’ensemble des tâches cognitives des travailleurs intellectuels au sein d’une organisation en une série d’opérations qu’il est possible de recoder sous la forme d’un programme qui permet d’assister le processus de prise de décisions. Les travaux pionniers dans le domaine de la critique de la technique, dont ceux de Mumford (2019), se sont élaborés dans ce contexte où les grandes corporations commencent à utiliser les outils informatiques et l’intelligence artificielle afin d’automatiser les usines. Pour de nombreux mouvements contestataires à l’époque, l’informatique était le symbole de l’aliénation sociale théorisée par le concept de méga-machine chez Mumford (Turner, 2012). Le paradigme de l’IA dite symbolique, incarné notamment dans les systèmes experts, va cependant s’épuiser peu après l’essoufflement du régime fordiste-tayloriste. Tout comme la grande organisation fordiste, ils seront considérés comme trop hiérarchiques et trop rigides. De fait, comme ces systèmes étaient incapables d’apprendre par eux-mêmes, leur maintenance nécessitait l’embauche d’une main d’oeuvre jugée coûteuse dans un contexte d’austérité imposée par la crise du fordisme (Steinhoff, 2019).

22 La seconde approche en IA, nommée connexionniste, s’inspire très largement de la première cybernétique formulée par Wiener, mais surtout des travaux sur les réseaux de neurones développés par McCulloch et Pitts (1943) dans les années 1940. Elle est selon Sfez d’inspiration spinoziste en ce qu’elle repose sur une perspective moniste qui s’oppose au dualisme cartésien (Sfez, 1992). Le modèle connexionniste n’est pas fondé sur la communication représentative, symbole de réification et de hiérarchie, mais sur la communication expressive. Selon l’approche connexionniste, la réalité du monde n’est plus objective, mais fait partie du sujet selon un modèle de causalité circulaire. Son paradigme est celui de l’auto-organisation qu’on retrouve également dans les travaux en management post-moderne au coeur de ce que Boltanski et Chiapello (1999) appelleront le Nouvel Esprit du capitalisme. C’est sur le modèle connexionniste que se fonde l’idéologie californienne (Barbrook et Cameron, 1999) qui a légitimé les développements du capitalisme numérique. Née de la rencontre entre la contre-culture et les entrepreneurs libertariens de la Silicon Valley, l’idéologie californienne a participé à la révolution culturelle du capital (Ouellet,2016) qui a initié l’opération de re-symbolisation de l’informatique : d’emblème de l’aliénation, elle devenait un symbole d’émancipation.

23 D’un point de vue rétrospectif, il est possible de soutenir que les développements de l’IA vont suivre les transformations qui se sont opérées au sein des corporations aux XXe et XXIe siècle (Vayre, 2019). De gigantesques firmes pyramidales de type chandlerien qu’elles étaient, celles-ci vont, sous la pression du capital financier, graduellement se dé composer en réseaux pour prendre la forme actuelle de la plateforme suivant l’exemple des GAFAM. Selon Mayer-Schönnberger et Ramge (2018), en substituant le mécanisme de signal-prix par le traitement des données numériques en temps réel, les mécanismes de rétroaction informationnel qu’on retrouve au sein des plateformes incarneraient parfaitement l’idéal d’autorégulation des marchés théorisé par Hayek, ce qui permettrait de dépasser les contradictions du capitalisme. Toutefois, en dépit de leur prétention à l’horizontalité, les plateformes demeurent essentiellement hiérarchiques dans la mesure où c’est aux algorithmes qu’est confiée la fonction de coordination des rapports sociaux. On nage en plein dans le tautisme que Sfez a critiqué. En effet, si le capitalisme de plateforme opère un brouillage entre la hiérarchie constitutive de l’organisation capitaliste et le marché conçu entant qu’espace de libre coordination au moyen des mécanismes informationnels de signal-prix (Casilli, 2019, p. 74), il n’en demeure pas moins grevé par une série de contradictions que la critique de l’économie politique a déjà mises en lumière (Morozov, 2019).

24 Sur le plan épistémique, les contradictions du paradigme connexionniste se manifestent dans les développements contemporains de l’intelligence artificielle, comme le « machine learning » et le « deep-learning ». Il s’agit d’un modèle purement inductif qui a la présomption de se passer des théories et des hypothèses pour expliquer la réalité (Anderson, 2008). L’intelligence artificielle est ici assimilée à un réseau de neurones qui possède une capacité d’auto-apprentissage rendue possible grâce au contact entretenu entre la machine et les informations qui lui sont transmises par son environnement. Les principaux théoriciens dans ce domaine ‒ Geoffrey Hinton (Google), Yan Lecun (Facebook) et Andrew Ng (Google) ‒ travaillent d’ailleurs en étroite collaboration avec les GAFAM qui financent leurs recherches, conformément au modèle du capitalisme académique qui est au fondement de la logique de marchandisation de la connaissance propre à l’économie du savoir (El Mououb et Plihon, 2009 ; Slaughter et Leslie, 1999).

25 À cet égard, il convient de se demander, à la suite de Yarden Katz, si l’actuel emballement médiatique entourant les développements de l’intelligence artificielle n’est pas le fruit d’une opération de communication opérée par les géants du numérique visant à ré-étiqueter sous le vocable « intelligence artificielle » une conception plutôt étroite et empiriste de l’intelligence humaine fondée sur une logique béhaviorale (Katz, 2017). Selon Katz, le cadrage prédominant dans l’espace médiatique qui présente les développements de l’intelligence artificielle sous le prisme d’un dépassement de l’intelligence humaine par la machine a pour effet de masquer la mise en place à l’échelle globale d’une gouvernance néolibérale par les nombres (Katz, 2017). Quoiqu’il en soit, suivant encore une fois la pensée d’Innis, il semble bien que les nouveaux mécanismes de régulation sociale opérés par des algorithmes marquent le passage vers un nouveau monopole privé de la connaissance. En effet, selon lui, chaque nouvelle technologie permet à la classe dominante de monopoliser le savoir, c’est-à-dire d’assurer son hégémonie sur les catégories de la pensée à travers lesquelles la réalité est interprétée (Innis, 2008). Ainsi, un nouveau monopole de la connaissance automatisée est en train d’émerger avec la domination des géants du numérique. Les algorithmes d’apprentissage automatisé développés par les GAFAM ont transformé le savoir en données numériques, c’est-à-dire en connaissances opérationnelles. Celles-ci produisent un savoir machinique rendant superflue, parce qu’inutile, toute dimension critique, synthétique et historique, donc dialectique, qui était pourtant au fondement de la connaissance scientifique (Stiegler, 2012). En comparant leurs services d’analyse automatisée des données numériques à des infrastructures équivalentes à l’électricité, notamment avec l’infonuagique (Mosco, 2014), les géants du numérique sont en train de s’approprier les moyens de cognition qui sont devenus les préconditions nécessaires à l’accumulation dans le capitalisme de plateforme (Steinhoff, 2019).

26 La preuve de l’hégémonie actuelle du modèle connexionniste d’inspiration néolibérale réside dans son intégration au sein de nombreux discours classés à gauche, lesquels voient dans les développements de l’intelligence artificielle par les GAFAM la condition de possibilité pour la réalisation d’une sorte de « socialisme 2.0 » qui prendrait la forme d’une planification automatisée (Bastani, 2019 ; Masson, 2015 ; Srnicek et Williams, 2014 ; VanDer Pjl, 2020). Ce type d’analyse reproduit les écueils des conceptions déterministes et instrumentales de la technique qu’on trouvait au fondement du marxisme orthodoxe voulant que le développement illimité des forces productives conduirait automatiquement au socialisme. Par contre, une théorie critique de la technique devrait être en mesure de montrer que la forme même que prend le développement technologique est liée dialectiquement aux rapports sociaux dominants (Postone, 1999). Comme le soulignent Dyer-Whiteford, Kjosen et Steinhoff :

[…] la croyance selon laquelle l’adoption généralisée de l’IA en tant que condition générale de production conduirait automatiquement à la fin du capitalisme est trompeuse : au contraire, il y a de fortes chances qu’elle ouvre la voie à un capitalisme qui continue sans les humains1. (Nous traduisons, Dyer-Whiteford, Kjosen etSteinhoff, 2019, p. 145)

27 La question de savoir si les développements de l’intelligence artificielle vont mener au « grand remplacement » des humains par les machines ou encore à « une économie sans emploi et une démocratie sans citoyen », pour reprendre la formule de McChesney et Nichols (2016), demeure hypothétique (Ouellet, 2018). Il n’en demeure pas moins que dans sa forme actuelle, le développement aveugle de l’intelligence artificielle induit par l’injonction à la croissance illimitée du capital mène inévitablement à la précarisation généralisée des conditions de travail pour la majorité des travailleurs du numérique (Casilli, 2019).

Gouvernance algorithmique et dissolution de la société dans le social

28 Cette réflexion critique apparaît d’autant plus nécessaire que les discours promotionnels tenus à la fois par les puissances économiques et politiques, et repris bien souvent de manière acritique par les médias, se multiplient au sujet de l’important développement de l’intelligence artificielle. Ces discours soutiennent que la mise en place de mécanismes de régulation sociale non coercitifs et efficients au moyen d’algorithmes auto-apprenants serait en mesure de prendre des décisions de manière automatisée et hautement rationnalisée en évacuant la subjectivité humaine (Cukier et Mayer-Schönberger, 2013). Qu’il s’agisse de villes intelligentes (Kitchin, 2015), de santé (Swan, 2009), d’économie (Brynjolfsson et McAfee, 2014), de sécurité (Amoore, 2013), de finance (Arnoldi, 2016 ; Pasquale, 2015), de médias (Anderson, 2011) ou de politique (Harsin, 2015), c’est l’ensemble des sphères de la pratique sociale qui est soumise à la régulation algorithmique. Pourtant, alors que ces logiques algorithmiques visent à évacuer la part de subjectivité inhérente à toute dynamique de régulation sociale, la notion de « social » semble paradoxalement omniprésente à l’ère numérique (médias sociaux, social analytics, social physics, innovation sociale, etc.) (Davies, 2015).

29 Sur le plan théorique, on assiste également à la multiplication des champs d’études qui prétendent réintroduire la dimension du social dans l’analyse des développements technologiques en général, et plus particulièrement dans le domaine du numérique : platform studies, algorithmic studies, critical software studies, critical code studies, digital humanities, etc. La plupart de ces champs d’études s’appuient sur les postulats théoriques provenant des études en science, technologie et société (STS Studies). Ils visent à déconstruire la boîte noire des algorithmes afin de remettre en question la séparation entre la sphère de la technique et la sphère du social en montrant que l’adoption d’une technologie particulière découle de choix sociaux. Si les approches constructivistes dominantes dans le champ de la sociologie de la technique ‒ notamment la théorie de l’acteur-réseau (Callon, Law et Rip, 1986 ; Latour, 1991) ‒ dé-réifient les dispositifs technologiques et remettent en question les postulats du déterminisme technologique, « elles refusent de s’affronter aux grands enjeux généraux de la modernité qu’avait soulevés l’école de Francfort » (Feenberg, 2004, p. 9).

30 Pour les constructivistes plus radicaux, qui s’appuient souvent sur une ontologie plate d’inspiration deleuzienne (Massumi, 2003), les distinctions entre l’humain et la machine, ou encore le social et la technique, est carrément abolie au profit de la catégorie de l’hybridité. Le social se trouve subsumé sous le concept d’assemblage qui cherche à exprimer les relations instables et fluctuantes entre humains et non-humains (DeLanda,2006). Or, comme nous l’avons mentionné, la logique de gouvernance algorithmique marque une rupture avec les dualismes hérités de l’ontologie et de l’épistémologie moderne. Partant de ce constat, certains auteurs cherchent à théoriser ces nouvelles formes de régulation sociale (Carter, 2018 ; De Landa, 2006 ; Haraway, 1991 ; Harman, 2010 ; Latour, 2013), et soutiennent que l’hybridation entre l’humain et la machine qui s’effectue grâce aux technologies numériques assurerait le passage d’une épistémologie fondée sur la causalité ‒ laquelle visait à saisir les causes problèmes ‒ vers un monde de corrélations où les rétroactions informationnelles permettraient de gérer en temps réel l’ensemble des problèmes sociaux (des catastrophes écologiques aux désastres humanitaires en passant par l’actuelle crise sanitaire) (Chandler, 2019). Cette nouvelle forme de gouvernance qui repose sur l’hybridité entre le vivant et la machine est saluée comme une émancipation par rapport aux dualismes hérités de la modernité.

31 La gouvernance algorithmique qui s’appuie sur les Big data marque ainsi le passage de l’épistémologie moderne fondée sur le modèle hypothético-déductif vers la forme post-moderne basée sur la pure induction. Il ne s’agit plus de connaître les causes, mais plutôt d’agir sur les effets. Selon cette logique nominaliste, la vérité est purement arbitraire. Puisque l’individu prime sur la société et que toute catégorie qui prétend saisir le réel dans sa totalité est conçue comme une pure construction discursive extérieure aux individus, toute représentation est considérée comme étant en soi oppressante. S’appuyant sur une logique d’hyperpersonnalisation, la gouvernance algorithmique a ainsi la prétention de produire une norme qui colle immédiatement à chacun des individus. Il s’agit de la réalisation en acte du fantasme post-moderne d’un monde sans représentation. C’est la possibilité de débattre de l’écart entre la norme et le fait, donc le fondement même du politique qui est anéanti (Rouvroy, 2012).

32 Or la pensée post-moderne s’est avérée impuissante face à la montée du savoir instrumental, puisqu’elle partage les mêmes fondements épistémologiques nominalistes que ceux qu’on trouve dans le paradigme connexionniste en intelligence artificielle et dans la doctrine néolibérale (Stiegler, 2012). Pour les théoriciens connexionnistes de l’intelligence artificielle tout comme pour les constructivistes radicaux post-modernes :

la conception de la vérité et celle de la réalité sont les mêmes. Il n’y a pas de vérité en soi, de réalité en soi. Elles sont relatives. La réalité est seulement vraisemblable. Par là on peut la construire […]. La seule vérité de la réalité, la seule réalité de la vérité sont leur utilité. (Sfez, 1992, p. 425)

33 Les penseurs « néomatérialistes » oublient ainsi le principe dialectique selon lequel les catégories de la pensée sont médiatisées par la totalité qui, dans les sociétés capitalistes, repose a priori sur la forme-valeur (Martin et Ouellet, 2016 ; Rekret, 2019 ; Sohn-Rethel,2010). Il convient donc de se demander, dans une perspective dialectique, si ces approches néomatérialistes d’inspiration post-humaniste ne seraient pas l’expression théorique acritique du capitalisme de plateforme. En effet, l’agentivité qui est attribuée aux technologies numériques par ces approches correspond au concept de fétichisme chez Marx (Hornborg, 2014 ; Vandenberghe, 2001). À l’ère du capitalisme de plateforme, le fétichisme de l’ordinateur se superpose ainsi au fétichisme de l’horloge du capitalisme industriel (Mumford, 1950 ; Thompson, 2004). De plus, la mise en place des mécanismes de régulation algorithmique renforce la tendance monopolistique du capitalisme de plateforme (Srnicek, 2018), voire une nouvelle forme d’impérialisme de plateforme (Jin, 2013), puisque ce sont les géants du numérique qui possèdent la masse de données et les capacités techniques de les traiter.

34 Il apparaît par ailleurs nécessaire de se demander comment il est possible de produire une théorie critique de la gouvernance algorithmique si l’on partage les mêmes fondements ontologiques et épistémologiques que cette dernière (Lafontaine, 2004), plus particulièrement le postulat néolibéral selon lequel « la société n’existe pas ». En effet, selon Latour, un des penseurs les plus influents au sein du courant néomatérialiste, « il faut maintenant se faire à l’idée que la notion de société […] est devenue l’ennemie de toute pensée du politique » (Latour, cité par Cérézuelle, 2019, s.p.). Celui-ci prétend de plus faire la promotion d’« une nouvelle école de pensée qui pourrait prendre pour slogan […] La société n’existe pas ! » (Latour, cité par Cérézuelle, 2019, s.p).

35 Il nous semble que ces approches, qui sont hégémoniques dans le domaine des études portant sur le numérique, ne s’intéressent généralement qu’à des cas particuliers et n’interrogent pas les conséquences sociales des choix technologiques en termes de rapports de pouvoir et de domination globaux (Winner, 1993). Pourtant, une des visées de la théorie critique est de saisir dialectiquement comment des phénomènes techniques, culturels et sociopolitiques particuliers s’inscrivent dans une totalité sociétale. À cet effet, il convient également de se demander si la multiplication des champs d’études dans le domaine des technologies numériques ne serait pas l’expression théorique d’un processus plus général de « dissolution de la société dans le social » (Freitag, 1988, p. 201). La société comprise comme une totalité, à la fois dans sa dimension normative et critique, tend de plus en plus à être remplacée par un système réticulaire composé d’humains et de non-humains, où la médiation au moyen des techniques de communication remplacerait les médiations symboliques et politico-institutionnelles qui ordonnançaient la pratique sociale dans les sociétés antérieures. Force est de constater que les sciences humaines et sociales auraient intérêt à saisir ces enjeux d’un point de vue normatif à partir d’une démarche s’inspirant des théoriciens critiques de la technique (notamment Adorno et Horkeimer, 1974 ; Anders,2002 ; Ellul, 2010 ; Feenberg, 2004 ; Innis, 2008 ; Marcuse, 1968b ; Mumford, 1950 ; Noble, 2016 ; Winner, 1993) afin de comprendre les conséquences sur le plan social-historique des nouvelles formes de régulations sociales induites par les données massives, l’intelligence artificielle et les algorithmes. Chacun de ces auteurs rejette la conception de la neutralité de la technique en montrant sa connexion structurelle avec le capitalisme, et ce, contrairement à l’idéologie dominante qui accompagne le développement technologique. Jean Vioulac le résume bien :

C’est ainsi une niaiserie achevée que d’aborder la question de la technique aujourd’hui en répétant que ce-n’est-pas-la-technique-qui-est-dangereuse-c’est-ce-qu’en-font-les-hommes : une telle approche de la technique est superficielle puisqu’elle manque son statut transcendantal qui prédétermine tout usage, usage en outre conditionné par des rapports sociaux et des impératifs de production. Mais surtout, une telle approche ignore que l’histoire de la technique depuis trois siècles n’est rien d’autre que la mise en place de moyens toujours plus perfectionnés pour automatiser les procédures (d’action, de production, de calcul, de décision, de détection, d’analyse, de rétroaction, de mémorisation), c’est-à-dire les rendre de plus en plus indépendantes de toute activité humaine, pour déléguer à la machine de plus en plus d’opérations qui jusque-là caractérisaient les hommes – et ce pour supprimer l’erreur humaine toujours susceptible de contrarier l’impeccable fonctionnement de la machine, dont la logique tend à faire de l’humain lui-même une erreur. (Vioulac, 2018, p. 480-481)

36 De plus, cette omniprésence de la catégorie du social dans le discours académique portant sur les « usages » de la technique surgit alors que le concept de société compris comme une totalité est rejeté parce que trop totalisant, voire synonyme de totalitarisme. À cet égard, ce qui semble faire défaut à la théorie sociale en général à l’heure actuelle, et dans les études portant sur le numérique en particulier, est une compréhension dialectique de la société. Ce problème tire notamment son origine de la séparation qui s’est opérée entre les sciences sociales et leurs fondements normatifs. La théorie sociale à portée critique et normative a cédé sa place à une sociologie positiviste empirico-nominaliste telle qu’on la retrouve dans les techniques de social analytics et de Big data, ou encore à une phénoménologie subjectiviste qui tire son fondement de l’individualisme méthodologique, lesquelles ont réduit la conception de la société comprise comme totalité en une étude strictement empirique, subjectiviste et fragmentaire du social. La catégorie du social pour les sciences sociales positivistes ou pour le pragmatisme constructiviste post-moderne apparaît ainsi comme un ensemble de données empiriques ou de discours et de pratiques subjectives qui ne sont rattachés à aucune totalité signifiante. La tâche des sciences sociales consisterait donc à adapter les individus ou à les outiller afin qu’ils s’intègrent dans un système sur lequel ils n’ont aucune prise. C’est pourquoi Freitag dira que les sciences sociales, en oubliant leurs fondements normatifs et critiques, sont devenues un outil de « gestion technocratique du social » (Freitag, 1988). Ces approches technocratiques en sciences sociales apparaissent d’ailleurs complètement obsolètes face aux algorithmes qui sont en mesure d’automatiser leurs méthodes (data mining, sentiment analysis, opinion mining, argumentation mining, etc.). Au contraire de ces approches, il nous semble que la tâche de la théorie critique est de réaffirmer le primat de la société comprise comme totalité, en tant que condition nécessaire de possibilité de la critique sociale. Comme le soulignait Adorno, dans l’ouvrage intitulé Société : intégration désintégration :

Du fait de sa détermination fonctionnelle, le concept de société ne peut être saisi immédiatement ni vérifié radicalement, ainsi qu’on le fait pour les lois des sciences naturelles. C’est pourquoi des courants positivistes de la sociologie veulent le bannir de la science, au titre de relique philosophique. Ce type de réalisme est irréaliste. Car, alors que la société ne se laisse ni abstraire à partir des faits singuliers ni capturer et arrêter comme si elle-même était un fait, il n’est en revanche aucun fait social qui ne soit déterminé par la société […]. Pas plus que la médiation par la société n’existe sans ce qui est médiatisé, sans les éléments que sont les hommes, les institutions et situations singulières, pas plus ces éléments ne peuvent-ils exister sans la médiation. Là où les détails sont pris, du fait de leur immédiateté tangible, comme ce qu’il y a de plus réel, ils sont en même temps une source d’aveuglement. (Adorno, 2011, p. 24-25)

37 Il faut néanmoins reprendre la tâche de la théorie critique dans un contexte différent de celui où écrivait Adorno afin de dépasser les apories auxquelles ont conduit sa pensée. En effet, le concept de société n’est pas réductible uniquement à sa dimension fonctionnelle, il renvoie également à une normativité qui est immanente au social et qui le transcende. C’est essentiellement cette transcendance immanente qui est objectivée dans les institutions sociales, que le capitalisme de plateforme exploite sous la forme d’une accumulation prédatrice. Comme le souligne Cédric Durand :

Les Big data procèdent d’un effet de transcendance immanente d’un genre particulier, placé sous l’empire du capital et des firmes numériques. Le processus ascendant de la cristallisation symbolique de la puissance collective (potentia) rétroagit sous la forme de pouvoir (potestas) exercé sur des individus par des organisations qui poursuivent leurs propres fins. (Durand, 2020, p. 127)

38 Si la théorie critique telle que nous l’avons définie consiste en une critique immanente des catégories de la pensée visant à dé-réifier les médiations qui organisent la pratique sociale, elle doit également être attentive à la dimension normative qui est immanente au social et qui est objectivée dans un ensemble d’institutions sociales. Ce sont justement les fondements normatifs des institutions sociales qui se trouvent à être anéantis dans le cadre des mutations contemporaines du capitalisme. Dans cette veine, nous avons soutenu que la catégorie du social qui réapparait à l’ère numérique dans les médias sociaux, les social analytics ou les Big data, fait référence à un ensemble de données numérisées qui est approprié par des acteurs privés en vue d’orienter la pratique sociale en fonction des objectifs de valorisation du capital. À l’ère du capitalisme de plateforme, les corporations comme les GAFAM participent à la programmation du social, ébranlant ainsi les fondements démocratiques de nos sociétés. C’est en effet sur la dissolution du monde commun que s’érigent ces empires numériques. La tâche consiste donc à défendre la société contre cette mutation qui risque à terme de marquer la fin de la possibilité d’une théorie critique. Il s’agit là de la condition de possibilité afin de ré-instrumentaliser le développement des technologies de communication et de les soumettre à des normes communes définies de manière réflexive.

 

Bibliographie

Adorno, T. et Horkheimer, M. (1974). La dialectique de la raison. Paris, France : Gallimard.

Adorno, T. (2011). Société : Intégration, Désintégration. Écrits sociologiques. Paris, France : Payot. DOI:10.3917/tumu.017.0363

Amoore, L. (2013). The Politics of Possibility: Risk and Security Beyond Probability. Durham, Caroline du Nord : Duke University Press. DOI : 10.2307/j.ctv11sms8s

Anders, G. (2002). L’Obsolescence de l’homme (tome 1) : Sur l’âme à l’époque de la deuxième révolution industrielle. Paris, France : Éditions de l’Encyclopédie des Nuisances.

Anderson, C. (2008). The end of Theory: The data deluge makes the scientific method obsolete. Wired (23 juin). Repéré à http://www.wired.com/science/discoveries/magazine/16-07/pb_theory.

Anderson, C. W. (2011). « Deliberative, agonistic, and algorithmic audiences: Journalism’s vision of its public in an age of audience », International Journal of Communication, (5), 529-547.

Arnoldi, J. (2016). « Computer algorithms, market manipulation and the institutionalization of high frequency trading », Theory, Culture & Society, 33(1), 29-52. DOI : 10.1177/0263276414566642

Barbrook, R. et Cameron, A. (1996). « The Californian Ideology », Science as Culture, 2(1), 44-72. DOI : 10.1080/09505439609526455

Bastani, A. (2019). Fully Automated Luxury Communism. New York, État de New York : Verso.

Boltanski, L. et Chiapello, E. (1999). Le nouvel esprit du capitalisme. Paris, France : Gallimard.

Boyer, R. (2020). Les capitalismes à l’épreuve de la pandémie. Paris, France : La Découverte. DOI : 10.3917/dec.boyer.2020.01

Breton, P. et Proulx, S. (2002). L’explosion de la communication à l’aube du XXe siècle, Montréal, Canada : Boréal.

Broca, S. (2016). Épistémologie du code et imaginaire des “SHS 2.0”, Variations, (19). Repéré à http://journals.openedition.org/variations/701DOI : 10.4000/variations.701

Brynjolfsson, E. et McAfee, A. (2014). The second machine age: work, progress, and prosperity in a time of brilliant technologies. New York, État de New York : W.W. Norton & Company.

Cardon, D., Cointel, J.-P. et Mazières, A. (2018). La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle. Réseaux, 5(211), 173-220.DOI : 10.3917/res.211.0173

Callon, M., Law, J. et Rip, A. (éd.). (1986). Mapping the Dynamics of Science and Technology. Londres, Royaume-Uni : MacMillan. DOI : 10.1007/978-1-349-07408-2

Carter, D. (2018). Reimagining the Big Data assemblage. Big Data & Society, juillet. doi:10.1177/2053951718818194DOI : 10.1177/2053951718818194

Casilli, A. A. (2019). En attendant les robots. Enquête sur le travail du clic. Paris, France : Seuil.

Castoriadis, C. (1975). L’institution imaginaire de la société. Paris, France : Seuil.

Castoriadis, C. (1996). La montée de l’insignifiance. Les carrefours du labyrinthe IV. Paris, France : Seuil.

Cérézuelle, D. (2019). Une nouvelle théodicée ? Remarques sur la sociologie des techniques de Bruno Latour. Revue du MAUSS permanente (23 juin). Repéré à http://www.journaldumauss.net/./?Une-nouvelle-theodicee-Remarques-sur-la-sociologie-des-techniques-de-BrunoDOI : 10.3917/rdm.054.0367

Chandler, D. (2019). Digital Governance in the Anthropocene: The Rise of the Correlational Machine. Dans D. Chandler et C. Fuchs (éd.), Digital objects, Digital subjects: Interdisciplinary Perspective son Capitalism, Labour and Politics in the Age of Big Data (p. 23-42). Londres, Royaume-Uni : University of Westminster Press, .

Comor, E. (1994). «Harold Innis’s dialectical triad», Journal of Canadian Studies, 29(2), 11-127.DOI : 10.3138/jcs.29.2.111

Cukier, K. et Mayer-Schönberger, V. (2013). Big Data: A Revolution That Will Transform How We Live, Work, and Think. New York, État de New York : Hartourt.

Dardot, P. et Laval, C. (2009). La nouvelle raison du monde. Essai sur la société néolibérale. Paris, France : La Découverte. DOI : 10.3917/dec.dardo.2010.01

Davies, W. (2015). The Return of Social Government: From “socialist calculation” to “social analytics”. European Journal of Social Theory, 18(4), 431-450. DOI : 10.1177/1368431015578044

Dean, M. et Zamora, D. (2019). Le dernier homme et la fin de la révolution. Foucault après Mai 68. Montréal, Canada : Lux.

Dean, J. (2002). Publicity’s Secret : How Technoculture Capitalizes on Democracy. Ithaca, État de New York : Cornell University Press.

De Landa, M. (2006). A New Philosophy of Society: Assemblage Theory and Social Complexity. London/New York, État de New York : Bloomsbury Academic.

Dupuy, J.-P. (2005). Aux origines des sciences cognitives. Paris, France : La Découverte. DOI : 10.3917/dec.dupuy.2005.01

Durand, C. (2020). Techno-féodalisme. Critique de l’économie numérique. Paris, France : Zones.

Dyer-Whiteford, N., Kjosen, A. M. et Steinhoff, J. (2019). Inhuman Power: Artificial intelligence and the future of capitalism. Londres, Royaume-Uni : Pluto Press.

Ellul, J. (2010). Le bluff technologique. Paris, France : Fayard/Pluriel.

El Mouhoub, M. et Plihon, D. (2009). Le savoir et la finance. Liaisons dangereuses au coeur du capitalisme contemporain. Paris, France : La Découverte.

Feenberg, A. (2004). (Re)penser la technique : Vers une technologie démocratique. Paris, France : La Découverte.

Foster, J. B. et McChesney, R. (2014). Surveillance Capitalism. Monthly Review, 66(3). Repéré à https://monthlyreview.org/2014/07/01/surveillance-capitalism/

Foucault, M. (2004). Naissance de la biopolitique : cours au Collège de France, 1978-1979. Paris, France : Seuil/Gallimard.

Freitag, M. (1988). Le naufrage de l’université et autres essais d’épistémologie politique. Montréal, Canada : Éditions Nota Bene.

Freitag, M. (2002). L’oubli de la société. Pour une théorie critique de la postmodernité. Québec, Canada : Les Presses de l’Université Laval.DOI : 10.4000/books.pur.24122

Freitag, M. (2011). Dialectique et société, vol. 2 : Introduction à une théorie générale du symbolique. Montréal, Canada : Liber.

Freitag, M. (2013). Dialectique et société, vol. 3. Culture, pouvoir, contrôle. Montréal, Canada : Liber.

Fuchs, C. (2019). Karl Marx in the Age of Big Data Capitalism. Dans D. Chandler et C. Fuchs (éd.), Digital Objects, Digital Subjects: Interdisciplinary Perspectives on Capitalism, Labour and Politics in the Age of Big Data (p. 53-71). Londres, Royaume-Uni : University of Westminster Press.

Golumbia, D. (2009). The Cultural logic of computation. Cambridge, Massachusetts : Harvard University Press. DOI : 10.4159/9780674053885

George, É. (dir). (2019). Numérisation de la société et enjeux sociopolitiques 1 : numérique, communication et culture. Londres, Royaume-Uni : Iste.

Habermas, J. (1993). L’espace public. Archéologie de la publicité comme dimension constitutive de lasociété bourgeoise. Paris, France : Payot.

Harman, G. (2010). Towards Speculative Realism: Essays and Lectures. Winchester, Royaume-Uni : Zero Books.

Harraway, D. (1991). Simians, Cyborgs, and Women: The Reinvention of Nature. Londres, Royaume-Uni : Routledge.

Harsin, J. (2015). Regimes of Posttruth, Postpolitics, and Attention Economies. Communication, Culture & Critique, 8(2), 327-333.

Hornborg, A. (2014). Technology as fetish: Marx, Latour and the cultural foundation of capitalism. Theory, Culture & Society, 31(4), 119-140.

Heims, S. J. (1991). The Cybernetic Group. Cambridge, Massachusetts : The MIT Press. DOI : 10.7551/mitpress/2260.001.0001

Herrenschmidt, C. (2007). Les trois écritures. Langue, nombre, code. Paris, France : Éditions Gallimard.

Innis, H. (2008). The Bias of Communication. Toronto, Canada : University of Toronto Press. DOI : 10.2307/138041

Jin, D. Y. (2013). The Construction of Platform Imperialism in the Globalization Era. tripleC, 11(1),145-172. DOI : 10.31269/triplec.v11i1.458

Katz, Y. (2017). Manufacturing an Artificial Intelligence Revolution (27 novembre). Repéré à https://ssrn.com/abstract=3078224.DOI : 10.2139/ssrn.3078224

Kitchin, R. (2015). Making sense of smart cities: addressing present shortcomings. Cambridge Journal of Regions, Economy and Society, 8(1), 131-136.DOI : 10.1093/cjres/rsu027

Klein, N. (2020). How big tech plans to profit from the pandemic. The Guardian (13 mai). Repéré àhttps://www.theguardian.com/news/2020/may/13/naomi-klein-how-big-tech-plans-to-profit-from-coronavirus-pandemic

Lafontaine, C. (2004). L’empire cybernétique : des machines à penser à la pensée machine. Paris, France : Seuil.

Latour, B. (1991). Nous n’avons jamais été modernes. Paris, France : La Découverte. DOI : 10.3917/dec.latou.2006.01

Latour, B. (2013). Facing Gaia, Six Lectures on the Political Theology of Nature: Being the GiffordLectures on Natural Religion, Edinburgh, 18-28 février. Repéré àhttps://eportfolios.macaulay.cuny.edu/wakefield15/files/2015/01/LATOUR-GIFFORD-SIX-LECTURES_1.pdf

Lazzarato, M. (2006). Le « pluralisme sémiotique » et le nouveau gouvernement des signes. Repéré à http://eipcp.net/transversal/0107/lazzarato/fr

Lessig, L. (2000). Code and Other Laws of Cyberspace. New York, État de New York : Basic Books.

Lyotard, J.-F. (1979). La condition postmoderne : rapport sur le savoir. Paris, France : Éditions de Minuit.

Macpherson, C. B. (1971). La théorie politique de l’individualisme possessif : de Hobbes à Locke. Paris, France : Gallimard.

Marcuse, H. (1968a). Raison et révolution. Hegel et la naissance de la théorie sociale. Paris, France : Éditions de minuit.

Marcuse, H. (1968b). L’homme unidimensionnel. Essai sur l’idéologie de la société industrielle. Paris, France : Éditions de minuit.

Martin, E. et Ouellet, M. (2016). La tyrannie de la valeur. Débats pour le renouvellement de la théorie critique. Montréal, Canada : Écosociété.

Marx, K. (1993). Le Capital, Livre 1. Paris, France : Presses Universitaires de France.

Marx, K. (1996). Manuscrits de 1844. Paris, France : Flammarion. DOI : 10.1522/cla.mak.man1

Masson, P. (2015). Post Capitalism. A Guide To our Future. New York, État de New York : FSG Books.

Massumi, B. (2003). Translator’s foreword: Pleasures of philosophy. Dans G. Deleuze et F. Guattari, A Thousand Plateaus: Capitalism and Schizophrenia (p. ix–xv). Minneapolis, Minnesota : University of Minnesota Press.

Mattelart, A. (2015). Communication, idéologies et hégémonies culturelles. Paris, France : Presse des Mines.

Mayer-Schönberger, V. et Ramge, T. (2018). Reinventing Capitalism in the Age of Big Data. New York, État de New York : Henceforth.

McChesney, R. W. et Nichols, J. (2016). People Get Ready: The fight against a jobless economy and a citizenless democracy. New York, État de New York : Nation books.

McCulloch, W. S. et Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, (5), 115-133. DOI : 10.1016/S0092-8240(05)80006-0

Mirowski, P. (2000). Machine Dreams: How economics becomes a cyborg science. Cambridge, Massachusetts : Cambridge University Press. DOI : 10.1017/CBO9780511613364

Montalban, M., Frigant, V. et Julien, B. (2019). Platform economy as a new form of capitalism: a Régulationist research programme. Cambridge Journal of Economics, (43), 805-824.DOI : 10.1093/cje/bez017

Morozov, E. (2015). Le mirage numérique : Pour une politique du Big Data. Paris, France : Les prairies ordinaires.

Morozov, E. (2019). Digital Socialism? The calculation debate in the age of Big Data. New Left Review, (116-117), 33-77.10/8/22, 3:41 PM Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle https://journals.openedition.org/ticetsociete/5603 19/21

Mosco, V. (2014). To the Cloud: Big Data in a Turbulent World. Boulder, Colorado : Paradigm Publishers. DOI : 10.4324/9781315631554

Mumford, L. (1950). Technique et civilisation. Paris, France : Seuil.

Mumford, L. (2019). Le Mythe de la machine. Paris, France : Éditions de l’Encyclopédie des nuisances.

Noble, D. (2018). Le progrès sans le peuple : Ce que les nouvelles technologies font au travail. Marseille, France : Agone.

Ouellet, M. (2016). La révolution culturelle du capital : Le capitalisme cybernétique dans la sociétéglobale de l’information. Montréal, Canada : Écosociété.

Ouellet, M. (2018). Big data, intelligence artificielle et automatisation sociale : vers une économie sans emploi et une démocratie sans citoyen? Dans A. Mondoux et M. Ménard (dir.), Big data et société : Industrialisation des médiations symboliques (p. 33-62). Montréal, Canada : Presses de l’Université du Québec.

Ouellet, M. (2019). Le Capital comme pouvoir : Facebook et la rente de monopole symbolique. Dans É. George (dir.), Numérisation de la société et enjeux sociopolitiques 1 : numérique, communication et culture (p. 101-108). Londres, Royaume-Uni : Iste.

Pasquale, F. (2015). The black box society: The secret algorithms that control money and Information. Cambridge, Massachusetts : Harvard University Press. DOI : 10.4159/harvard.9780674736061

Pasquale, F. (2017). The Automated Public Sphere. New York, État de New York : The RosaLuxembourg Stittung.

Peters, M. A., Britez, R. et Bulut, E. (2009). Cybernetic Capitalism, Informationalism and Cognitive Labor. Geopolitics, History, and International Relations, 1(2), 11-40.

Postone, M. (1999). Contemporary historical transformations: Beyond postindustrial theory and neo-marxism. Current perspective in Social Theory, (19), 3-53.

Rekret, P. (2019). Seeing Like a Cyborg? The Innocence of Posthuman Knowledge. Dans D. Chandleret C. Fuchs (éd.), Digital objects, Digital subjects: Interdisciplinary Perspectives on Capitalism, Labour and Politics in the Age of Big Data (p. 81-94). Londres, Royaume-Uni : University of Westminster Press.

Robbins, K. et Webster, F. (1988). Cybernetic Capitalism: Information, Technology, Everyday Life. Dans V. Mosco et J. Wasko, (éd.), The Political Economy of Information (p. 45-75). Madison, Wisconsin : The University of Wisconsin Press.

Rouvroy, A. (2012). Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance. Mediapart (27 août). Repéré àhttps://blogs.mediapart.fr/antoinette-rouvroy/blog/270812/mise-en-nombres-de-la-vie-meme-face-la-gouvernementalite-algorithmique-repenser-le-sujet-com

Rouvroy, A. et Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation : Le disparate comme condition d’individuation par la relation ? Réseaux, 177(1), 163-196.

Rouvroy, A. et Stiegler, B. (2015). Le régime de vérité numérique. Socio, (4), 113-140.DOI : 10.4000/socio.1251

Sfez, L. (1992). Critique de la communication. Paris, France : Éditions du Seuil.

Slaughter, S. et Leslie, L. (1999). Academic Capitalism. Baltimore, Maryland : Johns Hopkins.

Smyrnaios, N. (2017). Les GAFAM contre Internet : une économie politique du numérique. Paris, France : Institut national de l’audiovisuel (INA).

Sohn-Rethel, A. (2010). La pensée-marchandise. Bellecombe-en-Bauges, France : Éditions du Croquant.

Srnicek, N. et Willams, A. (2014). Le Manifeste accélérationniste. Multitudes, (56). Repéré à http://www.multitudes.net/manifeste-accelerationniste/

Srnicek, N. (2018). Capitalisme de plateforme. L’hégémonie de l’économie numérique. Montréal, Canada : Lux.

Steinhoff, J. (2019). Cognition on tap. Capital’s theory of AI as utility. Digital Culture and Society,4(2), 89-104.

Stiegler, B. (2012). États de choc. Bêtise et savoir au XXIe siècle. Paris, France : Mille et une nuits.

Stiegler, B. (2015). La société automatique. Paris, France : Fayard.

Stiegler, B. (2020). Démesure, promesses, compromis. Médiapart (5 septembre). Repéré àhttps://blogs.mediapart.fr/edition/les-invites-de-mediapart/article/050920/demesure-promesses-compromis-13-par-bernard-stiegler

Supiot, A. (2010). L’esprit de Philadelphie. La justice sociale face au marché total. Paris, France : Seuil.

Supiot, A. (2015). La gouvernance par les nombres. Paris, France : Fayard.

Thaler, R. et Sunstein, C. (2012). Nudge : la méthode douce pour inspirer la bonne décision. Paris, France : Vuibert.

Thompson, E. P. (2004). Temps, discipline du travail et capitalisme industriel. Paris, France : La Fabrique. DOI : 10.3917/lafab.thomp.2004.01

Turner, F. (2012). Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence. Caen, France : C&F éditions.

Swan, M. (2013). The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery. Big Data, 1(2), 85-99.DOI : 10.1089/big.2012.0002

Vandenberghe, F. (2001). « Reconfiguration et rédemption des acteurs en réseaux critique humanistede la sociologie actantielle de Bruno Latour », Revue du MAUSS, 1 (17) : 117-136.

Van Der Pijl, K. (2020). Democracy, Planning, and Big Data. A Socialism for the Twenty-First Century? Monthly Review, 71(11), 28-41.

van Dijck, J., Poell, T. et de Waal, M. (2018). The Platform Society. Public values in a connected world. New York, État de New York : Cambridge University Press. DOI : 10.1093/oso/9780190889760.001.0001

von Neumann, J. et Morgenstern, O. (1964). Theory of Games and Economic Behavior. New York, État de New York : Willey.

Vayre, J.-S. (2019). L’intelligence des machines et l’esprit du capitalisme. Communication, 36(1). Repéré à http://journals.openedition.org/communication/9726DOI : 10.4000/communication.9726

Vioulac, J. (2018). Approche de la criticité : Philosophie, capitalisme, technologie. Paris, France : Presses Universitaires de France.

Weber, M. (2004). Les trois types purs de la domination légitime. Sociologie, 3(5), 291-302.

Williams, R. (2009). Culture et matérialisme. Montréal, Canada : Lux.

Winner, L. (1993). Upon Opening the Black Box and Finding It Empty: Social Constructivism and the Philosophy of Technology. Science, Technology & Human Values, 18(3), 362-378.

Zamora, D. (2015). Critiquer Foucault : les années 1980 et la tentation néolibérale. Bruxelles, Belgique : Aden.

Zuboff, S. (2019). The Age of surveillance capitalism. The fight for a human future at the new frontier of power. New York, État de New York : Hachette books.

Notes

1 « […] expectation that widespread AI adoption as a general condition of production would automatically lead to the end of capitalism is misplaced: on the contrary, there is a good chance that it will open the way to a capitalism that continues without humans ».

Pour citer cet article

Référence papier

Maxime OUELLET, « Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle », tic&société, Vol. 15, N° 1 | 1er semestre 2021 | -1, 9-40.

Référence électronique

Maxime OUELLET, « Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle », tic&société [En ligne], Vol. 15, N° 1 | 1er semestre 2021 | 2021, mis en ligne le 20 mai2021, consulté le 08 octobre 2022. URL : http://journals.openedition.org/ticetsociete/5603 ; DOI:https://doi.org/10.4000/ticetsociete.5603

Auteur

Maxime Ouellet

Maxime Ouellet est professeur à l’École des médias de l’UQAM. Il est chercheur au Centre de recherche interuniversitaire sur la communication, l’information, et la société (CRICIS) et au Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ). Ses recherches portent sur le rôle de la communication dans les mutations du capitalisme contemporain, plus spécifiquement le capitalisme de surveillance et de plateforme, ainsi que sur les nouvelles formes de régulation de la pratique sociale induites par les algorithmes. ouellet.maxime@uqam.ca

___________________________________________________________________________________________________________