17/11/2025 ssofidelis.substack.com  21min #296535

 Les entreprises spécialisées en Ia incitent les utilisateurs à croire que les chatbots sont des personnes, et c'est extrêmement inquiétant

L'Ia peut aller se faire voir

Par  Nate Bear, le 28 janvier 2025

Suivi de : L'IA nous vole notre âme

Au diable l'IA !

Franchement, l'IA peut aller se faire voir.

Je n'en veux pas, je n'en ai pas besoin, je ne l'ai jamais réclamée.

On la qualifie avec enthousiasme de deuxième révolution industrielle.

Sérieusement ? Et c'est censé être une bonne chose ? Ces gens sont-ils au fait de la première révolution industrielle ?

RAPPELONS QUE CE FUT UNE PÉRIODE PARTICULIÈREMENT HORRIBLE POUR LA PLUPART DES ÊTRES HUMAINS DE LA PLANÈTE.

Et d'ailleurs, la planète elle-même, la base même de notre existence biophysique, a à peine survécu à ce premier épisode.

Et nous devrions recommencer ?

Et nous devrions tous nous en réjouir ?

Donc, après avoir littéralement et irréversiblement détruit à travers toute une série de processus les relations entre les humains, la nature et les animaux non humains, nous allons maintenant la détruire numériquement ?

Super.

Et je me fiche bien que la Chine ait mis au point une IA meilleure, moins chère et plus efficace que celle des entreprises technologiques occidentales.

Et non, le capitalisme ne va pas s'effondrer pour autant.

Et non, l'IA occidentale n'est pas "en fin de vie" pour autant.

Ce n'est qu'un coup de pouce supplémentaire à l'ensemble du projet visant à "intelligence-artificialiser" toute notre existence.

Ce ne sera rien d'autre qu'un énorme gaspillage des ressources biophysiques déjà limitées de la planète.

Les gens savent-ils combien d'eau et d'énergie ces infrastructures consomment ?

Les centres de data mondiaux  consomment déjà plus d'électricité que la plupart des pays.

D'ici 2028, ils devraient consommer 12 % de toute l'électricité des États-Unis.

Et la putain de centrale nucléaire de Three Mile Island  redémarre pour les centres de données IA de Microsoft !

DeepSeek, en Chine, est un peu plus économe en énergie pour l'instant, mais elle est encore en phase initiale.

Mais elle ne fonctionne pas à l'air pur.

Grandissez un peu.

Pauvres petites têtes de linotte, qui comparent DeepSeek à un coup fatal porté à l'hégémonie américaine.

Putain.

Les gens croient-ils vraiment que si la Chine dispose d'un bon bot textuel, cela constituerait une menace réelle pour la technologie américaine, le capitalisme ou l'hégémonie américaine ?

Mais les actions du secteur technologique sont censées chuter !

Intéressant. Les actions baissent, puis remontent. Allez voir.

Parfois, les cours baissent vraiment beaucoup, et le capitalisme américain se reconstitue en toute impunité, sans qu'on tire les enseignements de l'expérience et que les coupables soient jugés.

Je suppose que les gens cherchent juste une solution de facilité pour associer un quelconque aspect négatif à un ennemi.

Quand j'ai affirmé qu'il est pathétique que certains progressistes aient décidé de soutenir l'IA parce que la Chine s'y intéresse, quelqu'un a répondu ceci.

Quoi ? PARDON ?

L'IA n'est qu'un outil. Ce n'est pas un modèle. Elle ne fait pas disparaître la spéculation financière. DeepSeek permet simplement d'accomplir les mêmes tâches que ChatGPT, Gemini ou d'autres robots textuels.

Elle continue de consommer énormément d'énergie.

Nous sommes singulièrement avares de bon sens, prêts à attribuer des objectifs humanitaires louables à des innovations du moment qu'elles n'émanent pas des capitalistes occidentaux. (Je demande aux fans de la Chine de ne pas s'en prendre à moi, je sais que la Chine fait des choses formidables).

De plus, je ne suis pas l'IA, pas plus que je ne suis vraiment A.

Ça lui fait une belle jambe.

Nous l'appelions auparavant "big data". Des mégadonnées organisées par des algorithmes programmés par l'homme, puis traitées par apprentissage automatique pour produire des mots et des images.

(Que les fans de l'IA ne s'en prennent pas à moi : je sais que les réseauteurs de neurones ont constitué une avancée majeure dans le traitement du langage pour le contexte et les nuances.)

Mais au fond, il s'agit toujours de big data.

DE NOS DONNÉES.

Des données que nous n'avons jamais autorisées à voir exploitées de cette manière.

Comment les gens croient-ils que l'IA sera utilisée dans le cadre d'un capitalisme prédateur qui ne vise qu'à assurer la croissance économique et la domination sociétale ?

Dans un avenir vraiment dystopique, pourrait-on imaginer une IA utilisée pour alimenter un génocide ?

 EH BIEN, C'EST DÉJÀ LE CAS..

Dans un monde dystopique, on pourrait imaginer que l'IA sert à cibler ceux qui ont besoin de l'aide de l'État pour vivre, afin par exemple de les priver de leurs prestations sociales.

 EH BIEN, C'EST DÉJÀ LE CAS.

Dans un monde vraiment dystopique, on pourrait imaginer que l'IA soit exploitée pour passer au crible d'énormes quantités d'images de vidéosurveillance afin de profiler des gens susceptibles de commettre des crimes.

 EH BIEN, C'EST DÉJÀ LE CAS, BORDEL.

Dans un monde vraiment dystopique, on pourrait imaginer que l'IA remplace tous ceux qui travaillent dans les industries créatives, tous les designers, écrivains, illustrateurs, cinéastes.

 EH BIEN, C'EST DÉJÀ LE CAS.

REGARDEZ, C'EST DÉJÀ LE CAS  EN CHINE !

En quelques années seulement, internet a été envahi par des images totalement inutiles de choses parfaitement inutiles.

Des choses qui ne font rien, qui ne sont rien, qui n'apportent rien, mais consomment suffisamment d'énergie pour alimenter un petit pays ou suffisamment d'eau pour soulager une famine.

Comment l'IA chinoise va-t-elle transformer tout cela ?

L'IA EST UN OUTIL, PAS UN MODÈLE !

L'IA REND DÉJÀ LES CHINOIS REDONDANTS, BON SANG.

Ce n'est pas une première pour nous.

Nous savons comment ça se passe !

Désolé, il y a beaucoup de jurons-majuscules.

Mais je suis tellement fatigué de ce discours sur l'IA.

Et particulièrement excédé par les affirmations selon lesquelles l'IA chinoise serait plus inoffensive, et qu'elle pourrait même vaincre l'empire.

Au diable l'IA.

Au diable l'IA, surtout lorsque des blogueurs perdent leur sang-froid.

Ou, comme on dit en Chine : 去他妈的人工智能

Traduit par  Spirit of Free Speech

Fin de la première partie :  L'IA peut aller se faire voir

 Partager ★ Spirit Of Free Speech

L'IA nous vole notre âme

Par  Nate Bear, le 15 novembre 2025

(L'IA peut aller se faire voir, partie II)

En début d'année, j'ai écrit  un article intitulé L'IA peut aller se faire voir, et compte tenu des progrès fulgurants de notre dystopie collective en matière d'IA, j'ai eu envie d'écrire une suite.

En effet, plus j'y pense, plus je crois que les dangers physiques, biophysiques, économiques, sociaux, cognitifs et planétaires d'un avenir dominé par l'IA sont largement sous-estimés.

Et le plus effrayant, c'est que c'est l'avenir qui nous attend, que nous le voulions ou non.

Cette semaine,  le Royaume-Uni a annoncé que toutes les écoles anglaises se doteront d'un objectif de fréquentation scolaire généré par l'IA, qui, d'une manière ou d'une autre, et comme par magie (personne n'a expliqué comment), réduira le nombre d'enfants qui sèchent les cours.

Ce projet me semble incarner exactement le genre d'initiative absurde née de la fusion entre le raisonnement sans âme de la gestion technocratique et la logique réductrice des machines.

À bien des égards, l'IA est l'outil parfait de la gestion technocratique, permettant aux marchands de tableurs de prendre du recul et de renier tout résultat, car la machine le leur a dit, la machine est omnisciente et la machine est bonne.

Et selon le Premier ministre britannique Keir Starmer, la machine n'est ni bonne, ni géniale. Selon Starmer, elle "nous rend plus humains". Ce sont les mots exacts qu'il a prononcés en référence à l'IA en juin dernier lors de la conférence Tech Week à Londres. Starmer est un véritable évangéliste de l'IA. En janvier, lors du lancement de la "stratégie IA" du Royaume-Uni, il a déclaré (et là encore, c'est presque trop caricatural, mais c'est pourtant vrai) que son gouvernement va  "injecter l'IA dans les veines du Royaume-Uni".

Sa détermination à faire adopter l'IA par le gouvernement britannique a permis à Starmer de signer  un contrat d'un milliard de dollars avec Palantir, le géant de l'IA qui a joué un rôle clé dans le génocide de Gaza. Fondée par Peter Thiel, un homme qui pourrait légitimement figurer dans le top 10 des antéchrists sur Terre, l'armée britannique va intégrer le logiciel "Gotham" de Palantir à ses systèmes de suivi et de ciblages militaires, maintenant qu'il a été testé avec succès  sur le terrain à Gaza. Le Royaume-Uni recourt également au logiciel "Foundry" de Palantir au sein du NHS pour déterminer qui a droit à quels médicaments et à quelles interventions chirurgicales, et pour s'assurer que les clandestins ne tentent pas d'échapper à la mort.

L'autre jour, Alex Karp, le PDG de Palantir, a déclaré qu'un État américain doté d'un système de surveillance  serait préférable à une victoire de la Chine dans la course à l'IA.

On ignore si le logiciel Palantir est à l'origine des objectifs de fréquentation scolaire fixés par l'IA au Royaume-Uni. Mais ça n'aurait rien de surprenant. Pas plus que de voir un drone équipé dudit logiciel survoler les maisons d'enfants qui sèchent l'école lorsque les objectifs imposés ne sont pas atteints. Quoi de plus coercitif qu'un drone au-dessus de votre tête ?

Et dans sa course effrénée à l'intelligence artificielle, le Royaume-Uni n'a jusqu'à présent fait qu'effleurer la surface. L'objectif est désormais de tout équiper en IA, des monnaies numériques aux projets d' identification numérique en plein essor. Le résultat semble évident : concevoir une technologie de surveillance parfaite qui sait tout de vous, y compris vos habitudes quotidiennes (intestinales ou autres). Mais rien à cacher, rien à craindre, n'est-ce pas ? Tout est parfaitement inoffensif, à moins de se mettre en tête protester contre un génocide ou dire quoi que ce soit en ligne que la junte au pouvoir dans notre merveilleuse social-démocratie juge trop provocateur. Vous pensez peut-être que j'exagère, mais la réalité est déjà là. Au Royaume-Uni,  plus de 30 personnes par jour sont arrêtées pour des commentaires en ligne, faisant de ce pays le régime policier le plus extrême au monde selon certains. Moins de 10 % d'entre elles sont condamnées. Comment ces personnes sont-elles identifiées ? Grâce à  des outils numériques basés sur l'IA.

Tout cela est parfaitement inoffensif, à condition d'aimer le fascisme.

Une tendance similaire est également en cours dans le secteur privé, et pas seulement au Royaume-Uni.

Un grand nombre d'offres d'emploi publiées sur LinkedIn concernent des postes d'enseignants de modèles d'IA. Que se passera-t-il lorsque ces modèles n'auront plus besoin d'humains pour apprendre et pourront s'auto-apprendre ? Que se passera-t-il lorsque ces modèles seront appliqués à divers secteurs ? Hormis dans les médias spécialisés, voilà à quoi nous serons réduits, nous, pauvres crétins mis au chômage par l'IA, soit un sujet de conversation qui n'intéresse personne.

Toutes celles et ceux qui occupent un emploi type "col blanc" de mon entourage utilisent désormais l'IA pour effectuer au moins une partie de leur travail, une tendance largement développée ces deux dernières années. Les entreprises l'achètent, elles demandent à leurs employés de l'utiliser et tout le monde se contente de répondre : "Oui, super, connectez-moi à cette machine, s'il vous plaît". L'inévitable menace d'un chômage de masse digne des années 1920 se profile à l'horizon. Et une main-d'œuvre de cols blancs zombifiée, incapable de se défaire de ses opinions politiques libérales et de manifester le moindre scepticisme face à la désindustrialisation numérique, est en train de l'accueillir à bras ouverts.

Sauf si la bulle financière de l'IA explose

Selon certaines estimations, cette bulle serait même  dix-sept fois plus conséquente que la bulle internet du début des années 2000. Dix start-up spécialisées dans l'intelligence artificielle (IA) ont atteint une  valeur marchande de près de 1 000 milliards de dollars l'année dernière, sans avoir réalisé le moindre bénéfice. D'autres calculs indiquent qu'avec une capitalisation boursière de 5 000 milliards de dollars, le fabricant de puces d'IA Nvidia représente désormais  un tiers du PIB américain. Et aujourd'hui, les adeptes de l'IA et les investisseurs en capital-risque à l'origine de la bulle haussent les épaules et disent : "Bien sûr que c'est une bulle, mais les bulles sont une bonne chose, vous ne le saviez pas ?"

Alors que les retraits bancaires s'accélèrent et que vous faites la queue pour retirer vos derniers centimes au distributeur afin de payer votre bailleur qui vient de multiplier par dix votre loyer pour couvrir ses emprunts, et que vous hésitez entre du pain nature ou du pain beurre pour votre unique repas du jour, rappelez-vous ceci : LA BULLE DE L'IA ÉTAIT UNE BONNE CHOSE.

Personne ne sait vraiment ce qui se passera lorsque cette bulle éclatera. La semaine dernière, Sam Altman, le directeur de ChatGPT,  a déclaré que la finalité de l'IA consiste essentiellement à la hisser à un niveau tel qu'elle ne puisse pas faire faillite. Selon lui, lorsque l'IA sera devenue le géant qu'elle est peut-être déjà, les gouvernements devront intervenir en tant "qu'assureurs de dernier recours", car à ce stade, tant de choses dépendront de l'IA que les entreprises ne pourront tout simplement pas risquer de faire faillite. Mais que se passera-t-il si, le moment venu, l'IA s'avère trop complexe pour être sauvée ? Que l'éclatement de la bulle de l'IA déclenche ou non des plans de sauvetage gouvernementaux comme en 2008, les conséquences d'une telle crise feront chuter l'économie mondiale.

À moins que l'IA ne réduise le monde en cendres ou ne le prive soudainement de ressources d'ici là

Ce ne sera probablement pas le premier effet à grande échelle, mais le coût écologique de l'IA est colossal. Google a ainsi augmenté ses émissions de carbone de  48 % ces cinq dernières années, précisément à cause de l'intelligence artificielle, tandis que celles de Microsoft ont augmenté de 30 % depuis 2020. Une requête ChatGPT requiert près de dix fois plus d'électricité qu'une requête de base sur un moteur de recherche classique. En septembre, Altman a publié une note interne révélant que l'objectif d'OpenAI est de disposer d'une capacité de 250 gigawatts d'ici 2033. Si cet objectif est atteint, les requêtes ChatGPT consommeront presque autant d'électricité que les 1,5 milliard d'habitants de l'Inde.

Et puis, il y a l'eau. Un grand centre de données a besoin de  19 millions de litres d'eau par jour pour le refroidissement, et chaque  requête de 100 mot requiert l'équivalent d'une bouteille d'eau pour le refroidissement. Il faut utiliser de l'eau douce, et non de l'eau de mer, à cause du sel. En d'autres termes, on gaspille des litres d'eau potable pour créer des vidéos HILARANTES de Michael Jackson mangeant du KFC avec Prince à la Maison Blanche.

Sans oublier les PFAS [composés per- et polyfluoroalkylés] et  autres produits chimiques  "éternels" utilisés par Nvidia et d'autres pour fabriquer les puces GPU [Graphics Processing Unit, soit "unité de traitement graphique"]. Or, ces puces sont de plus en plus grosses, et nécessitent donc davantage de matériaux et d'énergie pour être fabriquées.

Enfin, des entreprises comme ExxonMobil utilisent l'IA (Azure de Microsoft dans ce cas)  pour optimiser le forage et produire davantage de barils de pétrole.

Ajoutons à cela les zones agricoles  converties en centres de données d'IA.

Ensuite, côté injustice, l'exploitation pure et simple des travailleurs du Sud qui  travaillent 22 heures par jour et gagnent quelques centimes afin de nourrir les modèles d'IA.

L'IA n'est rien d'autre qu'une extension de l'impérialisme extractif à l'étranger & un outil de surveillance & maximisation du profit capitaliste chez nous

Quoi d'autre ? Ah oui, elle nous pourrit le cerveau. En externalisant notre cognition, l'IA ne nous libère pas des machines inertes, elle FAIT de nous des machines.  Une étude du MIT réalisée au début de l'année a révélé que ceux qui recourent à ChatGPT depuis quelques mois présentent une moindre activité cérébrale et un niveau de performance inférieur à la moyenne des tâches neuronales, linguistiques et comportementales, au regard de ceux qui n'y ont pas recours.

On nous a vendu l'IA comme un outil d'émancipation, alors qu'en réalité, elle nous asservit. Viendra un moment, déjà vécu par certains, où elles ne pourront plus fonctionner dans la vie quotidienne sans IA. Elles en auront besoin pour travailler, se divertir, se souvenir des tâches élémentaires, répondre à des e-mails, créer, recevoir un soutien émotionnel, des conseils de vie. Et cette dépendance ne fera que croître. Nous sommes confrontés à la capture totale de l'esprit humain et de la société par les psychopathes et sociopathes de l'IA de la Silicon Valley.

De plus, l'IA risque de brouiller de plus en plus la frontière entre réalité et fiction. Récemment, il s'avère qu'un compte TikTok populaire, censé se situer dans une maison de retraite et montrer des personnes âgées s'adonnant à des activités saines et amusantes,  était en fait généré par l'IA. Les internautes qui croyaient aux récits des résidents et à leurs drames quotidiens ont apparemment été pris de court. Une chanson générée par l'IA est actuellement  en tête des classements country aux États-Unis. À l'avenir, on sera incapable de dire si tel nouveau chanteur ou tel nouveau groupe est bien réel, ou si cette adorable vieille dame numérique n'est pas le fruit de l'imagination d'un influenceur.

Si nous n'y mettons pas fin, cette décennie marquera le début d'une psychose et d'un effondrement de la santé mentale

Je réalise actuellement des recherches pour un article sur les entreprises de cours en ligne générées par l'IA, qui sont essentiellement structurées comme un système de Ponzi : un fournisseur de cours en recommande un autre, qui en recommande un autre, et ainsi de suite. Ces entreprises ont toutes des sites Web professionnels avec de faux employés générés par l'IA qui ressemblent à s'y méprendre à de "vrais" employés, ainsi que des critiques vidéo générées par l'IA provenant de prétendus "clients", conçues pour convaincre les nouveaux clients potentiels quant à leur légitimité. Les tarifs des cours, tous rédigés par l'IA, varient de quelques dizaines à plusieurs centaines de dollars et couvrent tous les domaines possibles et imaginables. L'un de ces créneaux est, et je ne plaisante pas, le " Reiki des dauphins de l'Atlantide". Destiné aux adeptes du New Age les plus naïfs, il est à vous pour seulement 53 dollars !

Tout en nous escroquant, en nous dupant et en nous volant nos emplois, les entreprises d'IA veulent aussi nous priver du processus profondément primitif qui nous relie à notre humanité intrinsèque : elles veulent nous voler notre deuil.

La start-up 2wai, basée dans la Silicon Valley,  crée pour vous un avatar réaliste et conversationnel de votre parent décédé afin que vous puissiez "célébrer" la naissance d'un enfant avec votre mère disparue ou le dixième anniversaire de votre enfant avec votre conjoint parti trop tôt.

Dans une culture technologique axée sur la consommation plutôt que sur la réflexion, la positivité plutôt que la tristesse, et où la mort est un sujet tabou, je crains que beaucoup n'empruntent la voie de la moindre résistance cognitive et émotionnelle. Les rythmes de la nature ont depuis longtemps été bannis par un monde urbanisé et industrialisé. Pour un cerveau conditionné à la positivité, bannir l'acte final et le plus décisif de la nature peut sembler une conclusion logique.

En adoptant l'IA sans réfléchir aux conséquences, nous renonçons à notre humanité essentielle, à nos émotions les plus authentiques, à tout ce qui fait de nous des êtres pensants, sensibles et doués d'une capacité d'action, pour les céder au cloud et à l'élite de la Silicon Valley. En confiant notre cognition à des machines, nous devenons nous-mêmes des hommes et des femmes-machines. Et pour quoi donc ? Pour un confort imaginaire ? Pour éviter l'inconfort ?

L'inconfort de quoi ?

L'inconfort de la création ?

De l'amour ?

Du raisonnement ?

Du deuil ?

De la réflexion ?

Pour éviter l'inconfort d'être un être humain ?

La bonne nouvelle, c'est que les gens ripostent, j'ai parlé à deux d'entre eux cette semaine

Kim Crawley et Dally font partie des initiateurs d'un groupe de soutien mutuel anti-IA appelé  StopGenAI, qui collecte des fonds pour aider ceux qui ont perdu leur emploi à cause de l'IA. Kim a quitté son emploi à l'Open Institute of Technology lorsque les administrateurs lui ont ordonné de surveiller le travail des étudiants à l'aide d'une application d'IA appelée TurnItIn afin de détecter si les étudiants trichent grâce à l'IA, tout en promouvant des cours d'IA "responsables" et en apprenant aux étudiants à rédiger des requêtes pour les chatbots IA. Crawley dit qu'elle s'est sentie "offensée de devoir utiliser un bot pour détecter un bot". Dally, une ancienne contractuelle d'Alphabet, la société mère de Google, affirme avoir été exclue du syndicat Alphabet pour avoir exprimé ouvertement ses opinions sur l'IA. Dally, qui gagnait un salaire de misère en tant qu'évaluatrice des modèles d'IA de Google, affirme que

"le syndicat est devenu une partie du problème. Ils ont commencé à tourner le dos aux travailleurs pauvres et à ignorer nos voix (sur l'IA), car les salariés gagnant 250 000 à 300 000 dollars n'obtiennent pas ce qu'ils souhaitent du syndicat". Elle a également déclaré avoir vu Google Maps, "un outil de surveillance, devenir de plus en plus performant", tandis que la recherche Google "ne cesse de décliner" selon elle.

Elle affirme avoir constaté un choix stratégique, et non un accident.

Dally ajoute que son travail lui prouve que les modèles d'IA sont "racistes, extrêmement racistes", une observation étrange mais confirmée par les e-mails d'Epstein récemment publiés.  Joscha Bach, éminent chercheur en intelligence artificielle et professeur de sciences cognitives à l'université de Cambridge, a évoqué avec Epstein la possibilité d'utiliser l'IA et les neurosciences "pour améliorer l'intelligence des Noirs". Dans un e-mail de 2016, il affirmait avec assurance que le cerveau des Noirs "est plus lent dans l'apprentissage de concepts complexes" ! Le racisme affiché et flagrant est une caractéristique, et non un bug, des grands noms de la technologie et de leurs modèles d'IA.

Face à ce racisme inhérent et aux dangers plus larges engendrés par l'IA, Kim Crawley affirme que StopGenAI n'est pas intéressé par la promotion d'une législation contraire, à l'inverse d'autres groupes préoccupés par l'IA, comme The People's AI Action Plan. "L'essentiel de la résistance vient des classes moyennes libérales et professionnelles", dit-elle. Selon Crawley et Dally, cette approche conciliante mènera aux mêmes résultats dystopiques, mais dans un délai légèrement plus long.

Kim et Dally ont du mal à lever des fonds. Si vous pouvez les aider,  n'hésitez surtout pas.

Ne permettons pas que nos esprits soient intégrés au cloud. Résistons au remplacement de notre humanité par des processeurs en plastique et en métal. Plus précisément et concrètement, cela signifie résister aux grands groupes technologiques, aux fascistes et aux eugénistes qui ne voient en nous que des outils à leur service pour générer du profit, accroître leur pouvoir et financer leur expansion au-delà du plan humain.

Rien de ce que fait la Silicon Valley n'est dans notre intérêt. L'intelligence artificielle n'est pas dans notre intérêt. La bienveillance ne fait pas partie de leur concept. En réalisant que nous sommes les cibles, nous pouvons intérioriser cette réalité et faire de meilleurs choix concernant nos vies numériques (dont certains  sont exposés dans un précédent article).

L'ensemble des pratiques fascistes, antisociales et antidémocratiques qui poussent nos sociétés vers la destruction transite désormais par la Silicon Valley.

L'omniprésence des nouvelles technologies dans nos vies nous complique la tâche, mais si nous ne parvenons pas à couper le cordon entre la société et les technologies d'intelligence artificielle et ceux qui les contrôlent, alors nous sommes tout simplement foutus.

Traduit par  Spirit of Free Speech

 ssofidelis.substack.com