Je voudrais ajouter quelques remarques à mon article à rallonge d'hier. J'attaque d'emblée en anticipant certaines critiques que certains ne manqueront pas de faire (les commentaires sont calmes, mais il y a les rares personnes qui me parlent hors blog et puis ceux qui n'en pensent pas moins).

 

D'abord j'imagine, mais peut-être est-ce une sorte de réflexe chez moi, qu'on me reprochera de prendre systématiquement le parti des « bourreaux » et des coupables. D'abord, n'est coupable que qui a été jugé comme tel, ce qui n'est pas le cas de tous les exemples cités dans l'article. Ensuite, je trouve de toute façon, et c'est bien l'intérêt d'une réflexion sur l'hystérie, que bien assez nombreux sont toujours ceux qui grognent avec la meute. J'ai sans doute une sorte de mentalité d'avocat, mais je trouve nécessaire qu'un contrepoids soit apporté aussi systématiquement que possible aux accusations rapides, souvent lapidaires, et aux jugements qui sont de la même eau, surtout dans une société qui tend à détruire les derniers garde-fou judiciaires contre les lynchages, et qui à cause des réseaux « sociaux » (qui sont à vrai dire surtout des réseaux grégaires incitant au suivisme, aux polémiques superficielles et l'instrument parfait pour engendrer des nourrir des hystéries sans fondement) s'emballe pour un oui ou pour un non.

 

Une autre remarque est que, lorsque je parle d'hystérie polymorphe (je n'ai pas beaucoup développé ce point), j'évoque une hystérie unique, mais qui prend des formes différentes. J'ai abondamment parlé de la part puritaine, ambivalente, à la fois pro-sexuelle et anti-sexuelle qui relève d'une agitation morale stérile, et qui conduira sans doute à une forme quelconque de contrôle normatif de la sexualité, tout en encourageant paradoxalement l'ouverture des barrières sur des trucs aujourd'hui considérés comme tabous. Mais j'aurais pu y ajouter l'hystérie anti-russe, et diverses agitations géopolitiques qui proviennent du même épicentre. En vérité, tout provient de ces réseaux idéologiques universitaires américains, qui nourrissent nos « french leaders » et autres « young leaders » qui prolifèrent à travers l'Europe et le reste du monde. Les canaux idéologiques de type progressisme-sociétal qui trouvent leurs sources en Californie et dans les autres universités américaines ont totalement perverti les idées de gauche pour leur faire soutenir un globalisme qui, pour le moment n'est que le cheval de bataille d'une élite, et ne profitera donc en premier lieu qu'à cette élite. Et même si j'ai dit – et je peux le répéter – qu'il ne sert à rien de craindre pour l'avenir, je pense toutefois qu'il est idiot de soutenir cette mouvance sans mobiliser son esprit critique, car cette mouvance est délétère, et n'est que du capitalisme qui avance masqué, financé par des organisations qui se prétendent gauchistes, mais qui veulent la dissolution de tout, et pas seulement des traditions chères aux conservateurs. Les idées de gauche comme de droite seront non pas fusionnées comme on essaye de nous le faire croire à travers les mouvements comme « en marche », mais dissous et dissolus dans un tout apolitique, entièrement dévolu au capital.

 

Par ailleurs, cette hystérie touche aussi la science, avec ses chimères basées sur l'IA, le transhumanisme, la colonisation spatiale et tous ces délires qui n'ont pas prouvé – doux euphémisme – qu'on pouvait les mettre en œuvre, et a fortiori les mettre en œuvre suivant une manière qui profite à l'humanité.

 

Dans ces notes, je voudrais, du coup, en profiter pour commencer un article en anglais sur lequel je suis tombé hier et qui aurait eu sa place dans mon article.

 

https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals

 

Alors tout le monde ne lisant pas anglais, je soulignerai seulement quelques passages, pour que l'on voit où je veux en venir.

 

Donc le titre de l'article nous annonce que les IA, plus précisément celles qui font de la traduction de textes à travers l'internet, posséderaient des biais racistes et sexistes. Voyons ce qu'il en est de cette assertion à la lecture de l'article.

 

Dans la première partie, l'exemple de Google Translate nous est servi pour illustrer ce problème. Ce programme sillonne l'internet et traduit « machinalement » des milliers et des milliers de textes chaque jour, en se basant sur une méthode essentiellement statistique pour déchiffrer les textes. En d'autres termes, ce programme ne lit pas les textes au sens strict, il les convertit en un chiffrage statistique qui va l'aider à contextualiser les mots et donc leur sens dans le contexte donné. Cela va même l'aider à déterminer le sens de mots qu'il ne connaît pas, en se basant sur le contexte, et donc le sens probable qu'il a dans ce contexte, en comparant avec sa base de données. Autrement dit, tout en traduisant, l'IA apprend les mots qu'elle ne connaît pas encore.

 

De par ce procédé, l'IA apprend par exemple qu'un mot comme « blanc » est souvent associé à la richesse, quand un mot comme « noir » est plus souvent associé à des notions plus désagréables. Jusqu'ici rien de très étonnant, on sait que les populations noires et les autres minorités sont, dans le monde, plus défavorisées que les communautés « blanches ». Idem avec « homme » et « femme ».

 

Là où le bât blesse – et cela constitue une parfaite illustration de ce qui était dit dans l'introduction de mon article d'hier – c'est dans la manière dont les universitaires interprètent ce fait.

 

Il serait logique de conclure très simplement, et sans s'enfermer dans une hypocrisie ou un aveuglement idéologique, que l'IA découvre que, dans le monde, les communautés noires sont moins favorisées que les blanches. Point. Une IA est neutre et ne verse pas dans l'idéologisme, le racisme, ou une vision politique. Mieux, ce qu'on appelle pompeusement une IA n'est en fait qu'un algorithme de traduction, dans le cas qui nous intéresse. Cet algorithme n'est pas conçu pour se faire une idée des choses et en concevoir une philosophie : il constate des faits statistiques et en tirent un apprentissage qui ne lui servira qu'à mieux traduire les prochains textes.

 

Mais ce n'est pas du tout ce qui se passe. Les universitaires qui constatent le fait que constatent les algorithmes de traduction éprouvent le besoin de passer par dessus cela une épaisse couche de politique correct pour ne pas bousculer leurs croyances et pour démontrer une fois de plus leur appartenance à une communauté de valeurs morales respectueuses, non-racistes, etc. Comme si elles étaient gênées de se trouver confrontés à une IA « raciste ». C'est un total non-sens, surtout provenant de scientifiques, à moins que ce ne soit l'article qui donne cette fausse impression. Néanmoins, je trouve les extraits que je vais citer assez sidérants, pour ma part :

 

« Joanna Bryson, a computer scientist at the University of Bath and a co-author, said: “A lot of people are saying this is showing that AI is prejudiced. No. This is showing we’re prejudiced and that AI is learning it.”

But Bryson warned that AI has the potential to reinforce existing biases because, unlike humans, algorithms may be unequipped to consciously counteract learned biases. “A danger would be if you had an AI system that didn’t have an explicit part that was driven by moral ideas, that would be bad,” she said. »

 

En clair, l'informaticienne nous dit que, comme les « IA » ne sont pas équipés d'une morale, il faudrait penser à les en équiper si possible, car sinon, ces IA vont renforcer nos biais. On trouve plus loin un éclaircissement quant à la construction de ce point de vue assez hallucinant :

 

 

« Sandra Wachter, a researcher in data ethics and algorithms at the University of Oxford, said: “The world is biased, the historical data is biased, hence it is not surprising that we receive biased results.” »

 

Ce que nous dit cette chercheuse (qui n'a visiblement pas encore trouvé), c'est ni plus ni moins que « le monde est biaisé ». Et que donc, les IA fournissent des résultats biaisés.

 

Il est intéressant de se demander ce qu'elle a bien voulu dire par là. Que signifie de dire que « le monde est biaisé » ? Que le monde n'est pas comme nous aimerions qu'il soit ? « Nous » qui ? Et comment aimerions-nous qu'il soit, sachant que ce qui nous différencie d'un logiciel algorithmique est que nous avons des souhaits, des désirs, des opinions politiques, sociétales, etc., non-neutres et pas forcément partagées par la totalité des autres ?

 

Nous avons là le cocktail à la fois d'un déni de réalité et d'un déni du droit d'autrui et de la nature de produire et/ou de vouloir un monde autre que celui que nous souhaiterions. Nous avons donc tous les ingrédients d'une sorte de pathologie mentale qui va presque immanquablement conduire à vouloir réformer le réel.

 

Vous me direz que c'est humain : la force de la science et de la technique est précisément de réformer le réel. Mais c'est justement là qu'il faut s'arrêter, et commencer peut-être à tirer des leçons. Lorsque vous avez des universitaires idéologisés auxquels le monde ne convient pas, et qui ne sont pas prêts à tolérer le constat que le monde humain est fait de communautés plus favorisées que d'autres, vous avez peut-être sous les yeux l'explication de pourquoi la société américaine, dirigée par ce genre de personnes, a toujours fait régner la terreur dans le reste du monde au nom de ses « valeurs » de la « démocratie », d'une science idéalisée et avant tout mise au service du militaire, en somme nous avons sous les yeux le spectacle de gens qui, face à un simple constat, ne peuvent pas simplement le regarder, l'analyser et le comprendre. Non, il leur faut avant tout modifier le réel, jouer aux apprentis-sorciers, en plus de croire à « l'intelligence » et même, pire, à la capacité de leur algorithme à se former une opinion sur le monde, opinion qui, qui plus est, pourrait aggraver le constat qu'elle fait.

 

Comment un cerveau doit-il fonctionner pour en arriver à un cheminement aussi fallacieux, aussi chimérique, et pour tout dire, aussi dément ? Le déni de réalité est ce qui caractérise en premier lieu la psychose.

 

Plus loin on trouve encore un signe de l'idéalisation morbide que ces « cerveaux » forment vis à vis de leurs programmes, qui ne sont que des logiciels :

 

« “At least with algorithms, we can potentially know when the algorithm is biased,” she said. “Humans, for example, could lie about the reasons they did not hire someone. In contrast, we do not expect algorithms to lie or deceive us.” »

 

Je traduis :

 

« Au moins, en ce qui concerne les algorithmes, nous pouvons potentiellement savoir quand ils sont soumis à un biais, dit-elle. Les humains, par exemple, peuvent mentir à propos des raisons pour lesquelles ils n'ont pas embauché quelqu'un. À l'inverse, nous ne nous attendons pas à ce que des algorithmes puissent mentir ou nous tromper. »

 

Ainsi, les humains pourraient se tromper et se mentir à eux-mêmes tandis qu'un algorithme ne le peut pas. On a vu avec l'IA qui joue au poker que c'est faux puisqu'elle bluffe... Même si ce bluffe est une stratégie, techniquement, et non un mensonge. Mais le résultat est le même : tromper le joueur humain.

 

Mais surtout, ce passage trahit l'idée que la chercheuse a parfaitement confiance dans son programme, dans la mesure où elle pense pouvoir en détecter les failles, ce qui n'est pas le cas avec les humains. Puis-je m'autoriser à y voir, précisément, un biais de la part de ce type de personne ? Est-ce que ces chercheurs précis dont on parle, et qui font la loi et la morale dans les universités qui dirigent du sort du monde (qui serait biaisé, rappelez-vous) ne sont pas, comme les politiciens que l'on connaît, quelque peu déconnectés du monde réel et de l'humain autour d'eux ? Attendent-ils vraiment de la machine d'être plus parfaite et à la fois plus prédictible que l'humain ? Attendent-ils vraiment de l'algorithme de manifester une intelligence au point d'exercer une opinion et une pression politique sur les choses, au point de renforcer des biais qui ne sont jamais ceux que l'humain, animal et mécanisme psycho-biologique, a créé ? Quant à cette utilisation du terme « monde » pour parler, sans doute, de la société humaine, elle laisse à réfléchir... surtout quand ce choix conduit à généraliser au monde ce qu'on peut considérer comme des biais, mais qui sont avant tout des conséquences factuelles de mécanismes biologiques, anthropologiques et sociologiques qui s'expriment dans la société humaine. Et comment pourrait-on seulement espérer qu'il en soit autrement, tant qu'on n'aura pas résolu le problème de la dépendance humaine aux instincts, aux pulsions, aux désirs ?

 

Il y a là le germe d'un scientisme à mes yeux parasite, qui persiste à vouloir gérer l'humain par la technique, au point de policer les logiciels pour qu'ils n'exhibent pas de résultats « inconvenants ». On en revient à ce déni de réalité, pire, à ce refus de seulement contempler le réel. Et peut-être pire encore, à ne consentir à voir l'humain qu'à travers ses conceptions, ses programmes, et à projeter sur eux une intelligence qu'ils n'ont pas et ne peuvent pas avoir, à l'heure actuelle. Bref, on nourrit dans tous les sens une confusion à cause d'une sorte de foi religieuse dans le fait scientifique, sans même se rendre compte que ce ne sont rien d'autre que nos instincts humains qui nous poussent à prêter une intelligence autonome à quelque chose qui n'est rien de plus qu'un tas de chiffres immatériels, qui s'arrête quand on débranche la prise de courant, et ne reprend que quand un humain clique sur l'icône pour lui dire de le faire.

 

On est en plein fantasme, en plein délire idéologisant et il n'y a rien d'étonnant en effet à ce que tout cela nourrisse une hystérie qui part de cet univers universitaire en vase clos.

 

Le dernier paragraphe de cet article, qui ne laisse décidément pas de m'étonner, dit enfin :

 

« “We can, in principle, build systems that detect biased decision-making, and then act on it,” said Wachter, who along with others has called for an AI watchdog to be established. “This is a very complicated task, but it is a responsibility that we as society should not shy away from.” »

 

 

Selon l'auteur de cette phrase, si l'on remet tout cela dans le contexte de cette réflexion, il est sous-entendu que les décisions basées sur des présupposés racistes sont des « biais », et que nous pourrions éviter ces biais de la part des machines.

 

Je conteste cette vision. D'abord ce ne sont pas des « biais » au sens strict : ce sont des conséquences de notre héritage biologique et culturel, que l'auteur de la phrase cherche à stériliser en prétendant qu'il s'agit d'un biais. Est-ce qu'un chat qui tue un oiseau et ne le mange pas est victime d'un biais ? On comprend que c'est un débat linguistique avant tout. Le chat est avant tout victime de son instinct de chasseur, mais doit-on considérer cela comme un biais ? C'est tout ou rien, si vous lui ôtez son instinct de chasseur, il ne tuera plus inutilement des oiseaux. Mais il deviendra fou, inutile, apathique et bientôt mort.

 

On ne peut pas, comme ça, nier l'héritage biologique d'une espèce, nier même jusqu'au fait que l'humain provient de la nature et qu'il est alors soumis à des pulsions et un besoin d'aller de l'avant, concernant le sexe, les ressources, le territoire, le contrôle, le pouvoir, le plaisir, etc.

 

On ne peut pas non plus aplanir la différence entre l'humain et les logiciels qu'il produit en prétendant que les seconds acquièrent toutes les caractéristiques du premier. Ma fourchette ne mange pas à ma place. Mon clavier n'émet pas des opinions sur la société et pourtant « il les écrit ». Lorsqu'une cheminée tombe sur quelqu'un, elle ne l'agresse pas, elle l'écrase parce qu'elle est victime de la gravité.

 

Je ne vais pas aller plus loin. Je dirai simplement pour terminer que ces scientifiques sont des enfants qui dessinent un sourire sur le soleil.

 

PS : Je remets ce lien vers un article de métropolitiques, qui permet de comprendre que ce que ces fous ne veulent pas voir est plus fort que l'anti-racisme primaire. Quand la bonne volonté des "blancs" progressistes aboutit au même résultat que l'absence de cette volonté, cela remet les choses en place sur la puissances de nos instincts, et sur la manière dont les relations sociales s'organisent réellement, loin des idioties idéologiques progressistes :

http://www.metropolitiques.eu/Devenir-minoritaire-Blancs-et-non.html

Il va donc falloir trouver autre chose que se voiler la face ou que les bons sentiments à l'origine du politiquement correct, qui finit par servir de caution et de prétexte pour ne rien changer à cet état de fait que tout le monde prétend vouloir faire changer. La première fonction du politiquement correct est d'ailleurs, qu'on se le dise, de ne pas réfléchir les problèmes en les conservant dans le tabou et le non-dit. Raison pour laquelle je n'hésite plus à mettre les pieds dans le plat des tabous les mieux admis. Même sur la question des tabous, nous avons importé notre mentalité tribale, ce qui est un comble dans le scientisme ambiant, toujours très prêgnant dans la société actuelle. Il y a trop de problèmes devenus impensables, et si on ne peut plus, ne veut plus ou n'est plus capables de penser, analyser et critiquer certaines choses, alors ce n'est plus la peine de prétendre qu'on cherche à améliorer la société humaine, à faire progresser l'humanisme véritable (non pas celui, inverti, qu'on brandit dans l'hystérie actuelle).