« Intelligence Artificielle » et délires : c'est EFFRAYANT !

Janv 20
« Intelligence Artificielle » et délires : c'est EFFRAYANT ! 20 Janvier 2023 Larry

J'avais déjà évoqué un des -sérieux- problèmes des délires qui entourent l'IA (Intelligence Artificielle) quand j'avais parlé des discours complétement FOUS à propos des soi-disant « robots sexuels ».

J'y dénonçais vigoureusement les auteurs/res qui parlent de ces « robots » comme s'ils avaient une intelligence (au sens proche des humains, ou même des animaux) alors que c'est 100% BIDON, ils n'ont AUCUNE réelle intelligence, pas plus qu'une poupée qui pleure et dit « Maman ».

Et croyez-moi, les délires sur ces sujets ne sont PAS sans conséquences, souvent sournoises. Dans le cas des robots (poupées) sexuels, par exemple, l'idée qu'ils puissent avoir de l'intelligence (LOL) est utilisé à fond pour stigmatiser les hommes. C'est un super prétexte pour TOUS les délires anti-hommes, et croyez-moi, j'en ai vu passer, à faire PEUR.

Tout ça alors que RIEN n'est vrai là-dedans ! RIEN DE RIEN.

Je rappelle que je suis (étais) informaticien pro, j'ai eu mon premier ordi en 1984... Je connais ces sujets.

Mais ce qui m'effraye VRAIMENT, ce ne sont pas ces délires sur les « robots sexuels » : ça, c'est un sujet super étroit, d'une portée très limitée, même si ça reste ultra-nocif. Moi, ce qui me fait de plus en plus PEUR, et je veux dire VRAIMENT PEUR, c'est que l'idée que « l'Intelligence Artificielle » soit de plus en plus perçue comme étant une réalité par le grand public et, pire, par les diverses « autorités » (justice, administrations et autres).

Comprenez-moi bien : ce qu'on appelle actuellement « IA », ça permet de faire des tas de choses utiles, parfois très utiles. Je ne nie absolument pas que ce soit des performances techniques et qu'on puisse en tirer un réel avantage. (Je ne détaillerai pas les soucis d'ABUS qu'ils créent aussi.)

Le souci, c'est que tout ça, c'est super, MAIS, ça n'est PAS de l'intelligence au sens que la quasi totalité des gens l'imaginent ! À de rares exceptions, les gens ne réalisent pas les énormes LIMITES de ces outils.

Et ce qui fait PEUR, VRAIMENT PEUR, c'est que de + en + de gens sont près à faire confiance à ces outils, à croire l'ordinateur, aveuglement, sans réaliser qu'il n'y a AUCUNE réelle réflexion derrière.

Vous avez lu ou entendu le « scandale » qui était survenu, il y a un moment déjà, quand un programme d'IA avait étiqueté des visages d'hommes noirs comme étant des gorilles ? Tout le monde avait hurlé au « racisme ». C'est EFFRAYANT ! Il n'y avait PAS de racisme là-dedans : pour qu'il y ait du racisme, il aurait fallu que le programme soit autonome, qu'il COMPRENNE VRAIMENT les choses, ce qui n'était pas le cas. L'IA ne pense pas, n'a pas d'intentions (bonnes ou mauvaises), pas de recul, pas de véritable intelligence. Elle ne « comprend » même pas ce qu'est un humain (ou un gorille). On ne peut pas parler de racisme quand on parle d'un objet qui n'a AUCUNE volonté propre ! Pour vous donner un point de comparaison : imaginez qu'une équipe de touristes visitent une forêt, et un arbre ou une branche tombe et tue un visiteur. Si ce visiteur était le seul noir du groupe, direz-vous que l'arbre était raciste ? NON, évidemment ! Cet arbre a zéro intelligence, pas d'intention, pas de compréhension de la différence entre « noir » et « blanc » (ni même de ce qu'est un humain !).

Le souci, c'est que la majorité des gens n'ont pas les connaissances ni le recul pour voir au-delà de l'apparence d'intelligence de tous ces outils. Il est très facile de donner l'impression qu'un programme est « intelligent », du moins, tant qu'on ne cherche pas à vérifier qu'il s'agit réellement d'intelligence. Ce n'est pas nouveau, des programmes qui simulent des discussions intelligentes, ça existe depuis les années 1960, et si on n'est pas prévenus, au début, on a l'impression de dialoguer avec un humain, au début, parce que rapidement, on peut voir qu'il y a des bizarreries, et si on creuse, ça devient CLAIR qu'on n'est pas face à une vraie personne.

La raison de ce nouvel article sur le sujet est que j'ai lu un article sur le cas d'une américaine qui avait été condamnée pour ne pas avoir fait son travail (à distance), en bonne partie sur la foi d'un programme d'IA. Programme qui est une totale boîte noire : il pourrait à 100% dire n'importe quoi ! Et ce qui est EFFRAYANT, c'est que visiblement juge et avocats ont pris son « analyse » au pied de la lettre, sans se poser de questions. Pourquoi ? Parce qu'il y a cette idée HORRIBLE et FAUSSE que les ordinateurs sont infaillibles, donc une IA aura forcément raison ! Effarant quand on sait qu'il y a ZÉRO intelligence derrière, le programme pourrait tout aussi bien jouer à pile ou face pour ses décisions, sans que personne ne le voit...

Ne vous y trompez pas : c'est un sujet extrêmement sérieux, avec des ramifications nocives dont presque personne n'est conscient (même dans l'informatique). Alors que notre monde se repose de plus en plus sur des outils de ce genre, ne pas reconnaître leurs ÉNORMES LIMITATIONS pose un réel danger !

(Je parle d'un danger social évidemment : rien à voir avec « Skynet », surtout qu'il n'y a AUCUNE intelligence là-dedans, rappelez-vous.)

Malheureusement, l'éducation en technique et informatique est très faible, et les discours (hypocrites, car il y a d'énormes bénéfices financiers derrière, évidemment) sur la réalité de l'IA sont très convaincants, ça n'annonce rien de bon pour le futur.

Vous voyez, en comparaison des problèmes de la présence grandissante d'outils pseudo-intelligents (mais vraiment STUPIDES), le problème des soi-disant « robots sexuels » est si minime qu'on peut l'ignorer...