Sciences humaines et politiques
N.B. Le lien du blog doit être prochainement modifié par la gestionnaire de la plate-forme Eklablog, et le nom "reconquete85", remplacé. Nous n'avons donc pas la maîtrise de cette opération.
N'éteignez pas votre cerveau : restez éveillé...
ChatGPT, la fameuse IA conversationnelle d’OpenAI, faite en partenariat avec Microsoft, est en ligne depuis seulement trois mois.
Elle est encore en phase de test. Et pourtant…
Elle semble déjà porter en elle les germes d’un totalitarisme idéologique qui pourrait façonner un monde comme celui décrit en 1958 par Aldous Huxley dans son essai Brave New World Revisited (Retour au meilleur des mondes) :
“La nature de la contrainte psychologique est telle que ceux qui agissent sous contrainte ont l’impression d’agir de leur propre initiative. La victime de manipulation mentale ne sait pas qu’elle est une victime. Pour elle, les murs de sa prison sont invisibles et elle se croit libre”.
EXPLICATIONS…
Si l'IA vous contrôle... QUI contrôle l'IA ?
Pour que l’IA vous fournisse des réponses cohérentes, il faut d’abord qu’elle soit “entraînée”.
Et pour cela, sa base de connaissances est construite avec des milliards de données qui sont injectées en entrée dans le modèle.
Les ingénieurs d’OpenAI utilisent alors un processus de “labellisation” des données.
C’est-à-dire qu’ils font un tri arbitraire entre les données qu’ils acceptent de donner à l'IA et celles qu’ils vont supprimer parce qu’elles ne leur plaisent pas…
D’ailleurs ce tri serait fait manuellement en sous-traitant cette tâche ingrate dans des pays où la main d’œuvre est peu chère…
Certains de leurs critères de choix sont opaques et les données labellisées ne sont pas divulguées.
Donc personne ne peut vraiment savoir quelles données ont nourri l’IA, ni dans quelles proportions…
C’est déjà très inquiétant, mais il y a pire.
Car après cette première sélection des données brutes, les programmateurs ajoutent EN PLUS des règles spécifiques pour “pondérer” les résultats.
Pour faire simple, ils “corrigent” les réponses de l’IA pour qu’elles correspondent bien aux biais idéologiques et moraux voulus par OpenAI.
Donc, in fine, ils façonnent une IA qui a une connaissance partielle du monde et qui agit selon les biais des humains qui l’ont programmée…
Vous comprenez maintenant pourquoi les réponses de ChatGPT sont biaisées !
Vous n’avez pas entre les mains un outil juste et neutre.
Vous êtes face à une technologie de propagande au service de ceux qui l’ont développée.
Les patrons des grandes multinationales américaines, comme Microsoft, Google, ou Meta… font tous partie du même petit cercle de milliardaires qui ont des intérêts communs.
Ils veulent à tout prix éviter les dérapages, la mauvaise publicité, le politiquement incorrect et les opinions contraires…
Par conséquent, sur des sujets sensibles, ou polémiques, l’IA sera programmée pour recracher des réponses standardisées et contrôlées.
Sundar Pichai, le patron de Google, l’avoue lui-même :
“L’utilisation de Bard va être limitée à des “testeurs de confiances” avant de la rendre plus largement disponible, pour s’assurer que les réponses atteignent un niveau élevé en matière de qualité, de sécurité et d’ancrage dans les informations du monde réel. Nous voulons créer des systèmes fiables, dignes de confiance et nous nous engageons à développer l’IA de manière responsable”.
En clair, ils vérifient d’abord que les réponses de Bard ne remettront pas en cause le pouvoir, les institutions, les directives gouvernementales, les idées dominantes…
Et lorsqu'ils seront certains que leur IA est bien bridée et qu’elle fournit des réponses “bien pensantes”, ils la livreront au public…
D’ailleurs ce n’est pas un hasard si Google a annoncé s’être associé à des organisations externes, à des gouvernements et à des experts pour “rendre l’IA sûre et utile”.
Sûre pour qui ?
Utile pour quoi ?
ChatGPT discrimine déjà certaines personnes !
Par exemple, l’IA de Microsoft traite de façon différente les individus en fonction de leur bord politique.
Pour s’en rendre compte, il suffit de lui soumettre quelques demandes similaires relatives à des personnalités politiques très différentes, et de comparer les résultats obtenus. C'est édifiant.
Il n’est pas souhaitable que les résultats mathématiques d’une IA soient modifiés dans le sens d'un “bien” ou d'un “mal” décidé par on ne sait qui.
En revanche, il est souhaitable d’avoir à notre disposition un outil neutre et indépendant, qui nous donne des réponses en s’appuyant uniquement sur une base de connaissances vérifiées et sur des faits avérés.
Parce que si elle applique une quelconque forme de censure, cela veut dire qu’elle cherche à influencer notre façon de penser.
Et cela pourrait être très dangereux…
Si vous tournez les curseurs d’une IA dans un sens pour y imposer votre “bonne” moralité, rien n’empêchera quelqu’un d’autre demain de les tourner dans l’autre sens pour avoir un résultat opposé…
Alors restez très méfiant vis-à-vis des réponses des IA conversationnelles et rappelez-vous qu’elles ne sont pas objectives.
Elles donnent l'impression de “tout” savoir, ce qui nous met en confiance, mais ce n’est pas la réalité.
Vous devez toujours rester vigilants et garder votre esprit critique.
La liberté d'expression, c'est l'Open Source : Il s’agit d’une information accessible à tous et non classifiée.
Les IA des GAFAM pourraient bientôt ressembler à des “supers contrôleurs de pensée”, un peu comme un nouveau genre de Big Brother numérique.
Elles affirmeront des opinions non discutables et vous imposeront des idées consensuelles avec une puissance rhétorique que vous n’aurez plus la capacité intellectuelle de combattre, parce que vous aurez arrêté de réfléchir par vous-même.
Face à ce risque, il faut souhaiter que de nombreuses entreprises différentes développent leur propre modèle d’IA.
Parce que la concurrence fera émerger des idées contradictoires et des réponses variées sur tous les sujets, y compris les plus sulfureux.
Cela permettra de conserver une pluralité d’opinion, même des IA !
Par exemple, le projet Open Assistant de la société Laion veut créer une IA conversationnelle avec des bases de données d’entraînement les plus larges possibles et avec le moins de censure possible.
De son côté, Elon Musk envisagerait aussi d’ouvrir un laboratoire de recherche qui travaillerait sur un modèle alternatif d’IA…
Dans tous les cas, de nombreux projets vont voir le jour dans les prochains mois.
L’IA, qu’on l’adore ou qu’on la craigne, est la nouvelle tendance de fond.
Elle se veut surtout l’outil incontournable pour orienter vos pensées, vos réflexions, vos opinions, vos actions… Votre vie.
Nous verrons dans un prochain dossier quels seront les métiers impactés par l'I.A.