Structures de propagande

Si vous n’étiez pas trop convaincu par le dernier billet (Structures de censure), je vous invite à prendre connaissance des discussions autour de la dernière version de Gemini (l’IA de Google, ex-bard). De manière assez basique, cette IA a carrément « effacé » les blancs. Quand on lui demande de générer une image d’un pape, elle ne génère que des images avec des noirs ou des personnes de couleur. Du pur wokisme, assumé, car la responsable de la stratégie IA l’explique très bien. C’est ce que la vidéo très bien faite de Matt Walsh montre (en fin d’article) : la mega-entreprise Google, que l’on utilise tous les jours, fait de la vulgaire propagande1 woke.1. Action psychologique qui met en œuvre tous les moyens d’information pour propager une doctrine, créer un mouvement d’opinion et susciter une décision. A l’approche des élections US, et des européennes avant, tout cela n’augure rien de bon pour la liberté d’expression et pour la liberté tout court. Je ne sais pas trop comment on peut lutter contre ça, à part en le faisant savoir, et en se désengageant autant que faire se peut des outils Google. C’est très pénible qu’une belle entreprise comme celle-là se soit laissée grignoter et phagocyter par des activistes politiques. C’est le cas pour le wokisme, c’est le cas pour le catastrophisme climatique. C’est déjà en train d’arriver en France. Pour ma part, je vais essayer de quitter progressivement gmail : si nous sommes des milliers, des centaines de milliers, des millions, à le faire, peut-être cela fera-t-il réfléchir les dirigeants de Google ? Je n’y crois pas vraiment (les dirigeants de Google ont volontairement mis en place ce genre de cinglés), mais a minima ça évitera qu’ils jouent avec mes données. Evitons de nous faire biaiser. Quand on voit comment les médias ont joué main dans la main avec les gouvernements au moment du COVID pour censurer tout ce qui ne suivait pas la ligne du parti, c’est une précaution à mon sens utile. Qu’en pensez-vous ? Est-ce que cela vous inquiète, ou est-ce moi qui me fait des films ?


Publié

dans

par

Étiquettes :

Commentaires

5 réponses à “Structures de propagande”

  1. Avatar de FRANCOIS UNGER
    FRANCOIS UNGER

    Je ne suis certes pas compétent en IA. Mais je peux comprendre les enjeux. Au moins une partie. L’IA créé du contenu sans en percevoir la pertinence. L’IA créé du contenu sans pourvoir le mettre en relation avec de l’affect ni l’imaginaire de chacun. l’IA est donc une machine a produire une fausse réalité à l’usage de ceux qui ne veulent ou ne peuvent pas se confronter à la réalité. Les créateurs des algorithmes de l’IA ont la possibilité de faire de toute réalité un deep fake et de faire passer un deep fake pour un élément de la réalité. Avec l’excuse suprême: c’est la machine qui l’a fait, c’est pas moi.
    Que l’IA puisse apporter des services je n’en doute pas. Mais les risques sont tels face à une population qui ne sait pas ce que signifie « mettre en doute », que je suis très inquiet sur les conséquences de sa vulgarisation.

    1. Avatar de BLOmiG
      BLOmiG

      hello merci pour ton commentaire. D’accord avec tout ce que tu écris. Il me parait aussi important que ces IA utilisent nécessairement des structures de « contrôle » dans leurs algo : quand on génère des images au hasard et qu’on fait apprendre à l’algo le type d’image qui correspond à « chat » et celles qui correspondent à « voiture », il faut bien contrôler, avoir des critères de validation. Dans le cas de la nouvelle IA de Google, c’est assez clair. Par conception, ils ont intégrés dans leurs boucles de contrôle des critères totalement woke. La seule chance à mon avis est de favoriser la création d’IA de toutes sortes, et qu’elles puissent être en concurrence. Je vois ça comme le monde des idées : pour que la vérité soit possible, il faut que les idées, le plus possible, puissent exister et se concurrencer pour prétendre avoir une meilleure adéquation au réel. Il en ira de même pour les IA, avec le risque supplémentaire que tu mentionnes, c’est qu’elles vont elles-mêmes créer une partie du réel. Mais n’est-ce pas déjà le cas, depuis longtemps : les humains créé en permanence des idées, des imaginaires, des idéologies, du sens, qui structurent ensuite notre appréhension du réel… ?

  2. Avatar de Max UNGER

    Merci lomig pour ton post, et votre discussion!
    Je vous rejoins sur le danger consistant à créer massivement de l’information erronée et idéologisée. Elle sert aussi dans le même temps à trouver rapidement des informations « vraies » et pertinentes.

    De mon point vu, je vois ça comme un outil et un média. Les journaux n’ont ils pas toujours propagé leur ligne éditoriale ? à eux aussi on pourrait leur demande un mécanisme de controle ?

    L’IA étant entrainée sur des données humaines, la selection des sources d’apprentissage induit un biais très important, mais dans tous les cas, elle sera baisée par les connaissances humaines, en miroir de ce que nous avons produit.

    Plusieurs solutions pour réduire les biais:
    – des IA « open source », qui permettent aux utilisateur de voir les biais implémentés et utiliser les outils en concurrence en toute connaissance de cause
    – re-entrainer soi même sur différentes sources de données, les modeles disponibles sur le marché, pour maitriser mieux les biais, ou orienter comme on le souhaite les réponses de l’IA

  3. Avatar de Phthoreux

    Le problème ne vient-il pas d’avoir mal nommé les choses ? Il n’y a en définitive pas plus d’intelligence dans l’IA que dans une simple calculette. Aussi bluffant que cela soit, il ne s’agit que d »algorithmique greffée sur du big data, et pilotée par des être humains comme « la voix de son maître ».
    Le vrai danger n’est-il pas le recul progressif de l’esprit critique auquel on assiste ? L’internet est une source d’informations d’une richesse et d’une diversité jamais vue. Mais beaucoup de gens, par une faiblesse coupable, restent à la surface, calqueant leur opinion sur des slogans subjectifs.
    S’en remettre à une machine pour penser, c’est refuser de se comporter en adulte libre et violer le principe des Lumières émis avec beaucoup de pertinence par Immanuel Kant…

    1. Avatar de BLOmiG
      BLOmiG

      salut Phthoreux, merci pour ton commentaire ! Oui d’accord avec tout ça. L’IA est un outil et pas de particulière inquiétude de mon côté. Mon article n’était pas sur l’IA à vrai dire, mais sur les manipulations politiques d’un certain nombre d’acteurs (Google en l’occurrence). J’ai bien plus peur des humains idéologues et coupé du réel que des IA. :)

N'hésitez pas à partager votre avis ! (Markdown ok)

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.