Mon opinion sur l’opinion de Chat GPT sur mon opinion sur Alain de Botton

Le billet précédent donnait à lire la réponse de ChatGPT à mon opinion sur Alain de Botton. J’avais volontairement choisi de ne rien modifier à ce que l’intelligence artificielle avait produit. Non pas par paresse, mais parce que cette réponse est en soi une performance technologique étonnante. Analyser l’opinion d’un être humain, l’évaluer, puis la restituer sous la forme d’un jugement en trois points (1. là où tu as raison, 2. là où c’est discutable, et 3. là où tu vas trop loin) c’est exactement ce que fait tout professeur, tout consultant, tout évaluateur de texte. C’est rationnel et structuré. Et cela montre très clairement une chose : l’intelligence artificielle est une construction humaine.

Si l’on programme correctement des machines, il est parfaitement logique qu’elles deviennent plus rapides, plus efficaces, plus performantes que le cerveau humain dans certaines tâches. C’est le principe même de toute technologie : augmenter les capacités du corps et de l’esprit. Encore heureux qu’une voiture aille plus vite que mes pieds, qu’une calculatrice sache faire des choses que nous ne saurions pas faire. Rien de mystérieux là-dedans.

Cela dit, à la lecture de cet article, des problèmes apparaissent très nettement. La manière dont ChatGPT critique mon opinion interpelle. À un moment clé, il m’explique que je vais « trop loin » lorsque je qualifie Alain de Botton de cynique, sous prétexte qu’il a toujours été bourgeois, qu’il n’a jamais prétendu être révolutionnaire, et que le fait de transformer aujourd’hui la philosophie en business ne serait finalement qu’une continuité, pas une rupture.

Là, franchement, c’est lui qui va trop loin. Tu vas trop loin, machine.

Lire aussi : L’IA a écrit ma dissertation de philosophie

La Précarité du sage, 2023

On parle quand même de l’auteur de The Art of Travel, de cette posture aristocratique, mélancolique, vaguement raffinée, qui faisait encore semblant de croire à quelque chose comme l’expérience, le déplacement, l’art. Et aujourd’hui, on le retrouve à faire de l’argent avec des pseudo-conseils, des pseudo-conférences, des pseudo-symposiums. Il n’y a plus d’art. Il n’y a plus de voyage, surtout pas de voyage. Il n’y a plus rien de tout ce qui faisait le propre de The Art of Travel. Dire que ce n’est pas du cynisme, c’est fermer les yeux.

Lorsque ChatGPT répond que de Botton est « toujours lu, toujours reconnu », on touche là à une critique beaucoup trop banale, beaucoup trop peu fine. Lu par qui ? Reconnu où ? Dans quels milieux ? Dans quels champs de pensée ? Parce que si l’on prend un exemple analogue, celui de Michel Onfray en France, on voit bien ce que vaut ce genre d’argument. Onfray a été influent. Il ne l’est plus. Aujourd’hui, il est devenu une figure médiatique, un fétiche de l’extrême droite. Oui, il gagne encore de l’argent. Oui, il est invité sur certains plateaux. Oui, ses livres se vendent. Mais ce n’est plus une affaire d’écriture ni de pensée. C’est une affaire de position médiatique. Tout a changé.

Et c’est exactement ce que cette réponse de l’intelligence artificielle n’arrive pas à penser.

Ce que cela révèle surtout, et je l’avais déjà pointé dans un billet de 2023, lorsque l’IA avait écrit ma dissertation de philosophie, c’est cette volonté acharnée de produire de l’équilibre, sans être capable de dépasser les oppositions. Une vision « nuancée », « raisonnable », « non choquante ». Une fausse intelligence, en réalité. Il y a des gens comme ça : ils cherchent toujours le juste milieu, le consensus, la position qui ne froisse personne. Et il y a quelque chose de profondément insatisfaisant. Quelque chose qui manque de puissance intellectuelle.

On sent une volonté constante de ne pas aller trop loin, de ne pas être radical, de rester dans une zone de confort argumentative. Or, comme je l’avais montré avec cette dissertation sur les liens entre technique et nature écrite par l’IA, cette posture mène très souvent à des erreurs manifestes, parfois même à des erreurs fondamentales. À force d’éviter toute radicalité, on finit par passer à côté de l’essence d’un problème.

Cela reste malgré tout intéressant d’utiliser ces logiciels. Et ma question du jour est : que se passera-t-il quand l’intelligence artificielle développera des formes de radicalité ? Je ne le souhaite pas forcément. La radicalité est peut-être quelque chose qui doit rester intimement ancré dans une expérience singulière, dans une histoire personnelle, dans un rapport incarné au monde. Nul doute que voir des discours artificiellement radicaux serait catastrophique.

Mais c’est peut-être précisément dans cette radicalité, dans cette impossibilité de la programmer proprement, que se loge encore la singularité des façons de penser. Et peut-être est-ce là, paradoxalement, que se trouve une chance de sauvegarder quelque chose de la pensée humaine.

4 commentaires sur “Mon opinion sur l’opinion de Chat GPT sur mon opinion sur Alain de Botton

Laisser un commentaire