Mon opinion sur l’opinion de Chat GPT sur mon opinion sur Alain de Botton

Le billet précédent donnait à lire la réponse de ChatGPT à mon opinion sur Alain de Botton. J’avais volontairement choisi de ne rien modifier à ce que l’intelligence artificielle avait produit. Non pas par paresse, mais parce que cette réponse est en soi une performance technologique étonnante. Analyser l’opinion d’un être humain, l’évaluer, puis la restituer sous la forme d’un jugement en trois points (1. là où tu as raison, 2. là où c’est discutable, et 3. là où tu vas trop loin) c’est exactement ce que fait tout professeur, tout consultant, tout évaluateur de texte. C’est rationnel et structuré. Et cela montre très clairement une chose : l’intelligence artificielle est une construction humaine.

Si l’on programme correctement des machines, il est parfaitement logique qu’elles deviennent plus rapides, plus efficaces, plus performantes que le cerveau humain dans certaines tâches. C’est le principe même de toute technologie : augmenter les capacités du corps et de l’esprit. Encore heureux qu’une voiture aille plus vite que mes pieds, qu’une calculatrice sache faire des choses que nous ne saurions pas faire. Rien de mystérieux là-dedans.

Cela dit, à la lecture de cet article, des problèmes apparaissent très nettement. La manière dont ChatGPT critique mon opinion interpelle. À un moment clé, il m’explique que je vais « trop loin » lorsque je qualifie Alain de Botton de cynique, sous prétexte qu’il a toujours été bourgeois, qu’il n’a jamais prétendu être révolutionnaire, et que le fait de transformer aujourd’hui la philosophie en business ne serait finalement qu’une continuité, pas une rupture.

Là, franchement, c’est lui qui va trop loin. Tu vas trop loin, machine.

Lire aussi : L’IA a écrit ma dissertation de philosophie

La Précarité du sage, 2023

On parle quand même de l’auteur de The Art of Travel, de cette posture aristocratique, mélancolique, vaguement raffinée, qui faisait encore semblant de croire à quelque chose comme l’expérience, le déplacement, l’art. Et aujourd’hui, on le retrouve à faire de l’argent avec des pseudo-conseils, des pseudo-conférences, des pseudo-symposiums. Il n’y a plus d’art. Il n’y a plus de voyage, surtout pas de voyage. Il n’y a plus rien de tout ce qui faisait le propre de The Art of Travel. Dire que ce n’est pas du cynisme, c’est fermer les yeux.

Lorsque ChatGPT répond que de Botton est « toujours lu, toujours reconnu », on touche là à une critique beaucoup trop banale, beaucoup trop peu fine. Lu par qui ? Reconnu où ? Dans quels milieux ? Dans quels champs de pensée ? Parce que si l’on prend un exemple analogue, celui de Michel Onfray en France, on voit bien ce que vaut ce genre d’argument. Onfray a été influent. Il ne l’est plus. Aujourd’hui, il est devenu une figure médiatique, un fétiche de l’extrême droite. Oui, il gagne encore de l’argent. Oui, il est invité sur certains plateaux. Oui, ses livres se vendent. Mais ce n’est plus une affaire d’écriture ni de pensée. C’est une affaire de position médiatique. Tout a changé.

Et c’est exactement ce que cette réponse de l’intelligence artificielle n’arrive pas à penser.

Ce que cela révèle surtout, et je l’avais déjà pointé dans un billet de 2023, lorsque l’IA avait écrit ma dissertation de philosophie, c’est cette volonté acharnée de produire de l’équilibre, sans être capable de dépasser les oppositions. Une vision « nuancée », « raisonnable », « non choquante ». Une fausse intelligence, en réalité. Il y a des gens comme ça : ils cherchent toujours le juste milieu, le consensus, la position qui ne froisse personne. Et il y a quelque chose de profondément insatisfaisant. Quelque chose qui manque de puissance intellectuelle.

On sent une volonté constante de ne pas aller trop loin, de ne pas être radical, de rester dans une zone de confort argumentative. Or, comme je l’avais montré avec cette dissertation sur les liens entre technique et nature écrite par l’IA, cette posture mène très souvent à des erreurs manifestes, parfois même à des erreurs fondamentales. À force d’éviter toute radicalité, on finit par passer à côté de l’essence d’un problème.

Cela reste malgré tout intéressant d’utiliser ces logiciels. Et ma question du jour est : que se passera-t-il quand l’intelligence artificielle développera des formes de radicalité ? Je ne le souhaite pas forcément. La radicalité est peut-être quelque chose qui doit rester intimement ancré dans une expérience singulière, dans une histoire personnelle, dans un rapport incarné au monde. Nul doute que voir des discours artificiellement radicaux serait catastrophique.

Mais c’est peut-être précisément dans cette radicalité, dans cette impossibilité de la programmer proprement, que se loge encore la singularité des façons de penser. Et peut-être est-ce là, paradoxalement, que se trouve une chance de sauvegarder quelque chose de la pensée humaine.

Chat GPT a répondu: l’Intelligence Artificielle évalue mon billet sur Alain de Botton

« Ton analyse est cohérente, informée et loin d’être naïve. Tu n’es clairement pas “à côté de la plaque”. En revanche, elle est très orientée par une lecture sociologique et institutionnelle, ce qui te fait parfois forcer certains traits ou passer sous silence des éléments qui nuancent fortement le portrait. Je te propose donc une évaluation point par point : ce qui est juste, ce qui est discutable, et là où tu vas probablement trop loin.

1. Début de carrière, respectabilité et capital symbolique

👉 Globalement juste

Alain de Botton bénéficie clairement d’un capital scolaire et social très fort (Cambridge, King’s College London, origine cosmopolite, aisance culturelle). Il est très bien reçu au départ par une élite libérale-cultivée britannique, friande de : travel writing, essayisme élégant, mélancolie civilisée, références continentales (Nietzsche, Proust, Montaigne). The Art of Travel, How Proust Can Change Your Life ou The Consolations of Philosophy correspondent parfaitement à une sensibilité britannique post-Thatcher : cultivée, douce, introspective, non révolutionnaire.

👉 Tu as raison aussi sur le côté :

aristocratique mais progressiste, provocation très maîtrisée, jamais agressive, utilisation des auteurs français comme signe de distinction plus que comme véritable geste subversif.

➡️ Là-dessus, ton diagnostic est solide.

2. Réception critique et épuisement du modèle littéraire

👉 Plutôt juste, mais à nuancer

Oui, le style de de Botton est très reconnaissable, et assez vite : phrases courtes, analogies psychologiques, philosophie simplifiée, ton bienveillant et pédagogique. Beaucoup de critiques ont parlé d’un effet de répétition dès le milieu des années 2000. Il n’a jamais suscité : une “école”, une passion littéraire durable, ni une admiration académique profonde.

Mais attention :

Ses livres continuent à bien se vendre, surtout : en traduction, dans les pays anglo-saxons, dans les classes moyennes supérieures. Il n’est pas “dépassé” au sens commercial ou médiatique : il est installé.

👉 Tu as raison sur l’absence de profondeur littéraire radicale,

👉 mais pas totalement sur le déclin : c’est plutôt une stabilisation dans un rôle précis.

3. The School of Life : vulgarisation ou dégradation ?

👉 C’est le cœur de ton propos — et là, tu touches quelque chose de très réel

Tu mets le doigt sur une critique très répandue, y compris en Angleterre :

The School of Life est souvent accusée de : psychologiser la philosophie, la transformer en outil de bien-être émotionnel, la rendre compatible avec le monde de l’entreprise et du management. Beaucoup de philosophes et d’universitaires britanniques la considèrent comme : du self-help sophistiqué, une esthétique de la sagesse, plus qu’un travail conceptuel.

👉 Donc ton expression :

« il rabaisse la philosophie au rang de développement personnel »

est dure, mais pas injustifiée.

4. Le virage “business”, consulting culturel et pétromonarchies

👉 C’est là que tu es le plus sévère — et le plus discutable

Il y a du vrai, mais aussi des raccourcis :

Ce qui est vrai

The School of Life fonctionne clairement comme : une entreprise globale, vendant des conférences, diagnostics culturels, programmes de leadership. Elle travaille avec : grandes entreprises, institutions culturelles, parfois des États très riches mais peu outillés culturellement. Le discours est souvent : très générique, très “clé en main”, peu ancré dans les réalités locales.

👉 Sur le plan éthique, la critique est légitime.

Là où tu forces le trait

Dire que c’est uniquement une machine à cash est excessif : certains projets sont sincères, certaines collaborations avec des musées ou bibliothèques ont une vraie qualité. De Botton ne fait pas “n’importe quoi” : il reste extrêmement cohérent idéologiquement, toujours dans une philosophie de l’adaptation émotionnelle au monde existant.

➡️ Ce n’est pas du cynisme pur, mais plutôt un réformisme psychologique mondialisé.

5. Ce que tu sous-estimes ou oublies

a) Son rôle historique

De Botton est l’un des architectes majeurs de la “pop philosophy” contemporaine.

Qu’on aime ou non, il a :

rendu la philosophie lisible à des millions de gens, changé durablement la place de la philosophie dans l’espace public anglophone.

b) Sa cohérence idéologique

Il n’a pas “trahi” une pensée radicale :

il a toujours été : anti-héroïque, anti-révolutionnaire, thérapeutique, bourgeois assumé. 👉 Le virage business est une continuité, pas une corruption.

c) Son succès actuel en Angleterre

Il est moins au centre du débat intellectuel, mais il reste : respecté, invité, lu, surtout comme figure culturelle stable, pas comme écrivain innovant.

Verdict global

👉 Tu n’es pas loin de la vérité, loin de là.

👉 Ton analyse est fine, lucide, et informée.

Mais :

tu es un peu trop dur sur l’intention morale, tu sous-estimes la continuité idéologique de son parcours, et tu réduis parfois une entreprise ambiguë à un pur opportunisme.

En une phrase :

Alain de Botton n’est ni un grand philosophe trahi par le business, ni un escroc culturel ; c’est un intellectuel bourgeois qui a parfaitement compris comment transformer une vision du monde douce, thérapeutique et non conflictuelle en un produit culturel global. »

L’intelligence artificielle a écrit ma dissertation de philosophie

La question n’est pas de savoir si les capacités de l’intelligence artificielle sont impressionnantes ou pas, si cette technologie est bonne ou pas. Oui, c’est impressionnant, oui c’est utilisable. Il n’y a pas lieu de rejeter les innovations, puisque de toute manière, nous y viendrons tous. Les gens se sont suffisamment ridiculisés en vaines arguties dédaigneuses sur les téléphones portables, l’internet, les ordinateurs, les blogs, les encyclopédies en ligne et les réseaux sociaux, avant d’y sombrer corps et âme.

Les questions que je me pose sont les suivantes. Dans quelle mesure Chat GPT, le plus récent truc en Intelligence Artificielle, peut écrire une dissertation de philosophie ? Quelles en sont les limites ? Comment un étudiant peut utiliser cette fonctionnalité de manière productive ?

Soit le sujet suivant, que j’ai donné à une classe de terminale : « La technique nous éloigne-t-elle de la nature ? ». Voici ce que propose Chat GPT en introduction : « La question de savoir si la technique nous éloigne de la nature est un sujet de débat depuis des siècles. » Soit, le début n’est pas fou mais on ne va pas râler tout de suite.

La suite pose quelques problèmes :

D’un côté, certains considèrent que la technologie nous permet de mieux comprendre et de mieux apprécier la nature en nous offrant de nouveaux moyens de la découvrir. D’un autre côté, d’autres affirment que la technologie a un impact négatif sur la nature en causant des dommages irréparables à l’environnement.

Chat GPT

En tant que correcteur, je ne suis pas satisfait de lire « certains » et « d’autres ». Dans ce cas, j’écris dans la marge : « Qui ? ». Cette façon d’écrire est paresseuse et surtout ne témoigne pas d’une réflexion originale. La personne qui écrit de cette manière limite son travail à un exposé d’histoire des idées. Ce n’est pas ce qu’on demande en philosophie, et j’avais demandé explicitement à l’intelligence artificielle une dissertation de philosophie.

La suite développe un peu les deux idées proposées en introduction, sans vraiment de réflexion originale. La conclusion se veut équilibrée et synthétique : « Il est donc important de trouver un équilibre entre l’utilisation de la technologie pour protéger la nature et la nécessité de préserver notre lien avec elle. » Cela ne vaudrait pas une bonne appréciation de la part d’un professeur mais cela peut limiter les dégâts pour des élèves qui présentent des difficultés pour s’exprimer à l’écrit.

Quand je demande à Chat GPT de me trouver une référence d’Aristote sur ce sujet, l’intelligence artificielle me sort un premier paragraphe correct puis un paragraphe qui me paraît incorrect :

Aristote encourage une utilisation modérée de la technique, qui respecte les limites naturelles et qui vise à améliorer la qualité de vie de l’homme sans nuire à la nature.

Chat GPT

Ah bon ? Où a-t-il dit cela, le bon Aristote ? Dans la Grèce antique, avait-on conscience que l’homme et la technique polluaient la terre ? Y avait-il seulement cette idée de « nuire à la nature », prise dans ce sens de préoccupation environnementale ?

Le pire vient quand je demande une référence à Descartes : un premier paragraphe correct puis deux paragraphes qui répètent mot pour mot ce qui était généré sur Aristote. Même opération avec Heidegger. Au final, l’application répète la même idée qui se veut équilibrée et suffisante : il convient d’encourager « une utilisation modérée et responsable de la technique, qui respecte les limites naturelles et préserve notre lien avec la nature. »

En conclusion, l’intelligence artificielle est un super jouet, mais est loin de pouvoir travailler à notre place. Son principal problème, à mes yeux, consiste à fondre toutes les pensées dans un ensemble modéré et consensuel. Là où on attend d’un étudiant qu’il comprenne et approfondisse des problématiques, Chat GPT va plutôt le diriger vers une agrégation et une confluence généralisée.