J’ai toujours aimé le philosophe Charles Robin, professeur de philosophie et créateur d’une des plus importantes chaînes YouTube francophones de philosophie. Si vous ne le connaissez pas et que vous vous intéressez à la philosophie, je vous invite chaleureusement à suivre sa chaîne YouTube. Je suis tombé, au fil de ma bulle algorithmique, sur la vidéo de Shaïman Thürler alias « Le Futurologue ».
La première minute de preview de la vidéo m’a littéralement scotché..
À partir du moment où tu ne peux pas détecter qu’une pensée a été générée par une IA, finalement, tout ce que tu pourras dire derrière n’aura aucune utilité, aucune valeur… La question, c’est la qualité de la pensée produite : qu’elle soit simulée, qu’elle soit imitée, qu’est-ce que cela change si, à la fin, c’est si bien simulé, si bien imité que tu ne vois pas la différence avec l’original ?
Charles Robin
Une approche pragmatique de l’IA
Ce que j’apprécie chez Charles Robin, c’est qu’il ne se prétend pas expert technique. Il se positionne avant tout comme un usager de l’IA, particulièrement des LLM (ces grands modèles de langage dont tout le monde parle). Ce qui le passionne ( un peu comme moi ) , c’est d’observer les phénomènes intellectuels et sociologiques que ces technologies déclenchent autour de nous.
Il avoue quelque chose d’assez surprenant : Se déclarant naturellement réticent face aux nouvelles technologies s’est retrouvé à évoluer dans sa position. Pourquoi ? Parce qu’au fond, ce qui l’intéresse vraiment, c’est ce que l’IA produit. Peu importe les grands débats sur sa « vraie nature ».
Le piège des définitions essentialistes
Charles met le doigt sur quelque chose qui m’a fait réfléchir. Il parle de ce qu’il appelle « l’essentialisme » – cette manie qu’on a d’attribuer aux choses une essence figée, immuable, dont elles ne peuvent pas sortir.
Prenons un exemple concret : si vous définissez l’intelligence comme étant nécessairement liée à la conscience ou aux émotions ( ou juste dire que l’intelligence est humaine ), vous venez d’exclure l’IA du domaine de l’intelligence d’un coup de baguette magique. Mais est-ce que cette exclusion est vraiment justifiée, ou est-ce qu’on triche juste avec les mots ?
L’une des analogies qu’il a utilisé est : quand la voiture a été inventée, on aurait pu dire qu’elle ne « marchait » pas vraiment parce qu’elle n’avait pas de jambes. Avec le temps, notre définition de « marcher » a évolué pour englober le concept plus large de déplacement.
Peut-être qu’on devrait faire pareil avec l’intelligence ?
Simulé ou authentique ? Est-ce vraiment important ?
Ils remet en question cette fameuse distinction entre « simulation » et « authenticité ». Il cite Gilles Deleuze (philosophe ) pour poser une question dérangeante : si vous ne pouvez pas faire la différence entre une pensée simulée et une pensée authentique, en quoi cette distinction est-elle pertinente ?
L’inauthenticité n’est pas le propre des machines ! On passe notre temps à imiter, nous aussi. L’apprentissage par imitation, les phénomènes de groupe, le fameux « fake it until you make it » quand on démarre un nouveau boulot… Notre propre authenticité est souvent une construction progressive.
Des études récentes ont même montré que certaines IA écrivent des poèmes jugés plus « humains » que ceux écrits par des humains, lors de tests en aveugle.
Vous avez vu « The Truman Show » ? Charles utilise aussi cette analogie. Le monde simulé faux car Truman vois des incohérences (un projecteur qui tombe, des personnages qui répètent leurs gestes ). Mais imaginons que la simulation soit parfaite… Alors, cela serait absolument indétectable.
À ce moment-là, peut-on encore parler de simulation ? Ou faut-il accepter que cette « simulation » soit devenue, de facto, aussi réelle que la réalité elle-même ? Oui, la philosophie peut nous amener loin. Je vous accorde le point.
L’IA simulerait l’humanité mieux que nous-mêmes ?
L’évolution rapide des capacités de l’IA
Hier, on disait que l’IA ne pourrait jamais faire telle ou telle chose. Aujourd’hui qu’elle le fait, on déplace JUSTE les critères en disant, quand réalité, elle ne le fait « pas vraiment » ou « pas aussi bien ».
Il y a cinq ans à peine, repérer un texte généré par IA, c’était un jeu d’enfant : froid, zéro faute d’orthographe, trop structuré, sans style humain. Aujourd’hui ? Ces critères ne tiennent plus du tout. L’IA écrit dans un style humain tellement convaincant que… eh bien, vous êtes peut-être en train de douter maintenant, non ? ( Spoiler : Vous avez en partie raison de le faire )
Sa proposition est simple : faisons la liste de ce que l’IA ne peut pas faire, et observons comment cette liste évolue dans le temps. Au moins, on serait plus lucides sur ses capacités réelles et futures.
Les affects avant la raison
Spinoza disait que l’on ne juge pas qu’une chose est bonne parce qu’on l’aime. C’est l’inverse selon lui : on l’aime d’abord, puis on cherche les raisons de justifier cet amour.
Cette observation s’applique au débat sur l’IA : beaucoup de gens adoptent d’abord une position émotionnelle (pour ou contre), puis cherchent des arguments pour la justifier. On assiste ainsi à des « concours de rhétorique » où personne ne veut vraiment changer d’avis.
Une période d’incertitude productive ?
Robin reconnaît que nous sommes dans une période où même les experts ne sont pas d’accord entre eux. Tout ce qu’on peut affirmer aujourd’hui sur l’IA pourrait être contredit demain. Une incertitude inconfortable en tant que formateur, mais je n’ai pas d’autre choix que de faire avec pour l’instant.
Je vais suivre ses conseil. Plutôt que de me réfugier dans des certitudes rassurantes mais potentiellement fausses, je vais accepter de parier, d’évoluer, de penser contre moi-même. C’est en acceptant cette incertitude qu’on peut vraiment progresser dans notre compréhension de l’IA.
Source : Entretien avec Charles Robin sur sa chaîne YouTube « Le futurologue » ( Shaïman Thürler ) – « Il faut arrêter de sous-estimer l’intelligence artificielle ! »
Liens & informations utiles :
- Vidéo originale : https://www.youtube.com/watch?v=Db33Wb5_7GI
- Aide de rédaction : Perplexity avec le model « claude sonnet 4.5 »
par