Et si ChatGPT pourrait fort bien réécrire le Cogito de Descartes, ce serait en imitant son style, sans jamais s’avancer, sans prendre lui-même la décision de sortir du rapport habituel à la réalité ; sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Ne nous leurrons pas : cette IA n’est pas capable de produire des idées.

« L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique. Dire des mots - produire un texte, ce dont est capable ChatGPT - n’est pas davantage penser que simplement calculer. Encore faut-il avoir la volonté de bien penser : « Travaillons à bien penser : voilà le principe de la morale », disait Pascal. Ce qui veut dire, encore, que l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée.

Quand donc un robot pourra effectivement douter, autrement dit penser ? « L'IA ne remplacera jamais les humains parce qu’elle ne peut faire preuve d'empathie, assure Sam Desimpel, Managing Partner, Top Tier Access. Pour nous, investisseurs, c’est la même chose : une IA peut aider à trouver les bonnes entreprises dans lesquelles investir, mais on aura toujours besoin d’un clic humain pour parvenir à un investissement. » Sans les sentiments, pas d’énergie pour entreprendre.

Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création. C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper et d’entrer en errance.

Les sages nous diraient que l’homme est le seul animal capable de choisir et de faire consciemment le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet ! Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

« Bien réfléchies, les questions qui se posent aujourd'hui autour de ChatGPT ne portent pas sur ce que fait l'IA, mais sur la manière dont nous la traitons », synthétise Véronique Van Vlasselaer, Analytics & AI Lead South West & East Europe, SAS. « La vraie question est plutôt : quelle est la touche humaine dans ce développement ? »

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine… ou coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de ses semblables. 

Le plus grand ennemi de l’homme sera toujours l’homme. Pas une IA, pas même ChatGPT.

Alain de Fooz - CEO Soluxions Magazine