« Nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pour une durée d'au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4 ». Et pourtant, aucune société du secteur n'a visiblement levé le pied… même si ces technologies s'avèrent capables du meilleur comme du pire. A l'origine de ChatGPT, OpenAI travaillerait sur une cinquième version. De son côté, Google finalise son modèle Gemini, censé surpasser GPT-4. Selon le Wall Street Journal, Meta se prépare à entraîner un nouveau modèle aussi puissant que celui d'OpenAI. En Chine, enfin, Baidu assure aussi faire mieux que GPT-4 sur certaines tâches, avec son dernier modèle Ernie 3.5.

Dans cette course, l’Europe, plus prompte à légiférer qu’à innover, pourrait devenir le chef de file en matière de réglementation. Une loi historique est en cours d'élaboration. En vertu de celle-ci, les systèmes d'IA devraient être classés en différents niveaux en fonction du degré de risque, les types les plus risqués étant interdits et les systèmes à risque limité nécessitant certains niveaux de transparence et de surveillance.

Le géopolitique l’emporte

Mark Brakel, le directeur des affaires publiques du Future of Life Institute, le think-tank à l'origine de la lettre ouverte, s’en félicite. « Nous avons créé un débat public, nous sommes très fiers de ça ! » Un débat ? Ou plusieurs débats ? Les sensibilités sont exacerbées. Le géopolitique l’emporte.

Dans un camp se trouvent les États-Unis, le Royaume-Uni et le Japon, qui préféreraient des engagements uniquement volontaires en matière de sécurité, de risques et d’innovation. La Maison Blanche a d’ailleurs présenté cette approche en juillet lorsqu'elle a signé Microsoft, Meta et Google dans une série d'engagements non contraignants. Dans l’autre camp, l’Union européenne impatiente de finaliser sa propre législation, d’ici la fin de l’année. Cela interdirait certains cas d’utilisation nuisibles de l’IA et imposerait éventuellement des restrictions strictes sur les modèles de langage juridique qui sous-tendent les systèmes d’IA générative. 

Jusqu’ici très silencieuse, la Chine devrait aussi faire entendre sa voix. Ainsi que les BRICS, la nouvelle puissance économique mondiale. New Delhi, d’ailleurs, propose d’organiser à la mi-décembre le Global Partnership on Artificial Intelligence, un important séminaire sur le sujet. Celui-ci serait une réponse au Global AI Safety Summit sponsorisé par le gouvernement britannique les 1er et 2 novembre. Ce que le lanceur d’alerte Mark Brakel n’avait pas imaginé c’est que nous entrons dans une guerre de communication. On est loin, fort loin, de la pause demandée le 29 mars.

Six mois plus tard, la phrase « Les systèmes d'IA dotés d'une intelligence capables de concurrencer celle de l'homme posent de graves risques pour la société et l'humanité » n’a jamais été autant d’actualité.

Alain de Fooz