Commençons par une clarification : l'intelligence artificielle est un domaine de recherche ancien, qui connaît déjà des applications pratiques. L'excitation actuelle repose sur un sous-domaine réduit, les intelligences artificielles génératives (ChatGPT, Claude, Midjourney et consorts), tandis que de nombreux projets d'apprentissage automatisé (ce qu'on appelait il y a quelques mois encore des algorithmes) se présentent comme de l'IA. Toujours est-il que ces IA génératives fascinent, d'abord parce qu'elles donnent l'impression de réagir comme des êtres humains. C'est pour cela qu'elles ont été conçues — et c'est probablement aussi leur plus grande faiblesse : elles cherchent par construction à émuler le comportement humain, y compris dans ses défauts les plus graves.

À court terme toutefois, la question du potentiel économique de ces outils se pose. Je m'intéresse ici au cas de la relation clientèle, un domaine où on voit déjà fleurir les assistants conversationnels construits sur des IA génératives. On peut rire des erreurs grossières commises par ces assistants, et trouver scandaleux (mais peu surprenant) que les entreprises les utilisant essayent (sans succès) de ne pas assumer les conséquences de ces erreurs sur leurs clients, mais c'est manquer les termes essentiels de l'arbitrage : le support client humain commet lui aussi de nombreuses erreurs, qui engagent tout autant leur employeur. En termes de performances, il suffit qu'une IA commette moins d'erreurs que le niveau de support qu'elle remplace pour qu'elle devienne intéressante. C'est ce qui avait été dit (mais pas beaucoup entendu, semble-t-il) concernant les pilotes automatiques de voitures : une IA de pilotage qui commet moins d'erreur que l'automobiliste moyen.ne améliore le niveau moyen de sécurité sur les routes.

Du côté du support, si une IA coûte moins cher que le niveau de support remplacé, il peut même être rentable de tolérer un niveau d'erreur plus élevé. Même si le support client est souvent réalisé par des personnes mal payées et peu formées, il y a fort à parier que les termes de l'arbitrage soient rapidement favorables à l'IA, au moins à court terme. Si le passé est un guide, j'anticipe cependant que les coûts récurrents vont être plus élevés que prévu. En premier lieu, une solution d'IA est aujourd'hui une solution centralisée. En cas de problème, c'est tout le support client qui disparaît : on a un point de défaillance unique, incompatible avec la promesse d'un service accessible en continu. Bien entendu, cela s'évite avec de la redondance, mais je n'ai pas l'impression que cette pratique soit développée dans ce domaine ­— et elle implique des coûts récurrents non négligeables. En second lieu, il me semble que de nombreux outils sont dimensionnés en fonction du trafic moyen, et peinent à gérer les pics de consultation. Or, c'est justement en pic que l'accès à un support est le plus critique. Imaginons une rupture de caténaire sur la LGV Paris-Lyon : il faut faire face à des milliers de requêtes simultanées de voyageurs qui doivent savoir que faire, combien de temps cela va durer, etc. Avec un support humain, on a typiquement une file d'attente qui se crée. Avec un outil non conçu pour gérer élégamment les pics de charge, c'est trop souvent tout le système qui plante, avec des conséquences en cascade sur le peu de support humain encore existant. Bref, j'anticipe que le recours, tentant, à ces outils va rendre les services clients plus vulnérables à des événements exceptionnels — lesquels vont devenir plus fréquents avec le dérèglement climatique.

De ce fait, je pense que les gains de productivité à attendre dans ce domaine sont sur-estimés : on regarde trop la moyenne, sans faire attention au fait qu'on change beaucoup la variance des coûts.

Un autre point, pendant que j'y suis. Dans The New Machine Age, les auteurs mettaient (déjà) en avant des gains de productivité grâce à l'IA. Sauf qu'il ne s'agissait pas du tout, me semble-t-il, des IA que nous voyons actuellement. Leur cas d'usage était d'avoir un assistant personnel à qui je puisse dire : « Prends un rendez-vous chez le médecin pour le vaccin de Julien », et qui (1) trouve un créneau en fonction de mon emploi du temps, de celui de Julien et des disponibilités du médecin, (2) devine de quel vaccin il s'agit (Julien à 11 ans, donc c'est le rappel DTP), (3) demande à l'IA assistant de médecin d'envoyer à la pharmacie une ordonnance pour le bon vaccin. Sauf erreur de ma part, les IA conversationnelles ne traitent, et que partiellement, l'étape (2) : produire une estimation d'élément implicites dans ma demande. Est-ce le plus difficile ? Techniquement, je ne sais pas. Ce qui me semble clair, c'est qu'on est très loin de (1) et (3) en pratique, les éléments nécessaires résidant dans des systèmes d'information qui ne sont pas conçus pour être interopérables, à la fois pour de mauvaises (garder l'utilisateur dans son écosystème logiciel) et de bonnes raisons (protection de la vie privée). Je me demande combien de temps il va falloir avant la réalisation massive que nous sommes probablement loin de la cible.