On s’était déjà vu avant l’été et puis finalement, je crois que j’ai bien fait d’attendre un peu pour réaliser cette interview. Il faut être en pleine forme pour suivre les propos et la vitesse d’enchainement de Thomas ! Il est brillant et il manie le langage avec une belle précision qui impose le respect. Je me suis dit en rentrant jusqu’à mon bureau que pour une fois, je n’allais pas laisser le temps faire son oeuvre et éroder cet échange pour n’en conserver que l’essentiel. J’ai eu cette envie d’être aussi complet que possible tant la conversation a été passionnante… A vous d’en profiter…
Thomas Solignac (@ThomasSolignac ) est à l’initiative d’une société, Golem.ai, qui promet la performance pour un Chatbot ou tout autre interface conversationnelle au service d’un client ou d’un citoyen. Il a une formation technique extrêmement pointue issue d’une école d’informatique de référence (Epitech) mais aussi une formation en philosophie, qui semble-t-il, l’a rapproché de l’humain et de son intelligence émotionnelle (et intuitive).
J’ai prévu quelques questions (oui cela peut aussi m’arriver) pour tenter de garder une trame, une structure dans nos échanges et, ce qui est le plus surprenant, c’est que la suite logique des questions a suivi le cheminement de la conversation sans contrainte que nous avons eue cet après-midi.
Comment passe-t-on de la science à la philosophie ou l’inverse ? et doit-on penser que les philosophes sont aussi des scientifiques ?
TS : Ce sont deux systèmes de pensées différents. Aujourd’hui les formations sont organisées en silos et il est très rare de rencontrer des gens qui ont à la fois un talent de développeur, de mathématicien et qui ont suivi une formation de philosophe. Les connaissances techniques sont beaucoup plus pointues qu’à l’époque de Descartes par exemple. Faire des maths au niveau d’un chercheur est très exigeant et de la même façon s’investir dans la philosophie demande beaucoup de temps. Mais certainement que les avancées de la technologie et en particulier de l’IA, nous incitent à privilégier la logique, le code et sans doute les chiffres, plutôt que le langage ou l’épistémologie. On est davantage focalisé sur le résultat démontré que sur les conditions dans lesquelles on l’obtient. La science avance par une succession d’explosions des grands paradigmes qui la sous-tendent, un peu comme les clous dans une chaussure qui finiraient par la tuer à force de s’y accumuler. Il y a des observations ou des expériences de laboratoire qui sont non conformes à la connaissance théorique (en physique ou en mathématiques par exemple) et qu’en conséquence nous ne pouvons pas expliquer à ce stade. Le philosophe ou le sociologue travaille sur un matériau beaucoup plus incertain et instable : l’humain. Pour ce qui concerne Golem.ai (@golem_ai ) notre approche est de privilégier l’information, ce qui donne du sens au mot, plutôt que de pratiquer du machine learning qui repose sur la transformation d’une suite de lettres en un code chiffré dénué de sens (qui exige un long apprentissage de ce que les groupes de codes associés peuvent signifier – via des corrélations plus ou moins fortes).
Privilégier le sens dans le langage, est-ce affirmer que les mathématiques sont finalement synonyme d’imperfection ?
TS : Le langage est à l’évidence beaucoup plus riche ou complet que les maths. Mais le problème est ailleurs. Pour réduire un mot à un code chiffré, on élimine totalement l’information que contient ce mot. Travailler sur la sémantique c’est conserver le sens des mots. Si un internaute tape « Toulouse », mon travail consiste à réduire l’information au fait qu’il s’agit d’une ville (voire d’une ville du sud de la France); si jamais l’internaute commet une faute, comme par exemple un z en place du s, Toulouze sera encore compris comme la ville. Au passage cette faute peut me renseigner sur la personne, ou sur sa concentration, etc… En reliant une information d’entrée et une information de sortie dans la phrase, en identifiant les liens syntaxiques ou grammaticaux entre les mots, et en ajoutant un contexte, on obtient un résultat bien supérieur. Entrer une quantité énorme de suites de mots codés pour apprendre à la machine à reconnaitre l’intention de l’internaute qui voudrait réserver une place dans un train de Toulouse à Bordeaux, est une perte de temps considérable. L’autre avantage crucial de Golem.ai est que le langage est appris définitivement (il peut s’enrichir, mais la base est acquise).
Le langage est-il une preuve d’humanité ?
TS : La compréhension, l’apprentissage du langage ne peut se détacher de la culture. L’emploi d’un mot, d’une formulation de phrase est témoin de notre culture. Chaque métier, chaque région, chaque langue emploie des mots ou des phrases différentes pour signifier la même chose. A l’inverse certains mots n’ont pas le même sens pour des cultures différentes. Cette diversité reflète la richesse des hommes dans leur diversité. Réduire l’information n’est pas la négation du contexte ou de la culture. Quand nous disons, « il passe à table » ou « tu prends un verre », il y a un sens contextuel donné aux mots. Or comment être certains que l’on a appris à la machine, toutes les formulations possibles, tous les contextes qui, au final, signifierait la même intention ou demanderait la même réponse ? Le machine learning est un jeu infini, dont en prime, nous n’avons aucunement la certitude qu’il aboutit au bon résultat. On considère par exemple que nous avons 200 mots en communs, et que, dès qu’on ajoute un mot de plus, on commence à « perdre » des gens. De plus en plus langues convergent à la fois dans la structure (ce qui semble être vrai depuis le début du langage humain) mais aussi dans l’intégration de mots (principalement anglais) venus d’ailleurs. Il faut à la fois conserver notre richesse culturelle et privilégier le sens des mots.
Quid de la fusion impossible entre IA et Emotionnel ?
TS : Commençons par dire que trop de prise de paroles et de pseudo démonstrations sont axées sur le sensationnalisme. Le problème majeur des promoteurs de l’IA est l’anthropomorphisme. Vouloir qu’une machine ressemble à l’homme nous conduit dans une impasse. Pour l’instant, une machine ne ressent pas d’émotion et nous sommes très loin de ça.
Deux exemples : on peut lire sur certains forums que des clients qui utilisent un aspirateur robot, ne comprennent pas pourquoi leur robot s’arrête au milieu de la pièce et s’en étonnent en écrivant : « à quoi peut-il bien penser ? » L’humain pense le robot à son image et s’imagine que l’aspirateur fait une petite pause méditation au beau milieu de son travail !.. De même que les assistants vocaux développés par Google, Amazon ou Apple, sont continuellement testés par leurs utilisateurs sur le mode, pourrais-tu m’aimer, ou répondre à des questions saugrenues sur ton âge, ton sexe, ta préférence pour telle ou telle couleur; autant de questions qui ne trouvent pas de réponses et surtout qui n’ont aucun intérêt puisque justement ce n’est pas un humain qui répond ! Le film HER posait déjà ce dilemme : ce n’est pas que la machine puisse exprimer une émotion (on peut parfaitement la programmer pour cette tâche) qui interpelle, c’est surtout que l’humain en face puisse le croire et ressentir en retour une émotion… Il y a là une tentation peu éthique, manipulatrice, qui conduit à trop de dérives et de peurs générées par la confusion des genres. L’Intelligence Artificielle n’est pas là pour imiter l’humain ; son utilité est ailleurs, dans sa capacité à faire ce que l’humain est incapable de réaliser.
Les Chatbots sont-ils dès lors, victimes de cette confusion ?
TS : C’est possible oui. C’est une question de vision stratégique au départ. Lorsqu’on a voulu privilégier la ressemblance plutôt que la performance, la plupart ont pris la direction de la technologie et du machine learning plutôt que celle de la compréhension du langage. Chez Golem.ai, nous ne travaillons que pour une plus grande efficacité, pour de meilleurs résultats. Or les résultats sont évalués dans l’usage et donc par les utilisateurs (clients). Investir un temps considérable dans l’apprentissage de la machine pour y « entrer » toutes les phrases possibles et lui indiquer la meilleure réponse (en fonction d’observations statistiques) ne produit pas un résultat suffisant et surtout ne correspond que rarement aux usages du client final. Se concentrer sur le langage, c’est naturellement s’immerger dans le contexte culturel, réduire l’information contenue par les mots à l’essentiel, et en déduire le sens de la phrase, avec beaucoup plus de justesse. L’algorithme développé est certainement plus sophistiqué mais il vise la performance pour celui qui s’en sert, celui qui attend une bonne réponse. Je crois à la performance que l’IA peut réellement augmenter au profit de l’homme et c’est en ce sens que nous travaillons.
Merci Thomas pour cet échange et à très bientôt !
(rdv au Club du Marketing Emotionnel pour un AfterEmotionnel autour de l’IA le mardi 23 octobre prochain).