Intelligence artificielle

robotsQu’est-ce que l’intelligence artificielle ou IA ? Mon activité de recherche, qui est ciblée sur la résolution d’équations logiques relevant de ce qu’on appelle le raisonnement automatique, ne couvre qu’un fragment du domaine au périmètre assez flou désigné par ce sigle. Quand peut-on dire qu’une machine est intelligente ? Une calculatrice, par exemple, peut exécuter des opérations qui pendant très longtemps n’étaient réalisables que par des humains. Est-elle pour autant intelligente ? Je gage que la plupart des gens répondraient non à cette question, mais sur quelle base argumentaire ?

La machine à calculer effectue une suite d’actions très simples pour parvenir à réaliser une multiplication ou une division. Mais les programmes capables de battre aux échecs des maîtres internationaux, qui exploitent des bases de données contenant des milliers de parties déjà jouées, utilisent des algorithmes complexes, et qui sont même capables d’apprendre de leurs erreurs, ne font rien d’autre qu’exécuter un grand nombre d’opérations très simples. Sont-ils « plus intelligents » qu’une machine à calculer ? Et un cerveau humain fait-il autre chose qu’exécuter un très grand nombre d’actions très simples à l’échelle des neurones et synapses dont il est constitué ?

Au-delà de ces considérations philosophiques se pose la question des risques liés à l’existence de machines autonomes, capables de réaliser des missions sans intervention humaine, et dont le comportement ne peut être prévu sur la base d’une observation extérieure. On sait depuis longtemps réaliser des machines pouvant blesser ou tuer des êtres vivants, qu’il s’agisse ou pas de leurs fonction première. Les progrès réalisés dans le domaine des technologies numériques ont permis de rendre de telles machines parfaitement contrôlable à distance, et les progrès dans le domaine logiciel ont permis de les rendre capables d’assurer des missions complexes sans aucune intervention humaine, c’est-à-dire de leur donner une certaine autonomie.

Il faudra sans doute instaurer des garde-fous pour limiter les risques d’utilisation malveillante et/ou d’accidents liés à l’utilisation non malveillante de ces machines autonomes. Cela ouvre d’ailleurs de nouvelles problématiques de recherche : Comment quantifier ou qualifier le degré d’autonomie d’un système complexe ou « intelligent » ? Comment valider son niveau de sécurité ? La puissance de calcul des circuits qui composent une machine impose-t-elle une limite à sa capacité à réaliser des missions de manière autonome ?

A une époque où beaucoup de gens s’inquiètent du développement de machines capables de prendre des décisions dans des domaines naguère réservé à l’intelligence humaine, ce qui m’inquiète le plus, ce sont les êtres humains qui prennent des décisions à la manière d’une machine, en appliquant à la lettre un protocole appris par cœur. A vouloir trop codifier les activités professionnelles, il pourrait bien arriver que les machines fassent un travail de meilleur qualité que les employés humains, y compris pour des tâches « intellectuelles ».