Archives de l’auteur : admin

Optimisez vos apprentissages en situation de confinement

J’écris ce billet lors du grand confinement du 2020, alors que depuis plusieurs semaines tous les étudiants de France et d’une grande partie du monde sont confinés et suivent leurs enseignements à distance. Les conseils que je donne ici sont suffisamment généraux pour être applicables à toute situation d’apprentissage, mais me semblent particulièrement utiles en cette période particulière, notamment en raison du délai entre la fin des cours et les dates d’examens.

Continuer la lecture

Enseignement à distance : premiers essais

La situation inédite oblige tous les enseignants de France et de bien d’autres pays à travailler à distance. Mais comment faire ? Quels outils utiliser ?

Ce matin, j’ai animé deux séances de TD, respectivement en L2 et L3. J’avais sélectionné deux applications pour ce premier test :

  • Discord, un système de discussion très utilisé par les étudiants, notamment par les amateurs de jeux en ligne. Très ergonomique, il permet de modifier ou supprimer des messages, de joindre facilement des images, des documents, et permet même la communication orale.
  • Google Meet, une application de visio-conférence qui permet notamment de diffuser l’écran d’une tablette.

Le mode opératoire était le suivant :

  • Le sujet est disponible en ligne, à l’avance.
  • Je présente les exercices, donne des explications, puis des solutions en utilisant mon iPad Pro et son stylet. L’écran de mon iPad et ma voix sont transmis aux étudiant via Meet. Sur le iPad, j’utilise l’application Notability.
  • Les étudiants font des remarques, me signales mes erreurs, proposent des solution via Discord.

Comme les microphones des étudiants (hors éventuelles questions orales) sont coupés afin d’éviter de détériorer les son, je donne mes explications seul devant un écran. C’est un peu déstabilisant mais j’ai commencé à m’y habituer et les étudiants ont apprécié ce mode de communication (compte tenu des circonstances). Beaucoup d’entre-eux m’ont remercié.

Redistribution de copies

Après un test écrit d’entraînement, un enseignant mélange les copies et les redistribue à ses étudiants pour que chacun d’eux corrige le test d’un autre. Mais il peut arriver qu’un étudiant se retrouve avec sa propre copie. Si cette opération était répétée de nombreuses fois, combien d’étudiants, en moyenne, seraient dans ce cas ?

Continuer la lecture

Anne, Barnabé et Bayes participent à un jeu télévisé

Ai-je compris tous les messages de la vidéo Marilyn versus Monty Hall | Bayes 4 diffusée sur l’excellente chaîne Science4All, animée par le mathématicien Lê Nguyên Hoang ? Cette vidéo aborde un problème éponyme de probabilités conditionnelles dans lequel un participant d’un jeu télévisé doit choisir un rideau parmi trois, sachant que derrière un des rideaux se cache une voiture et derrière chacun des deux autres une chèvre. Après son premier choix, le candidat reçoit une nouvelle information qui est la localisation d’un rideau, parmi les deux qu’il n’a pas choisi, derrière lequel se trouve une chèvre. La question posée est : sur la base de cette nouvelle information, le candidat a-il intérêt à modifier son choix initial ?

Continuer la lecture

Documents pédagogiques avec tablette et stylet

J’ai fait l’acquisition (à titre personnel) d’un iPad pro et du stylet Apple pour me lancer dans la production de supports pédagogiques et de vidéos comportant des dessins et des textes écrits à la main. Il me reste à trouver l’application idéale à chaque usage. Voici un essai fait avec Grafio 3.

Le rendu me plait, mais j’ai galéré un peu parce que l’application n’était pas très réactive et ne formait correctement les caractères manuscrits que si je les dessinais lentement. Grafio est très ergonomique pour le dessin d’organigrammes, mais pas adapté à l’écriture manuscrite au stylet. Evidemment, je voudrais avoir dans une même application la possibilité de faire les deux.

Les limites des enquêtes auprès des étudiants.

Je demande régulièrement à mes étudiants de répondre à des questionnaires anonymes, en ligne, pour connaitre leur ressenti au regard de mes pratiques pédagogiques. C’est important pour moi car j’expérimente presque chaque année de nouvelles approches et je sais qu’on ne peut pas obtenir de bons résultats si, même avec les meilleures intentions du monde, on fait des choses qui « braquent » les principales personnes concernées. Il me semble que les récents événements l’ont parfaitement illustré à l’échelle nationale.

Continuer la lecture

Ordinateurs sans microprocesseurs

microproAvant l’apparition des microprocesseurs, les ordinateurs étaient réalisés uniquement à partir de deux sortes de « briques de construction », les portes logiques et les bistables (eux-mêmes constitués de portes logiques). Les premiers microprocesseurs, apparus dans les années 1970, comportaient des milliers de portes logiques et de bistables rassemblés sur une même puce qui valait tout de même près de 200 dollars de l’époque, ce qui représente (compte tenu de l’inflation) de l’ordre de 1000 dollars actuels.

Depuis cette époque, tous les ordinateurs commercialisés comportent des microprocesseurs. Mais il existe quelques passionnés qui construisent eux-mêmes des ordinateurs « à l’ancienne », sans microprocesseur. Pourquoi se lancent-ils dans un tel projet ? Par défit intellectuel, par passion, pour comprendre et faire comprendre le fonctionnement d’un ordinateur en s’appuyant sur un système à dimension humaine, pour revisiter un pan entier de l’histoire de l’informatique… Fabriquer un ordinateur de toute pièce est une démarche d’ingénierie dans laquelle il faut faire preuve d’une grande exigence intellectuelle pour décomposer de manière simple et efficace un système complexe en parties plus simples dont les rôles sont clairement spécifiés. Et une fois que la partie physique est terminée, il reste à l’exploiter en réalisant des programmes, qui ne sont rien d’autre que des systèmes complexes constitués de « briques logicielles » plus simples. Quiconque parvient à ce stade a les idées parfaitement claires sur tous les concepts sous-jacents.

Si tous les ordinateurs « faits mains » dont j’ai trouvé des descriptions sur le WEB m’ont impressionnés, j’ai été vraiment bluffé par certaines réalisations particulièrement élégantes, telle que « The Anitra Computer », un ordinateur 8 bits pouvant adresser 32K octets de mémoire réalisé par un thésard du MIT à titre de loisir ! Cet ordinateur a été conçu de manière à simplifier au maximum son circuit électronique et à minimiser le nombre de composants utilisés. Le langage machine de cet ordinateur ne comporte que deux instructions placées dans 16 blocs de 8 instructions consécutives. L’une permet de transférer une valeur d’une adresse A vers une adresse B, et l’autre additionne une valeur située à une adresse A et une autre située à une adresse B, place le résultat à l’adresse B, et réalise un saut en avant jusqu’au début du bloc suivant s’il y a un débordement arithmétique (retenue). L’ensemble du programme est constitué d’une séquence de 16 blocs d’instructions qui est répétée indéfiniment. A première vue, la taille du programme est très limitée, mais elle est suffisante pour réaliser un interpréteur capable d’exécuter un programme plus long – et écrit dans un langage de plus haut niveau – situé dans le reste de la mémoire.

Dans le même esprit, Jack Eisenmann a conçu et réalisé un ordinateur 8 bits adressant 64K de mémoire appelé « DUO COMPACT » dont le langage machine ne comporte qu’une seule instruction : NOR A B C D, où A, B, C et D sont des adresses mémoire, qui effectue une opération logique OU / NON entre les valeurs pointées par A et B, place le résultat dans B, puis branche en C si le résultat est 0 ou en D sinon. Cette seule instruction permet de simuler toutes les instructions d’un microprocesseur classique. L’auteur a réalisé un programme calculant une racine carrée et même un petit jeu vidéo de plateforme s’exécutant en mode texte sur un écran à cristaux liquides acheté dans le commerce.

Dans une autre optique, un ingénieur électronicien nommé Dennis Kuschel a réalisé un ordinateur 8 bits complètement câblé avec des circuits logiques TTL (technologie datant des années 1960) nommé « MyCPU ». Il supporte le jeu d’instructions du microprocesseur 6502 qui équipait l’Apple II. Dennis a également réalisé un contrôleur vidéo permettant à cet ordinateur de réaliser des affichages graphiques sur écran, une carte lui permettant d’utiliser une mémoire de masse, et une carte réseau lui permettant de se connecter à Internet. C’est un travail absolument énorme qui relève de l’exploit.

Pour découvrir d’autres exemple de réalisations extraordinaires, vous pouvez consulter le site Home build computers web ring.

Intelligence artificielle

robotsQu’est-ce que l’intelligence artificielle ou IA ? Mon activité de recherche, qui est ciblée sur la résolution d’équations logiques relevant de ce qu’on appelle le raisonnement automatique, ne couvre qu’un fragment du domaine au périmètre assez flou désigné par ce sigle. Quand peut-on dire qu’une machine est intelligente ? Une calculatrice, par exemple, peut exécuter des opérations qui pendant très longtemps n’étaient réalisables que par des humains. Est-elle pour autant intelligente ? Je gage que la plupart des gens répondraient non à cette question, mais sur quelle base argumentaire ?

La machine à calculer effectue une suite d’actions très simples pour parvenir à réaliser une multiplication ou une division. Mais les programmes capables de battre aux échecs des maîtres internationaux, qui exploitent des bases de données contenant des milliers de parties déjà jouées, utilisent des algorithmes complexes, et qui sont même capables d’apprendre de leurs erreurs, ne font rien d’autre qu’exécuter un grand nombre d’opérations très simples. Sont-ils « plus intelligents » qu’une machine à calculer ? Et un cerveau humain fait-il autre chose qu’exécuter un très grand nombre d’actions très simples à l’échelle des neurones et synapses dont il est constitué ?

Au-delà de ces considérations philosophiques se pose la question des risques liés à l’existence de machines autonomes, capables de réaliser des missions sans intervention humaine, et dont le comportement ne peut être prévu sur la base d’une observation extérieure. On sait depuis longtemps réaliser des machines pouvant blesser ou tuer des êtres vivants, qu’il s’agisse ou pas de leurs fonction première. Les progrès réalisés dans le domaine des technologies numériques ont permis de rendre de telles machines parfaitement contrôlable à distance, et les progrès dans le domaine logiciel ont permis de les rendre capables d’assurer des missions complexes sans aucune intervention humaine, c’est-à-dire de leur donner une certaine autonomie.

Il faudra sans doute instaurer des garde-fous pour limiter les risques d’utilisation malveillante et/ou d’accidents liés à l’utilisation non malveillante de ces machines autonomes. Cela ouvre d’ailleurs de nouvelles problématiques de recherche : Comment quantifier ou qualifier le degré d’autonomie d’un système complexe ou « intelligent » ? Comment valider son niveau de sécurité ? La puissance de calcul des circuits qui composent une machine impose-t-elle une limite à sa capacité à réaliser des missions de manière autonome ?

A une époque où beaucoup de gens s’inquiètent du développement de machines capables de prendre des décisions dans des domaines naguère réservé à l’intelligence humaine, ce qui m’inquiète le plus, ce sont les êtres humains qui prennent des décisions à la manière d’une machine, en appliquant à la lettre un protocole appris par cœur. A vouloir trop codifier les activités professionnelles, il pourrait bien arriver que les machines fassent un travail de meilleur qualité que les employés humains, y compris pour des tâches « intellectuelles ».