Accueil > Février-Mars 2017 / N°39

La fac veut donner des « émotions » aux robots

Connaissez-vous « l’informatique affective » ? Cette nouvelle discipline enseignée à l’Université Grenoble-Alpes essaye de faire émerger le « robot social » afin que les robots puissent aussi remplacer les humains en tant que copain de jeu ou confident. Comme le dit une chercheuse : c’est « une révolution culturelle féroce » !

D’un côté la toute nouvelle université Grenoble-Alpes n’a visiblement pas assez d’argent pour payer convenablement son personnel précaire. De l’autre, elle diffuse gratuitement à 20 000 exemplaires un nouveau magazine tout en couleur de trente pages. Dénommé (H)auteurs. Le but du premier numéro est visiblement de promouvoir la robotisation du monde. Sous le titre «  les robots arrivent parmi nous », la une et dix pages sont consacrées à la gloire de la robotique. On apprend notamment qu’ « à Grenoble, informaticiens et chercheurs en sciences humaines et sociales travaillent ensemble pour développer l’intelligence de ces robots sociaux dont le déploiement dans notre société a commencé ». Entre autres exemples, une certaine Sylvie Pesty, enseignante-chercheuse à l’UGA spécialisée en « robotique sociale » essaye de développer un robot pour accompagner un enfant d’une dizaine d’années restant seul à la maison « en endossant différents rôles allant du conseiller au confident en passant par le copain de jeu, le coach ou le professeur ».

Jusqu’à maintenant, les robots piquaient le travail – et le salaire – des humains. Dorénavant, ils vont aussi rendre obsolètes les rôles d’ami ou de parent. Comme le dit Véronique Aubergé, une chercheuse du CNRS « le robot social n’est pas une révolution technologique, c’est une révolution culturelle féroce !  ». L’adjectif « féroce » s’utilise habituellement à propos de la cruauté des bêtes sauvages : les robots n’ont rien de sauvage, mais leur prolifération s’annonce en effet cruelle et sanguinaire.

L’université Grenoble-Alpes travaille donc à développer «  l’intelligence » des « robots sociaux ». Le 8 décembre dernier était organisée une conférence « Vers des ordinateurs dotés d’une intelligence sociale et émotionnelle » à la Maison des langues. « Les ordinateurs sont aujourd’hui pour la plupart socialement et émotionnellement ignorants » Pour remédier à cette grande injustice, un récent courant de recherche veut développer « l’informatique affective », afin que les machines puissent « exprimer des émotions et gérer celles de l’utilisateur afin d’optimiser l’interaction ». « L’informatique affective » ! Et pourquoi pas – quitte à créer n’importe quoi - le « stakhanovisme bienveillant », « la ronde de l’amour automatisée » ou la « torture romantique » ?

À la tribune, une certaine Magalie Ochs, chercheuse à Aix-Marseille déclare que l’objectif de cette nouvelle discipline est de « créer une relation émotionnelle bilatérale entre l’humain et la machine ». Le problème, c’est que les robots n’ont pas d’«  intelligence émotionnelle », cette sensibilité typiquement humaine, et par définition non programmable. Et pourtant, la dame à la tribune affirme : « l’informatique affective vise à créer des algorithmes et des lignes de codes pour donner de l’intelligence émotionnelle aux machines ».

Balancer des énormités techno-euphoriques ne dérange visiblement pas Magali Ochs : elle se réjouit également qu’aujourd’hui « on [puisse] mesurer l’humeur d’une population sur Twitter, c’est assez fort », alors que les utilisateurs de Twitter représentent bien souvent moins de 10 % d’une population. Mais il faut croire que la vénalité des chercheurs a remplacé tout esprit critique. Aujourd’hui, si on veut percer à la fac, il faut faire plaisir aux grosses boîtes ou aux militaires qui amènent la thune. Suite à une interpellation critique, Magali Ochs avouera d’ailleurs : « aux États-Unis, l’armée finance beaucoup les recherches sur l’informatique affective ».

L’intelligence émotionnelle de n’importe quel humain normalement constitué comprend vite qu’il n’y a rien de souhaitable à bâtir un monde où les robots pourraient simuler des émotions et prendre « les rôles d’enseignants, coachs, assistants ou acteurs ». D’ailleurs suite au speech de la conférencière, les réactions des étudiants présents manquent d’enthousiasme. « Je ne vois que des choses négatives dans ce que vous avez évoqué », balance l’un d’eux. Les étudiants ont encore de l’intelligence émotionnelle. Enfin quelque chose de rassurant.