Des robots qui apprennent à craindre comment les humains survivent mieux

Les chercheurs explorent comment un processus de pensée similaire à celui caractérisé par des êtres humains peut se traduire en robots, ce qui leur donne une plus grande capacité de réaction à l'inattendu. L'idée est de prendre des décisions de manière humaine, à travers des réponses émotionnelles innées à des stimuli inconnus et, en particulier, de notre réponse à la peur.

Dans une avance singulière au sein de la robotique cognitive, une équipe de l'Université polytechnique de Turin, en Italie, a développé un système de contrôle robotique qui simule la réponse émotionnelle humaine liée à la peur. Le but est d'améliorer la capacité des robots à évaluer les risques et à éviter les situations dangereuses plus rapidement et plus efficacement.

Publié dans le magazine IEEEEE Robotics and Automation Letters, la nouvelle étude dirigée par Alessandro Rizzo et Andrea Usai a utilisé l'apprentissage renforcé (apprentissage du renforcement) ainsi qu'un contrôleur prédictif non linéaire, cherchant à imiter la «voie basse» du cerveau humain, à savoir la voie rapide et émotionnelle qui commence à entendre, pour produire des décisions instantanées avant une stimuli inconnue.

Actuellement, les robots sont confrontés à de nombreux défis pour s'adapter aux environnements dynamiques et en même temps mettre en œuvre des stratégies d'auto-préservation. En effet, ils sont conçus pour effectuer des tâches très spécifiques: par conséquent, les robots peuvent avoir du mal à fonctionner efficacement dans des conditions complexes et changeantes.

Décisions instantanées

Pour surmonter ces limites, les spécialistes cherchent à programmer des robots avec la capacité humaine à répondre immédiatement à la peur et au stress de l'inconnu: cette « plasticité » à décider à l'époque et à survivre devant une menace, dont nous héritons de nos ancêtres, pourrait aider les robots à améliorer leurs indicateurs de sécurité.

Comme expliqué par le spectre IEEE, dans les simulations avec des obstacles mobiles, le robot « avec la peur » a maintenu une distance de sécurité de 3,1 mètres par rapport aux obstacles, contre 0,3 mètre et 0,8 mètre de robots conventionnels qui n'avaient pas « appris » à la crainte que les humains.

Cette approche contraste avec les approches inspirées du cortex préfrontal, destiné aux décisions à long terme. En fait, les chercheurs prévoient d'intégrer des modèles multimodaux, tels que de grands modèles de langage ChatGpt, pour compléter ce chemin émotionnel avec un raisonnement stratégique.

Intégrez les réponses rapides au raisonnement et à la planification

Les preuves suggèrent que les stratégies de sécurité robotiques devraient intégrer des facteurs psychologiques et sociaux aux aspects organisationnels et de formation. L'ajout de «peur robotique» fournit un nouveau paradigme: une couche réactive conçue pour éviter des collisions ou des accidents immédiats, mais ne remplace pas la planification à long terme ou les évaluations humaines détaillées.

Référence

À l'architecture neuro-inspirée pour améliorer l'auto-préservation des robots et l'adaptation dans les tâches de navigation autonomes. Andrea Usai et Alessandro Rizzo. IEEE Robotics and Automation Letters (2025). Doi: http: //dx.doi.org/10.1109/lra.2025.3583630

Les chercheurs reconnaissent que cette approche est complémentaire et qu'ils s'efforcent de combiner une réponse émotionnelle rapide avec une prise de décision plus raisonnée et contextualisée. En conclusion, l'intégration d'émotions simulées telles que la peur constitue une avancée prometteuse pour les robots mobiles ou de sauvetage, où la réaction rapide à l'inattendu sauve des vies.

Cependant, la pleine efficacité des systèmes robotisés dépend de modèles d'évaluation des risques plus complets, qui incluent des variables humaines, psychologiques et organisationnelles. L'idée est de concevoir des machines qui non seulement agissent en toute sécurité, mais aussi de comprendre le facteur humain: ce sera la clé pour atteindre une interaction plus sûre, fiable et éthique entre les humains et les robots.