Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Informatique - Page 10

  • Technologies persuasives:

    la bienveillance ne suffit pas

    Les technologies persuasives nous influencent à notre insu dans nos choix quotidiens. Conçues pour nous aider dans nos décisions, elles peuvent aussi empiéter sur nos libertés.

    Une interview rapide accordée à Atlantico vendredi dernier me donne l’occasion de revenir sur la question des technologies persuasives, dont on doit à Fogg d’avoir énoncé le premier l’expression. Mais c’est une formule sans doute inexacte.

    La persuasion est ce que les psycho-sociologues et les publicitaires étudient depuis bien longtemps, et pour lequel le modèle ELM de Petty et Cacioppo est central en faisant du changement d’attitude un processus à double route qu’aiguille une combinaison de motivations et de compétences. Ce sont d’ailleurs ces deux variables que l’on retrouve chez Fogg. L’inexact c’est que pour la publicité la persuasion passe par un changement d’opinion, et que dans le cas des technologies l’action s’opère directement au moment de la décision, dans ce fragment de seconde qui précède l’action, sans forcément demander de changements d’opinion.

    Voilà une différence majeure entre la communication dans l’univers des mass media et celle qui se déroule dans le monde digital entre des consommateurs appareillés et des machines. C’est une question d’échelle : l’une s’adresse à la relation générale qui réside entre ce que nous pensons et ce que nous faisons (cf. la théorie de l’action raisonnée), c’est-à-dire à notre capacité délibérative, l’autre s’adresse aux micro-décisions, à nos réflexes, et très certainement à nos automatismes mentaux. Cette notion de technologie persuasive est convaincante, mais elle mériterait d’être plus proprement dénommée " technologie prescriptive ".

    Examiner les dispositifs techniques et les construire en prenant en compte les biais cognitifs auxquels notre décision est soumise (et ces biais peuvent être nombreux comme l’indique cette liste de wikipedia) constituent la problématique clé de ce domaine de recherche et de conception. Il peut emprunter à la psychologie de la motivation, tout particulièrement à la question du contrôle (locus of control, perceived behavioral control, self-efficacy, level of construct…), à l’économie comportementale qui est en plein essor, tout autant qu’à la philosophie politique du nudge.

    Du côté des dispositifs il y a sans doute une typologie à établir car ceux-ci couvrent une grande variété de formes. Ils jouent sur l’effet d’influence sociale en se matérialisant sous la forme de notes et d’avis. Ils peuvent prendre un caractère prédictif comme dans le cas des moteurs de recommandation qui anticipent les désirs ou du moins les excitent. Ils vont se diffuser à grande échelle sous la forme de boucles de feed-back avec les objets connectés et leurs applications.

    Le problème politique et moral se pose simplement en rappelant la définition du nudge que Sunstein, Thaller et Baltz proposent : un élément de l’architecture du choix qui aide les gens à faire ce qu’ils veulent faire. L’architecte est celui qui conçoit l’environnement du choix : sa connaissance des comportements, des limites cognitives des individus et de leurs buts doit le guider dans la conception de ces dispositifs d’influence.

    Prenons l’exemple élémentaire de la sécurité routière. Pour réduire la vitesse moyenne et les accidents, outre l’option autoritaire des radars, on imagine désormais des dispositifs qui calculent le style de conduite et en informent le conducteur ; certains assureurs sont prêts à récompenser ceux qui adoptent et maintiennent une conduite plus souple et prudente. Le rôle de l’architecte est de concevoir un tel dispositif, de telle manière à ce qu’il produise effectivement – même partiellement – les changements de styles de conduite souhaités.

    Ces dispositifs peuvent varier selon différentes modalités : formulation des options par défaut (dans notre cas, un régulateur de vitesse), évitement des erreurs attendues, feed-back (un cadran de consommation d’essence instantané plus visible que le compteur de vitesse), mapping, structuration des décisions et des incitations (un bonus pour les assurés qui acceptent le système).

     

    Il va de soi que si le souci de faire le bien de l’usager (en réduisant le risque d’accident, la pollution et l’économie d’essence) est légitime, ces mêmes dispositifs peuvent être aussi conçus pour inciter à d’autres actions plus favorables à l’intérêt de l’architecte : l’assureur pourrait être tenté d’infléchir sur le choix de la route dans le but de nous amener sur des parcours moins accidentogènes (l’autoroute) quitte à ce que cela nous coûte plus cher. On imagine que cela pourrait se faire de façon furtive, en biaisant les indications de direction fournies par le GPS. Nous perdrions alors la liberté d’aller au plus court (notre intérêt).

    Bien sûr ces auteurs inscrivent le nudging dans la perspective d’un paternalisme bienveillant et libertarien dont nous pensons qu’elle mérite plus d’écho à la fois parce qu’elle permet, face à la crise démocratique, de réfléchir aux nouvelles justifications et aux nouveaux rôles de l’action publique, mais surtout parce qu’elle est essentielle pour penser les interférences du digital dans nos décisions qui, pour suivre Raphaël Suire par exemple, peuvent détruire l’espace de liberté qu’est ou que fut internet.

    Pour s’en tenir aux technologies persuasives, l’architecture du choix n’exige pas simplement le consentement des personnes vulnérables dont on veut prendre soin (à supposer qu’elles ne sont pas toujours en condition de faire les meilleurs choix pour elles-mêmes), mais aussi un moyen de contrôle sur ces dispositifs, au minimum la connaissance de leur existence et de leurs mécanismes, la transparence algorithmique.

    Mais ce n’est pas tout. Les technologies persuasives dans le monde digital ne sont pas uniquement développées pour aider des consommateurs limités cognitivement à faire de meilleurs choix, elles le sont aussi pour inciter à des comportements qui rendent plus attractives les collectivités qui habitent les plateformes. Quand facebook expérimente sur des centaines de milliers de sujets l’effet d’un algorithme de filtrage qui favorise un contenu positif, le problème n’est pas simplement celui d’une éthique de l’expérimentation qui interdit que les sujets de l’expérience n’en soient pas informés, mais celui de la finalité de la technique (le filtrage) qui ne correspond pas de manière évidente à l’intérêt propre des individus. La gouvernementalité de l’algorithmie à l’œuvre viole ici clairement la liberté en intervenant de manière arbitraire dans la décision.

    On comprendra qu’en parallèle de l’effort de recherche visant à développer des nudges et autres technologies prescriptives, dont l’utilité ne doit pas être mise en cause dans la mesure où la science a désormais établi que nous ne sommes pas toujours en condition de prendre des décisions informées et optimales, une réflexion politique, morale et juridique doit en accompagner le développement.

    Christophe Benavent free (Benavent C) / CC BY-NC-ND 3.0

    contrepoints.org

  • Télémédecine

    Surveiller les constantes vitales en filmant le visage

    Surveiller la température du visage pour suivre les constantes vitales. C’est ce que met au point une équipe américaine. L’outil serait efficace avec toutes les couleurs de peau.

    Une caméra pour remplacer les appareils de mesure de la tension, du niveau d’oxygène, du rythme cardiaque… simplement en observant le visage. Une équipe de l’université Rice, à Houston (Texas, Etats-Unis) met au point un dispositif qui s’oriente vers un suivi sans fil des patients. Ils décrivent dans Biomedical Optics Express le fonctionnement d’un nouvel algorithme.

    "Actuellement, les techniques de référence pour mesurer les constantes vitales s’appuient sur des capteurs de contact ", notent les chercheurs dans leur étude. Chez des patients fragiles, comme les bébés, ces capteurs – raccordés à des fils – peuvent entraîner des blessures. " L’histoire a commencé en 2013, lorsque nous avons visité l’hôpital pour enfants du Texas pour parler aux médecins et obtenir des idées, se souvient Mayank Kumar, étudiant à l’université Rice. Nous avons vu un nouveau-né dans l’unité de soins intensifs néonataux. De nombreux fils étaient attachés aux enfants".

    Applicable sur des peaux plus foncées

    Le système mis au point à l’université Rice, Distance PPG, s’appuie sur un système utilisant une caméra. Elle évalue des signes vitaux comme la respiration ou le rythme cardiaque grâce aux variations de température du visage. La technique n’est pas nouvelle, mais jusqu’à présent, elle ne pouvait être utilisée que dans des pièces lumineuses ou avec des peaux claires.

    Mayank Kumar, aidé de deux professeurs, a mis au point un algorithme qui nuance l’analyse des données. Il permet maintenant de réaliser le même suivi dans des environnements moins éclairés, ou sur des peaux plus sombres. " Notre découverte clé, c’est que la puissance des changements de carnation diffère selon les zones du visage ; nous avons donc développé un algorithme qui établit des moyennes, explique l’étudiant. Il améliore la précision des signes vitaux, en étendant rapidement la portée, la viabilité, l’étendue et l’utilité de cette surveillance des signes vitaux fondées sur la caméra. " Selon lui, le logiciel pourrait même être installé sur des téléphones portables, des tabttes ou des ordinateurs avec une même efficacité.

    uploded_64ca50babacc1a969f6242ac697f9103_DistancePPG2.jpg

  • Voiture autonome : Delphi réussit sa traversée des Etats-Unis

    L'Audi Q5 autonome, préparé par Delphi, a relié San Francisco à New York, sans aucun problème et sans que personne ne touche au volant. Près de 5 500 kilomètres parcourus, dont plus de 99% en mode automatisé et cela sans problème selon l'équipementier.

    Le 22 mars 2015, un Audi Q5 autonome préparé par Delphi Automotive prenait le départ du Delphi Drive, de San Franscico pour rallier New York.

    Cette première traversée des Etats-Unis en voiture autonome avait pour but de tester sur longue distance l’ensemble des solutions de conduite automatisée de l’équipementier.

    Le périple de plus de 5 500 km s’est effectué sans encombres, pour s’achever juste à temps pour l’ouverture du salon de l’automobile de New York.

    A l’épreuve de la route: autonome Delphi Drive sans les mains

    Durant neuf jours, l’équipe de chercheurs qui s’est relayée à bord a fait face à tous les types de  situations de conduite.

    Carrefours, giratoires, travaux, tunnels, conducteurs agressifs, conditions climatiques diverses,... “notre véhicule a particulièrement bien réagi pendant toute la durée du trajet et a même dépassé nos attentes“, a déclaré Jeff Owens, le directeur de la Technologie chez Delphi.

    Pour réussir ce challenge, l’Audi Q5 à conduite automatisée embarquait  certaines technologies équipant déjà de série des voitures (radar, caméras, systèmes d’alertes anticollisions, de franchissement de ligne,...).

    Durant le trajet, les ingénieurs de Delphi ont pu étudier et collecter trois téraoctets de données. Cette masse d’informations permettra de les optimiser et d’accélérer le développement des technologies de sécurité active futures.

    delphi-automated-drive-new-york-0348.jpg

     

     

     

     

     

     

  • Prospective facile!

    L’examen des innovations majeures permet de dessiner notre avenir collectif.

    Par Guy Sorman.

    Prévoir notre avenir collectif, sans même disposer d’une boule de cristal, est à notre portée. Il suffit de se référer à un indicateur qui ne relève pas de la magie, précis, disponible mais rarement consulté. Ce tableau du futur prochain est celui des brevets déposés chaque jour dans le monde: tout inventeur n’est pas nécessairement porteur d’avenir, mais sur le grand nombre, il n’est pas d’innovation qui ne soit protégée par un brevet. Que l’innovation soit le fondement du progrès fut compris en Grande-Bretagne au début du XVIIIe siècle: le Parlement britannique protégeait alors la propriété intellectuelle des inventeurs. Il revint ensuite à Thomas Jefferson d’inscrire dans la Constitution des États-Unis cette propriété intellectuelle, considérant que le brevet deviendrait la véritable richesse de sa nouvelle nation. À Jefferson, il revient aussi d’avoir limité la propriété intellectuelle dans le temps, afin que le brevet ne devienne pas un obstacle à la concurrence. Ces principes sont devenus universels, mais tous les brevets ne se valent pas. L’indicateur significatif est le tableau des brevets dits triadiques, déposés aux États-Unis, en Europe et au Japon, ce qui leur confère une validité quasi universelle.

    Quels pays inventent?

    De ce tableau, il ressort que le nombre de brevets croît de manière géométrique, puisque le nombre des chercheurs augmente et que le progrès est cumulatif: plus on cherche, plus on trouve. On trouve où on cherche, en premier lieu aux États-Unis, avec un tiers des brevets triadiques annuels. Sachant qu’une proportion significative de ces brevets deviendront les produits et services de l’avenir proche, la prééminence des États-Unis n’est pas en doute ni menacée.

    Immédiatement derrière les États-Unis, le Japon reste le second porteur d’innovations. On s’en est rendu compte lorsque la catastrophe de Fukushima (en 2011) avait paralysé l’industrie japonaise, interrompant par contrecoup des entreprises du monde entier, privées de pièces détachées que le Japon seul fournissait. L’Europe arrive en troisième position avec une contribution prépondérante de la Grande-Bretagne, de l’Allemagne, de la France, du Danemark, de la Belgique et de la Suisse. Par habitant, le Japon et la Suisse sont les deux leaders mondiaux de l’innovation. L’Europe traverse donc une phase difficile, mais elle n’est pas marginalisée: avec les États-Unis et le Japon, voici la troïka qui mène le monde. Ce qui permet de comprendre pourquoi, même lorsque la croissance ralentit, la qualité de vie s’améliore grâce à l’innovation: de la santé au téléphone par exemple.

    Et les pays " émergents "? Ils n’émergent pas ou peu: le seul qui apparaît sur l’écran radar de l’innovation est la Corée du Sud. Taïwan aussi frémit. Derrière, rien: la Chine, l’Inde, le Brésil, la Russie ne déposent que des brevets à usage interne, dont l’objet est avant tout de bloquer la concurrence étrangère. La croissance de ces pseudo-émergents reste, pour l’instant, fondée sur l’imitation et la sous-traitance. La carte du monde de demain ressemble à la carte du monde d’aujourd’hui.

    Qu’invente-t-on?

    À suivre les brevets triadiques, on perçoit les novations majeures. On en soulignera cinq: la fabrication en 3D, la médecine à distance, l’internet des choses, l’alimentation de synthèse, l’éducation à distance.

    Les imprimantes en trois dimensions permettront, chez soi ou en usine, de fabriquer n’importe quel objet en n’importe quelle matière sur la base d’un programme informatique. Le coût de la main-d’œuvre deviendra marginal dans la fabrication industrielle, ce qui ramènera la production des pays à bas salaires vers les pays riches et consommateurs: le modèle chinois en sera affecté si la Chine ne passe pas de la reproduction à l’innovation.

    La médecine à distance permettra de s’auto-diagnostiquer en continu: les données seront transmises en temps réel aux médecins, à fin de vérification et de thérapeutique. La visite médicale deviendra un ultime recours pour les patients non équipés et les cas désespérés.

    L’Internet des choses nous permettra de tout commander à distance, de la conduite de notre voiture au chauffage de notre domicile.

    L’enseignement à distance a commencé, au départ des universités américaines (Massive Online Courses) qui dispensent leurs meilleurs enseignements sur le web, tout en vérifiant les connaissances acquises. Le cursus universitaire de l’avenir exigera sans doute quelques années à distance et une année finale sur le campus (c’est déjà le modèle de l’Université de l’Arizona), offrant au grand nombre un enseignement de qualité aujourd’hui réservé aux élites.

    L’alimentation de synthèse? Les protéines de synthèse permettront d’accompagner la croissance démographique, alors même que les terres arables commencent à manquer et que les effets bénéfiques des OGM (organismes génétiquement modifiés) s’épuisent.

    Dans cette esquisse d’un futur plus que probable, les énergies de substitution n’apparaissent pas: les ressources de charbon, pétrole et gaz devenant inépuisables – grâce à la fracturation des roches et aux gains de productivité – l’incitation à changer de source d’énergie devient nulle. Pour ceux qui s’inquiètent du réchauffement climatique, la capture et la cristallisation des résidus devraient rassurer.

    Cet avenir suppose que l’économie de marché perdure, car une invention sans un entrepreneur qui la transforme en produits accessibles au grand nombre reste stérile. Mais on ne peut pas breveter l’économie de marché, ni la démocratie qui favorise l’esprit inventif: ce qui est brevetable est certain, mais ce qui ne l’est pas est incertain, voire improbable.

    Contrepoints.org

  • Réalité augmentée

    Microsoft à la pointe de l’innovation

    Avec ses lunettes connectées holographiques HoloLens, la société de Redmond double soudain tous ses concurrents (Google, Facebook, Samsung…) dans la course aux applications de la “réalité augmentée”, qui représente un immense enjeu économique.

    Qu’est-ce que la réalité augmentée? Il s’agit de superposer à l’image réelle, captée par les yeux, une image virtuelle, fournissant des informations sur ce que l’utilisateur regarde. Exemple : vous contemplez la façade d’un cinéma et le système, relié à Internet, affiche les titres des films et les heures des séances. Grâce à Internet et aux algorithmes de reconnaissance de forme, la réalité augmentée peut devenir un outil très efficace, simplifiant la vie quotidienne et améliorant la précision des gestes complexes en mécanique, en électronique, en chirurgie…

    Pourquoi la réalité augmentée n’est-elle pas déjà largement utilisée? Le problème est technique: les images virtuelles doivent être affichées sur les verres de lunettes, qui doivent donc être des écrans d’ordinateur légers et transparents; en outre, il faut que ces images puissent se modifier quand l’utilisateur se déplace et les lunettes doivent donc porter des caméras grâce auxquelles l’ordinateur reconnaîtra objets et personnes et produira les informations pertinentes. Bref, il faut mettre au point des “lunettes intelligentes”, intégrant ordinateur, GPS, caméras, accès Internet sans fil haut débit, dans un ensemble évoquant plus le casque de Robocop que les binocles de nos grands-parents…

    Immenses, les défis de la réalité augmentée sont néanmoins résolus : Google a introduit, en 2014, les Google Glass, qui devaient la mettre à la portée de tout un chacun (pour 1 500 dollars environ). Pourquoi le succès n’a-t-il pas été au rendez-vous, conduisant au retrait de ces merveilles techniques ? Et en quoi les HoloLens sont-elles différentes et pourraient-elles, à l’inverse, s’imposer sur le marché ?

    Les HoloLens sont très différentes, dans leur mode d’utilisation, des Google Glass. Certes, elles manipulent la vision, en ajoutant des éléments virtuels à celle-ci. Mais là où les Google Glass ajoutent des informations au monde réel, d’une manière qui pose de gros problèmes sociologiques, les HoloLens font au contraire entrer le monde réel dans l’ordinateur.

    Imaginez que vous affichiez sur l’écran de votre ordinateur l’image d’un correspondant avec qui vous parlez. Avec les HoloLens, l’ordinateur créera une vue 3D et fera apparaître votre correspondant dans le fauteuil qui vous fait face. Vous converserez avec la personne comme si elle était physiquement présente. En outre, les HoloLens ne projettent pas de simples images 3D, que l’on ne peut voir que de face, mais des hologrammes, c’est-àdire de vraies représentations en volume, autour desquels vous pourrez tourner si vous le souhaitez (d’où le nom HoloLens).

    Autre application possible: vous voulez créer une forme en 3D sur votre ordinateur, qu’il s’agisse d’une sculpture ou d’une pièce mécanique ; avec les HoloLens, vous ferez apparaître cette forme devant vous, là où vous vous trouvez, et la manipulerez avec des gestes, comme vous le feriez sur un objet réel.

    Les HoloLens pourraient marquer une vraie révolution dans la manière de travailler avec des ordinateurs. Leur impact pourrait être aussi grand que celui de la fameuse souris, inventée dans les années 1970!

  • Roméo: projet important pour la France

    Robotique : 10 bonnes raisons pour soutenir Romeo

    Le programme Romeo s’est fixé pour objectif de créer un robot humanoïde assistant de vie et compagnon personnel. Un aperçu sur la technologie du futur !

    Par Thierry Berthier.

    Romeo pèse un peu plus de 36 kg et mesure 1m46. Il est développé depuis 2009 par la société française Aldebaran Robotics à qui l’on doit déjà Pepper et Nao, son frère aîné de petite taille. Plus ambitieux que Nao, le programme Romeo s’est fixé pour objectif de créer un robot humanoïde assistant de vie et compagnon personnel. Avec un budget de 20 millions d’euros, Romeo est développé autour d’une plate-forme de recherche réunissant le laboratoire R&D d’Aldebaran et une quinzaine de partenaires académiques et industriels notamment dans le cadre du projet PSPC du programme d’investissements d’avenir « romeo 2 » soutenu par Bpifrance.

    Romeo est avant tout une plate-forme de recherche. Son développement permet de tester en vraie grandeur et d’améliorer des innovations technologiques dans des domaines variés comme les interactions homme-robot, les mécanismes décisionnels, la reconnaissance vocale ou la détection de comportements sociaux. Aldebaran Robotics souhaite offrir au plus grand nombre une gamme de robots humanoïdes compagnons et assistants personnels. Après le succès de Nao (plus de 7000 exemplaires vendus) , il s’agit aujourd’hui de créer un robot humanoïde de grande taille capable d’interagir avec son environnement, d’ouvrir une porte ou de saisir des objets posés sur une table. Au niveau dynamique, Romeo possède 40 degrés de liberté, il contrôle ses mouvements et parvient à attraper les objets en adaptant les efforts qu’il exerce sur l’objet. Au niveau perception, il sait suivre du regard un individu, sait évaluer l’âge de son interlocuteur et peut détecter ses émotions. La phase de contrôle et de correction des bugs (incontournable pour un système complexe de cette nature) s’est appuyée sur des technologies issues de l’aéronautique.

    Les concepteurs de Romeo ont veillé en particulier à ce que le robot ne constitue jamais un danger pour ses futurs utilisateurs. Romeo n’est pas encore pleinement opérationnel, il doit notamment apprendre à se déplacer de manière autonome. Sept exemplaires de Romeo ont été construits et les premières commandes viennent d’être signées avec des laboratoires français et européens.

    Dix bonnes raisons pour lesquelles il faut soutenir le projet Romeo

    1- Romeo est développé par Aldebaran Robotics, société française qui a décidé de s’implanter et de rester sur le territoire national. Ce choix audacieux mérite d’être souligné tout comme le positionnement d’Aldebaran sur un segment d’activité de la robotique d’assistance qui n’est pas aujourd’hui immédiatement rentable.

     

    2- Dans peu de temps, nous posséderons tous un ou plusieurs robots humanoïdes à domicile. Le marché potentiel est colossal. Dans la course technologique qui s’engage, Romeo peut tout à fait devenir le « gagnant qui rafle tout » même si les concurrences américaine, coréenne et japonaise sont bien présentes.

    3- Avec l’allongement de la durée de vie, le nombre de personnes âgées dépendantes va fortement augmenter. La robotisation de l’assistance aux personnes en perte d’autonomie deviendra vite une priorité nationale tant au niveau économique que social.

    4- Avec Romeo, la France peut intégrer le club des « pays leader » dans le domaine de la robotique humanoïde d’assistance aux cotés des USA, de la Corée du Sud et du Japon.

    5- Si Romeo rencontre le succès commercial, les innovations technologiques qu’il embarque diffuseront vers d’autres produits ou services robotiques et apporteront de la croissance.

    6- Le savoir-faire accumulé tout au long du programme Romeo pourra facilement être dérivé et étendu afin d’élargir l’éventail des activités et des fonctionnalités en s’orientant en particulier vers l’aide à l’apprentissage (lecture, écriture). L’assistant de vie deviendra alors assistant d’éducation.

     

    7- La diffusion de Romeo peut contribuer à rendre admissible le robot de compagnie auprès de la population et à lever les biais de perceptions qui sont parfois importants chez certains individus. Le robot est souvent perçu et fantasmé comme une menace potentielle prête à déshumaniser l’espace social. L’image « par défaut » de l’humanoïde est associée aux robots destructeurs du cinéma hollywoodien qui sont presque toujours mal intentionnés. Il devient urgent de modifier cette perception biaisée et rétrograde. Avec sa bonne tête de « gentil robot », Romeo saura facilement se faire accepter.

    8- Romeo va devenir le porte-drapeau d’une robotique française qui réussit à s’imposer sur le marché international (Aldebaran a développé Pepper pour le groupe de télécommunication japonais SoftBank). Romeo est en mesure de créer dans son sillage un élan d’innovation technologique qui sache s’exporter durablement.

    9- Romeo sera vite rejoint par Juliette qui, parité oblige, sera encore plus performante que lui en terme d’intelligence artificielle.

    10- Romeo ne va pas tarder à me remplacer pour tondre la pelouse…

    Le développement du projet Romeo

    Le programme Roméo est construit autour de six axes de développement :

    ◾Plate-forme physique : développement d’innovations mécatroniques pour le robot.

    ◾Sûreté de fonctionnement : analyse des risques engendrés par Romeo et préconisations pour les contenir.

    ◾Perception multisensorielle : intégration de fonctions qui permettront au robot de mieux interagir avec son utilisateur et de mieux percevoir son environnement.

    ◾Interaction cognitive : mécanismes de raisonnement, de planification et d’apprentissage.

    ◾Interaction physique : lois de commande des mouvements du robot.

    ◾Évaluation : Mise en situation du robot en présence de son utilisateur final.

     

    La conception de Romeo s’articule selon le schéma suivant :

    La première phase du programme Romeo s’était fixée quatre objectifs ambitieux : construire une plateforme mécatronique et logicielle interactive, ouverte et modulable ; produire un robot assistant personnel, des fonctions de surveillance et d’interaction homme – machine ; développer une plate-forme robuste pour la recherche et poser les bases d’un cluster industriel robotique. Le projet Romeo 2 a été lancé en novembre 2012. Ses concepteurs décrivent ainsi la phase Romeo2 : « Romeo 2 s’appuie sur les bases initiées par le projet FUI et se focalise sur les axes qui n’avaient pas pu être traités et qui sont néanmoins indispensables pour l’acceptabilité d’un robot humanoïde de grande taille au domicile de personnes en situation de perte d’autonomie : la sûreté informatique et physique, la capacité à apprendre les habitudes de son utilisateur pour en comprendre toujours mieux les besoins et les intentions, les applications d’assistance à la personne ».

    Le défi principal de Romeo est celui de l’acceptabilité. Pour que le projet se transforme en un succès commercial, Romeo doit devenir rapidement indispensable à son utilisateur. Cela sous-entend qu’il fasse preuve d’une autonomie suffisante dans ses déplacements et qu’il puisse communiquer simplement avec son interlocuteur humain. Le déplacement autonome est un problème très complexe. Tellement complexe que certains groupes de robotique américains (comme la société Boston Dynamics) orientent l’essentiel de leur développement sur la dynamique autonome. Viennent ensuite les capacités de perception du robot puis, par extension, la question de l’intelligence artificielle (IA) embarquée. Si des progrès majeurs ont bien été réalisés dans l’imitation de la marche, de la course et du franchissement d’obstacles (en mode bipède et quadrupède), les avancées d’IA sont quant à elles bien moins spectaculaires. La conversation entre un robot et son interlocuteur humain est toujours bornée par le test de Turing qui n’a pas été passé avec succès jusqu’à présent, dans le cadre d’un programme civil publié. Après avoir résolu les problèmes complexes du déplacement autonome, il faudra concentrer les efforts de R&D sur l’approche sémantique de l’interaction. L’acceptabilité du robot par le grand public est fonction du niveau d’IA embarqué dans la machine. La perception, l’imitation des comportements humains et la faculté d’apprentissage nécessitent chacune de la puissance de calcul et des algorithmes sophistiqués. C’est sur ce terrain qu’il convient de développer Romeo.

    Annexe – Les partenaires du projet Romeo

    Pour développer Romeo, Aldebaran Robotics s’est associé à quinze partenaires publics et privés :

    ◾VOXLER pour la reconnaissance vocale, l’interaction vocale en temps réel, l’analyse de la prononciation et de l’intonation vocale.

    ◾ALL4TECH : sûreté de fonctionnement des systèmes programmés

    ◾SPIR.OPS : intelligence artificielle et mécanismes décisionnels

    ◾CEA LIST : conception et fabrication de robots, sûreté de fonctionnement.

    ◾ARMINES ENSTA PARISTECH : Navigation visuelle, navigation sémantique, perception, apprentissage, interaction homme-robot.

    ◾TELECOM PARISTECH : réseau de microphones, formation de voie, apprentissage statistique, modélisation acoustique.

    ◾APPROCHE : Expression du besoin, protocole d’évaluation, suivi des évaluations.

     INRIA : commande de robots humanoïdes, apprentissage, interactions homme-robot, commande référencée vision.

    ◾CNRS LAAS : planification de trajectoire, perception multi-sensorielle de l’homme.

    ◾CNRS LIMSI : reconnaissance des émotions, fusion d’indices non verbaux et verbaux, identification des locuteurs, perception de la parole.

    ◾CNRS LIRMM : mouvements acycliques, interaction homme-robot.

    ◾COLLEGE DE FRANCE : neurosciences, locomotion des robots.

    ◾UMPC ISIR : Détection de comportements sociaux, interactions homme-robot.

    ◾UVSQ LISV : modélisation et conception de robots bipèdes.

    ◾STRATE : Design et conception de systèmes intelligents, packaging.

    Contrepoint.org