Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Informatique - Page 10

  • Vers des antennes miniatures intégrées dans des puces?

    Des travaux concernant une partie encore problématique de l'électrodynamique classique des milieux continus, en l'occurrence des diélectriques, pourraient conduire à la conception d’antennes suffisamment petites pour être installées à l'intérieur de puces électroniques.

    Grâce aux découvertes de l’équipe de l’université de Cambridge, il sera peut-être bientôt possible de loger une antenne radio efficace dans une des puces électroniques d'un téléphone.

    Grâce aux découvertes de l’équipe de l’université de Cambridge, il sera peut-être bientôt possible de loger une antenne radio efficace dans une des puces électroniques d'un téléphone.

    Une équipe de chercheurs de l'université de Cambridge (Royaume-Uni) pense avoir éclairci un vieux problème concernant l'électrodynamique des milieux matériels en physique classique. Leurs travaux, publiés dans la revue Physical Review, portent sur des ondes électromagnétiques générées non seulement par l’accélération des électrons mais aussi par une brisure de la symétrie du champ électrique. Les applications dans le secteur des communications pourraient être nombreuses. Notamment pour le développement de l’Internet des objets, puisque la découverte permet d'envisager la réalisation d'antennes suffisamment petites pour être intégrées dans des puces électroniques. On a bien du mal cependant à prendre au sérieux les affirmations de ces chercheurs exposés dans un communiqué de l'université de Cambridge et dont on ne trouve pas trace dans l'article scientifique. Selon ce communiqué les résultats obtenus pourraient permettre de rapprocher les théories de l'électromagnétisme classique et de la mécanique quantique mais on ne voit pas en quoi, puisque l'électrodynamique quantique est déjà la théorie la plus précise à ce jour et qu'elle est amplement vérifiée par l'expérience.

    Rappelons que la fonction d’une antenne est d’émettre et de capter de l’énergie sous la forme d’ondes électromagnétiques. La taille d’une antenne est fonction de la longueur d’onde associée à la fréquence de transmission. Plus exactement, pour qu’une antenne donne son efficacité maximale et que l’énergie transférée soit la plus importante, sa longueur doit être arithmétiquement liée à la fréquence de l'onde. Cependant, même ainsi conçue, plus l’antenne est courte, moins elle est efficace. Il s’agit là de l’un des points bloquants de l’électronique moderne, qui tend inexorablement vers la miniaturisation.

    Mais le problème pourrait être résolu grâce à une meilleure compréhension des mécanismes pouvant générer un rayonnement électromagnétique. Une grande part de ce que nous savons à ce sujet nous vient du XIXe siècle et de James Clerk Maxwell : le rayonnement électromagnétique est généré par l'accélération des électrons. Mais, comme le rappelait le grand mathématicien et physicien Henri Poincaré, il n’existe pas problème complètement résolus de sorte qu'il est souvent possible de jeter un nouveau regard sur des théories tout de même bien comprises et bien étudiées. Quelques difficultés sont par exemple repérables dans la théorie classique du rayonnement émis par des diélectriques. Or, justement, certaines antennes, celles de nos téléphones portables, par exemple, sont constituées de résonateurs diélectriques, des isolants dans lesquels, en principe, les électrons ne sont pas libres de se déplacer facilement.

    Un champ électromagnétique généré dans un matériau diélectrique

    En collaboration avec le Laboratoire national de physique et un fabricant d’antennes diélectriques, la société Antenova, l’équipe de chercheurs de l'université de Cambridge a étudié le comportement de films minces composés de matériaux piézoélectriques (niobate de lithium, nitrure de gallium, arséniure de gallium, etc.). Ce type de matériau présente la propriété de se déformer sous l’action d’un champ électrique. Ils ont découvert qu’à une fréquence déterminée (entre 100 MHz et 3 GHz), ces matériaux deviennent non seulement des résonateurs efficaces mais aussi des émetteurs efficaces et peuvent donc servir d’antennes.

    Selon les chercheurs anglais, ce phénomène surprenant serait dû à une brisure de la symétrie du champ électrique. Lorsque les charges électriques sont immobiles, le champ électrique est symétrique. Lorsque les couches minces de matériau piézoélectrique sont soumises à une excitation asymétrique, cette symétrie est brisée et un rayonnement électromagnétique est généré.

    Il s'agirait donc d'un nouvelle exemple de l'importance des considérations de symétrie en physique sur lesquelles Pierre Curie, grand contributeur à l'étude des matériaux piézoélectriques, avait déjà attiré l'attention au XIXe siècle en énonçant son célèbre principe de symétrie .

     

    az.jpg

     

     

     

     

     

     

    Bonjour l'électromagnétisme pour votre santé! toutes les infos sont sur mon site:

    www.on2nocives.com

  • Technologies persuasives:

    la bienveillance ne suffit pas

    Les technologies persuasives nous influencent à notre insu dans nos choix quotidiens. Conçues pour nous aider dans nos décisions, elles peuvent aussi empiéter sur nos libertés.

    Une interview rapide accordée à Atlantico vendredi dernier me donne l’occasion de revenir sur la question des technologies persuasives, dont on doit à Fogg d’avoir énoncé le premier l’expression. Mais c’est une formule sans doute inexacte.

    La persuasion est ce que les psycho-sociologues et les publicitaires étudient depuis bien longtemps, et pour lequel le modèle ELM de Petty et Cacioppo est central en faisant du changement d’attitude un processus à double route qu’aiguille une combinaison de motivations et de compétences. Ce sont d’ailleurs ces deux variables que l’on retrouve chez Fogg. L’inexact c’est que pour la publicité la persuasion passe par un changement d’opinion, et que dans le cas des technologies l’action s’opère directement au moment de la décision, dans ce fragment de seconde qui précède l’action, sans forcément demander de changements d’opinion.

    Voilà une différence majeure entre la communication dans l’univers des mass media et celle qui se déroule dans le monde digital entre des consommateurs appareillés et des machines. C’est une question d’échelle : l’une s’adresse à la relation générale qui réside entre ce que nous pensons et ce que nous faisons (cf. la théorie de l’action raisonnée), c’est-à-dire à notre capacité délibérative, l’autre s’adresse aux micro-décisions, à nos réflexes, et très certainement à nos automatismes mentaux. Cette notion de technologie persuasive est convaincante, mais elle mériterait d’être plus proprement dénommée " technologie prescriptive ".

    Examiner les dispositifs techniques et les construire en prenant en compte les biais cognitifs auxquels notre décision est soumise (et ces biais peuvent être nombreux comme l’indique cette liste de wikipedia) constituent la problématique clé de ce domaine de recherche et de conception. Il peut emprunter à la psychologie de la motivation, tout particulièrement à la question du contrôle (locus of control, perceived behavioral control, self-efficacy, level of construct…), à l’économie comportementale qui est en plein essor, tout autant qu’à la philosophie politique du nudge.

    Du côté des dispositifs il y a sans doute une typologie à établir car ceux-ci couvrent une grande variété de formes. Ils jouent sur l’effet d’influence sociale en se matérialisant sous la forme de notes et d’avis. Ils peuvent prendre un caractère prédictif comme dans le cas des moteurs de recommandation qui anticipent les désirs ou du moins les excitent. Ils vont se diffuser à grande échelle sous la forme de boucles de feed-back avec les objets connectés et leurs applications.

    Le problème politique et moral se pose simplement en rappelant la définition du nudge que Sunstein, Thaller et Baltz proposent : un élément de l’architecture du choix qui aide les gens à faire ce qu’ils veulent faire. L’architecte est celui qui conçoit l’environnement du choix : sa connaissance des comportements, des limites cognitives des individus et de leurs buts doit le guider dans la conception de ces dispositifs d’influence.

    Prenons l’exemple élémentaire de la sécurité routière. Pour réduire la vitesse moyenne et les accidents, outre l’option autoritaire des radars, on imagine désormais des dispositifs qui calculent le style de conduite et en informent le conducteur ; certains assureurs sont prêts à récompenser ceux qui adoptent et maintiennent une conduite plus souple et prudente. Le rôle de l’architecte est de concevoir un tel dispositif, de telle manière à ce qu’il produise effectivement – même partiellement – les changements de styles de conduite souhaités.

    Ces dispositifs peuvent varier selon différentes modalités : formulation des options par défaut (dans notre cas, un régulateur de vitesse), évitement des erreurs attendues, feed-back (un cadran de consommation d’essence instantané plus visible que le compteur de vitesse), mapping, structuration des décisions et des incitations (un bonus pour les assurés qui acceptent le système).

     

    Il va de soi que si le souci de faire le bien de l’usager (en réduisant le risque d’accident, la pollution et l’économie d’essence) est légitime, ces mêmes dispositifs peuvent être aussi conçus pour inciter à d’autres actions plus favorables à l’intérêt de l’architecte : l’assureur pourrait être tenté d’infléchir sur le choix de la route dans le but de nous amener sur des parcours moins accidentogènes (l’autoroute) quitte à ce que cela nous coûte plus cher. On imagine que cela pourrait se faire de façon furtive, en biaisant les indications de direction fournies par le GPS. Nous perdrions alors la liberté d’aller au plus court (notre intérêt).

    Bien sûr ces auteurs inscrivent le nudging dans la perspective d’un paternalisme bienveillant et libertarien dont nous pensons qu’elle mérite plus d’écho à la fois parce qu’elle permet, face à la crise démocratique, de réfléchir aux nouvelles justifications et aux nouveaux rôles de l’action publique, mais surtout parce qu’elle est essentielle pour penser les interférences du digital dans nos décisions qui, pour suivre Raphaël Suire par exemple, peuvent détruire l’espace de liberté qu’est ou que fut internet.

    Pour s’en tenir aux technologies persuasives, l’architecture du choix n’exige pas simplement le consentement des personnes vulnérables dont on veut prendre soin (à supposer qu’elles ne sont pas toujours en condition de faire les meilleurs choix pour elles-mêmes), mais aussi un moyen de contrôle sur ces dispositifs, au minimum la connaissance de leur existence et de leurs mécanismes, la transparence algorithmique.

    Mais ce n’est pas tout. Les technologies persuasives dans le monde digital ne sont pas uniquement développées pour aider des consommateurs limités cognitivement à faire de meilleurs choix, elles le sont aussi pour inciter à des comportements qui rendent plus attractives les collectivités qui habitent les plateformes. Quand facebook expérimente sur des centaines de milliers de sujets l’effet d’un algorithme de filtrage qui favorise un contenu positif, le problème n’est pas simplement celui d’une éthique de l’expérimentation qui interdit que les sujets de l’expérience n’en soient pas informés, mais celui de la finalité de la technique (le filtrage) qui ne correspond pas de manière évidente à l’intérêt propre des individus. La gouvernementalité de l’algorithmie à l’œuvre viole ici clairement la liberté en intervenant de manière arbitraire dans la décision.

    On comprendra qu’en parallèle de l’effort de recherche visant à développer des nudges et autres technologies prescriptives, dont l’utilité ne doit pas être mise en cause dans la mesure où la science a désormais établi que nous ne sommes pas toujours en condition de prendre des décisions informées et optimales, une réflexion politique, morale et juridique doit en accompagner le développement.

    Christophe Benavent free (Benavent C) / CC BY-NC-ND 3.0

    contrepoints.org

  • Télémédecine

    Surveiller les constantes vitales en filmant le visage

    Surveiller la température du visage pour suivre les constantes vitales. C’est ce que met au point une équipe américaine. L’outil serait efficace avec toutes les couleurs de peau.

    Une caméra pour remplacer les appareils de mesure de la tension, du niveau d’oxygène, du rythme cardiaque… simplement en observant le visage. Une équipe de l’université Rice, à Houston (Texas, Etats-Unis) met au point un dispositif qui s’oriente vers un suivi sans fil des patients. Ils décrivent dans Biomedical Optics Express le fonctionnement d’un nouvel algorithme.

    "Actuellement, les techniques de référence pour mesurer les constantes vitales s’appuient sur des capteurs de contact ", notent les chercheurs dans leur étude. Chez des patients fragiles, comme les bébés, ces capteurs – raccordés à des fils – peuvent entraîner des blessures. " L’histoire a commencé en 2013, lorsque nous avons visité l’hôpital pour enfants du Texas pour parler aux médecins et obtenir des idées, se souvient Mayank Kumar, étudiant à l’université Rice. Nous avons vu un nouveau-né dans l’unité de soins intensifs néonataux. De nombreux fils étaient attachés aux enfants".

    Applicable sur des peaux plus foncées

    Le système mis au point à l’université Rice, Distance PPG, s’appuie sur un système utilisant une caméra. Elle évalue des signes vitaux comme la respiration ou le rythme cardiaque grâce aux variations de température du visage. La technique n’est pas nouvelle, mais jusqu’à présent, elle ne pouvait être utilisée que dans des pièces lumineuses ou avec des peaux claires.

    Mayank Kumar, aidé de deux professeurs, a mis au point un algorithme qui nuance l’analyse des données. Il permet maintenant de réaliser le même suivi dans des environnements moins éclairés, ou sur des peaux plus sombres. " Notre découverte clé, c’est que la puissance des changements de carnation diffère selon les zones du visage ; nous avons donc développé un algorithme qui établit des moyennes, explique l’étudiant. Il améliore la précision des signes vitaux, en étendant rapidement la portée, la viabilité, l’étendue et l’utilité de cette surveillance des signes vitaux fondées sur la caméra. " Selon lui, le logiciel pourrait même être installé sur des téléphones portables, des tabttes ou des ordinateurs avec une même efficacité.

    uploded_64ca50babacc1a969f6242ac697f9103_DistancePPG2.jpg

  • Voiture autonome : Delphi réussit sa traversée des Etats-Unis

    L'Audi Q5 autonome, préparé par Delphi, a relié San Francisco à New York, sans aucun problème et sans que personne ne touche au volant. Près de 5 500 kilomètres parcourus, dont plus de 99% en mode automatisé et cela sans problème selon l'équipementier.

    Le 22 mars 2015, un Audi Q5 autonome préparé par Delphi Automotive prenait le départ du Delphi Drive, de San Franscico pour rallier New York.

    Cette première traversée des Etats-Unis en voiture autonome avait pour but de tester sur longue distance l’ensemble des solutions de conduite automatisée de l’équipementier.

    Le périple de plus de 5 500 km s’est effectué sans encombres, pour s’achever juste à temps pour l’ouverture du salon de l’automobile de New York.

    A l’épreuve de la route: autonome Delphi Drive sans les mains

    Durant neuf jours, l’équipe de chercheurs qui s’est relayée à bord a fait face à tous les types de  situations de conduite.

    Carrefours, giratoires, travaux, tunnels, conducteurs agressifs, conditions climatiques diverses,... “notre véhicule a particulièrement bien réagi pendant toute la durée du trajet et a même dépassé nos attentes“, a déclaré Jeff Owens, le directeur de la Technologie chez Delphi.

    Pour réussir ce challenge, l’Audi Q5 à conduite automatisée embarquait  certaines technologies équipant déjà de série des voitures (radar, caméras, systèmes d’alertes anticollisions, de franchissement de ligne,...).

    Durant le trajet, les ingénieurs de Delphi ont pu étudier et collecter trois téraoctets de données. Cette masse d’informations permettra de les optimiser et d’accélérer le développement des technologies de sécurité active futures.

    delphi-automated-drive-new-york-0348.jpg

     

     

     

     

     

     

  • Prospective facile!

    L’examen des innovations majeures permet de dessiner notre avenir collectif.

    Par Guy Sorman.

    Prévoir notre avenir collectif, sans même disposer d’une boule de cristal, est à notre portée. Il suffit de se référer à un indicateur qui ne relève pas de la magie, précis, disponible mais rarement consulté. Ce tableau du futur prochain est celui des brevets déposés chaque jour dans le monde: tout inventeur n’est pas nécessairement porteur d’avenir, mais sur le grand nombre, il n’est pas d’innovation qui ne soit protégée par un brevet. Que l’innovation soit le fondement du progrès fut compris en Grande-Bretagne au début du XVIIIe siècle: le Parlement britannique protégeait alors la propriété intellectuelle des inventeurs. Il revint ensuite à Thomas Jefferson d’inscrire dans la Constitution des États-Unis cette propriété intellectuelle, considérant que le brevet deviendrait la véritable richesse de sa nouvelle nation. À Jefferson, il revient aussi d’avoir limité la propriété intellectuelle dans le temps, afin que le brevet ne devienne pas un obstacle à la concurrence. Ces principes sont devenus universels, mais tous les brevets ne se valent pas. L’indicateur significatif est le tableau des brevets dits triadiques, déposés aux États-Unis, en Europe et au Japon, ce qui leur confère une validité quasi universelle.

    Quels pays inventent?

    De ce tableau, il ressort que le nombre de brevets croît de manière géométrique, puisque le nombre des chercheurs augmente et que le progrès est cumulatif: plus on cherche, plus on trouve. On trouve où on cherche, en premier lieu aux États-Unis, avec un tiers des brevets triadiques annuels. Sachant qu’une proportion significative de ces brevets deviendront les produits et services de l’avenir proche, la prééminence des États-Unis n’est pas en doute ni menacée.

    Immédiatement derrière les États-Unis, le Japon reste le second porteur d’innovations. On s’en est rendu compte lorsque la catastrophe de Fukushima (en 2011) avait paralysé l’industrie japonaise, interrompant par contrecoup des entreprises du monde entier, privées de pièces détachées que le Japon seul fournissait. L’Europe arrive en troisième position avec une contribution prépondérante de la Grande-Bretagne, de l’Allemagne, de la France, du Danemark, de la Belgique et de la Suisse. Par habitant, le Japon et la Suisse sont les deux leaders mondiaux de l’innovation. L’Europe traverse donc une phase difficile, mais elle n’est pas marginalisée: avec les États-Unis et le Japon, voici la troïka qui mène le monde. Ce qui permet de comprendre pourquoi, même lorsque la croissance ralentit, la qualité de vie s’améliore grâce à l’innovation: de la santé au téléphone par exemple.

    Et les pays " émergents "? Ils n’émergent pas ou peu: le seul qui apparaît sur l’écran radar de l’innovation est la Corée du Sud. Taïwan aussi frémit. Derrière, rien: la Chine, l’Inde, le Brésil, la Russie ne déposent que des brevets à usage interne, dont l’objet est avant tout de bloquer la concurrence étrangère. La croissance de ces pseudo-émergents reste, pour l’instant, fondée sur l’imitation et la sous-traitance. La carte du monde de demain ressemble à la carte du monde d’aujourd’hui.

    Qu’invente-t-on?

    À suivre les brevets triadiques, on perçoit les novations majeures. On en soulignera cinq: la fabrication en 3D, la médecine à distance, l’internet des choses, l’alimentation de synthèse, l’éducation à distance.

    Les imprimantes en trois dimensions permettront, chez soi ou en usine, de fabriquer n’importe quel objet en n’importe quelle matière sur la base d’un programme informatique. Le coût de la main-d’œuvre deviendra marginal dans la fabrication industrielle, ce qui ramènera la production des pays à bas salaires vers les pays riches et consommateurs: le modèle chinois en sera affecté si la Chine ne passe pas de la reproduction à l’innovation.

    La médecine à distance permettra de s’auto-diagnostiquer en continu: les données seront transmises en temps réel aux médecins, à fin de vérification et de thérapeutique. La visite médicale deviendra un ultime recours pour les patients non équipés et les cas désespérés.

    L’Internet des choses nous permettra de tout commander à distance, de la conduite de notre voiture au chauffage de notre domicile.

    L’enseignement à distance a commencé, au départ des universités américaines (Massive Online Courses) qui dispensent leurs meilleurs enseignements sur le web, tout en vérifiant les connaissances acquises. Le cursus universitaire de l’avenir exigera sans doute quelques années à distance et une année finale sur le campus (c’est déjà le modèle de l’Université de l’Arizona), offrant au grand nombre un enseignement de qualité aujourd’hui réservé aux élites.

    L’alimentation de synthèse? Les protéines de synthèse permettront d’accompagner la croissance démographique, alors même que les terres arables commencent à manquer et que les effets bénéfiques des OGM (organismes génétiquement modifiés) s’épuisent.

    Dans cette esquisse d’un futur plus que probable, les énergies de substitution n’apparaissent pas: les ressources de charbon, pétrole et gaz devenant inépuisables – grâce à la fracturation des roches et aux gains de productivité – l’incitation à changer de source d’énergie devient nulle. Pour ceux qui s’inquiètent du réchauffement climatique, la capture et la cristallisation des résidus devraient rassurer.

    Cet avenir suppose que l’économie de marché perdure, car une invention sans un entrepreneur qui la transforme en produits accessibles au grand nombre reste stérile. Mais on ne peut pas breveter l’économie de marché, ni la démocratie qui favorise l’esprit inventif: ce qui est brevetable est certain, mais ce qui ne l’est pas est incertain, voire improbable.

    Contrepoints.org

  • Réalité augmentée

    Microsoft à la pointe de l’innovation

    Avec ses lunettes connectées holographiques HoloLens, la société de Redmond double soudain tous ses concurrents (Google, Facebook, Samsung…) dans la course aux applications de la “réalité augmentée”, qui représente un immense enjeu économique.

    Qu’est-ce que la réalité augmentée? Il s’agit de superposer à l’image réelle, captée par les yeux, une image virtuelle, fournissant des informations sur ce que l’utilisateur regarde. Exemple : vous contemplez la façade d’un cinéma et le système, relié à Internet, affiche les titres des films et les heures des séances. Grâce à Internet et aux algorithmes de reconnaissance de forme, la réalité augmentée peut devenir un outil très efficace, simplifiant la vie quotidienne et améliorant la précision des gestes complexes en mécanique, en électronique, en chirurgie…

    Pourquoi la réalité augmentée n’est-elle pas déjà largement utilisée? Le problème est technique: les images virtuelles doivent être affichées sur les verres de lunettes, qui doivent donc être des écrans d’ordinateur légers et transparents; en outre, il faut que ces images puissent se modifier quand l’utilisateur se déplace et les lunettes doivent donc porter des caméras grâce auxquelles l’ordinateur reconnaîtra objets et personnes et produira les informations pertinentes. Bref, il faut mettre au point des “lunettes intelligentes”, intégrant ordinateur, GPS, caméras, accès Internet sans fil haut débit, dans un ensemble évoquant plus le casque de Robocop que les binocles de nos grands-parents…

    Immenses, les défis de la réalité augmentée sont néanmoins résolus : Google a introduit, en 2014, les Google Glass, qui devaient la mettre à la portée de tout un chacun (pour 1 500 dollars environ). Pourquoi le succès n’a-t-il pas été au rendez-vous, conduisant au retrait de ces merveilles techniques ? Et en quoi les HoloLens sont-elles différentes et pourraient-elles, à l’inverse, s’imposer sur le marché ?

    Les HoloLens sont très différentes, dans leur mode d’utilisation, des Google Glass. Certes, elles manipulent la vision, en ajoutant des éléments virtuels à celle-ci. Mais là où les Google Glass ajoutent des informations au monde réel, d’une manière qui pose de gros problèmes sociologiques, les HoloLens font au contraire entrer le monde réel dans l’ordinateur.

    Imaginez que vous affichiez sur l’écran de votre ordinateur l’image d’un correspondant avec qui vous parlez. Avec les HoloLens, l’ordinateur créera une vue 3D et fera apparaître votre correspondant dans le fauteuil qui vous fait face. Vous converserez avec la personne comme si elle était physiquement présente. En outre, les HoloLens ne projettent pas de simples images 3D, que l’on ne peut voir que de face, mais des hologrammes, c’est-àdire de vraies représentations en volume, autour desquels vous pourrez tourner si vous le souhaitez (d’où le nom HoloLens).

    Autre application possible: vous voulez créer une forme en 3D sur votre ordinateur, qu’il s’agisse d’une sculpture ou d’une pièce mécanique ; avec les HoloLens, vous ferez apparaître cette forme devant vous, là où vous vous trouvez, et la manipulerez avec des gestes, comme vous le feriez sur un objet réel.

    Les HoloLens pourraient marquer une vraie révolution dans la manière de travailler avec des ordinateurs. Leur impact pourrait être aussi grand que celui de la fameuse souris, inventée dans les années 1970!