Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science/Tech - Page 53

  • Tu pue, ou tu pue pas?

    Un nez électronique conçu par des Lituaniens permettra de sentir les aliments dangereux pour la santé

    La société lituanienne ART21 a conçu, en coopération avec l’Université technologique de Kaunas, le premier nez électronique mobile au monde destiné à déterminer la qualité et la fraîcheur de la viande, de la volaille et du poisson. La société présentera son produit lors du plus grand événement européen en matière de technologies de l’information et de la communication ICT 2013 qui aura lieu du 6 au 8 novembre.

    Il existe des produits similaires dans le monde, mais ils sont industriels ou de laboratoire. Le nez électronique, créé par les Lituaniens, est un appareil petit et élégant, pas plus grand que les clés USB actuelles, et où sont installés un réseau de capteurs et les technologies de transmission des données " Wi-Fi " et " Bluetooth ". (…)

    L’objectif nez électronique est de sentir certaines propriétés chimiques et gaz de la viande, de la volaille et du poisson et, en utilisant de nombreux algorithmes, identifier :

    " le niveau de fraîcheur du produit (de très frais à déjà dangereux pour la consommation)

    " des éléments chimiques dangereux, des substances toxiques pouvant provoquer des maladies dangereuses et des cancers

  • La puce et le progrès économique

    Un retour sur la « loi de Moore » permet de mesurer l’ampleur du bouleversement d’innovations numériques en cours et à venir.

    Par Georges Lane.

    Au cœur de l’activité économique, il y a le progrès technique que génère l’homme. Pour cette raison, le diagramme qui suit (figure 1) mérite attention.

     

     0ose.png

     

     

     

     

     

     Figure 1 : Source.

    Il fait apparaître une hausse considérable de la miniaturisation des transistors dans les ordinateurs, qui atteignaient un point de l’ordre de 2600 millions en 2011. Il vise aussi à s’interroger sur l’avenir de la « loi de Moore » qui, en particulier, a contribué à faire passer les gens du monde de l’ère de Gutenberg à celui de l’ère numérique.

    La miniaturisation

    Il y a treize ans, la « loi de Moore » amenait au diagramme ci-dessous (figure 2) : 

    0secr.png

     

     

     

     

     Figure 2 : Loi de Moore (1971-2000), Source.

    Soit dit en passant, pour une visite du musée de l’innovation de Intel, voir ici.

    Entre 2000 et 2011, en dix ans, le nombre de transistors de référence est donc passé de 100 millions à 2600 millions après être passé, de 1971 à 2000, en trente ans, de 2300 à 100 millions. Les 10 millions de 1998 qui ont contribué à faire connaître Internet au public dans le monde sont dérisoires comparé au chiffre donné, 2600 millions ! La hausse rapide de ces dernières années qui a fait passer de 1000 millions à 2600 est tout autant considérable. Ces variations de mesure sont colossales ainsi que leur progression.

    Faut-il enfoncer le clou et insister sur le fait que la variation dans laquelle on se trouve aujourd’hui est sans commune mesure avec celles qui ont existé antérieurement ? Les plus folles réalisations sont à venir.

    La défaillance économique

    Malgré cela, malgré ce progrès technique jusqu’à présent a priori sans limites, des économistes font valoir qu’il n’y a pas eu d’innovation fondamentale, que le phénomène ne présente pas outre mesure d’intérêt économique. Oublions les.

    Ou alors ils mettent l’accent sur un des résultats, à savoir les données que l’innovation a permises (cf. par exemple en matière d’open source) comme si ces données étaient autant de contraintes.

     

    0SECURIT.png

     

     

     


     

    Limite physique et limite économique font deux

    La contrainte n’est pas là, mais dans le transistor ou, si on préfère, dans le mot « puce ». Moore y avait fait allusion en déclarant en 1997 que la croissance des performances des puces se heurterait aux environs de 2017 à une limite physique : celle de la taille des atomes.

    Et certains en arrivent à se demander si le transistor à un seul atome est aujourd’hui en avance sur la loi de Moore ? Un groupe international de chercheurs, principalement australiens, vient en effet d’annoncer être en mesure de fabriquer avec précision un transistor composé d’un unique atome de phosphore sur une couche d’atomes de silicium. Ce n’est pas le premier transistor monoatomique mais c’est la première fois qu’on en fabrique un de façon suffisamment contrôlée pour espérer passer un jour à une production industrielle. Dépassant les prédictions de la loi de Moore, la performance pourrait hâter la réalisation d’ordinateurs quantiques vraiment performants.

    Comme l’un de ces chercheurs le précise dans cette vidéo, la réalisation contrôlée de transistors monoatomiques est en avance sur la loi de Moore, qui la prévoyait pour 2020. Une technique basée sur l’emploi d’un microscope à effet tunnel aurait permis aux chercheurs des universités de New South Wales, Purdue et Melbourne de vaincre les obstacles rencontrés jusqu’ici par leur collègues explorant le nanomonde.

    Ils sont confrontés à une alternative :

    ◾atteindre une limite physique puisque l’on est là dans le domaine où règnent la mécanique quantique, son brouillard probabiliste et les inégalités de Heisenberg ;

    ◾s’intéresser aux ordinateurs quantiques qui deviennent possibles.

    Le fait est qu’aujourd’hui, en 2013, le vraisemblablement dernier produit connu, le 62-Core Xeon Phi de Intel, comporte 5000 millions de transistors. Cela explique la  juxtaposition à quoi conduit la loi de Moore dans la figure 1.

    L’avenir de la monnaie

    Cela explique aussi que la technique ne demande qu’à être développée par certains ou appliquée par d’autres pour que croisse davantage encore l’activité économique, en particulier, dans le domaine qu’il est malheureusement classique de dénommer « monnaie ». Ce qu’on dénomme abusivement « monnaie » aujourd’hui est sans relation avec ce qu’on dénommait « monnaie » il y a cent ans et auparavant. Le bouleversement réglementaire gutenbergien qu’ont mis en œuvre les hommes de l’État d’abord dans la décennie 1930, puis en 1971-73, est dérisoire comparé au bouleversement d’innovations numériques en cours aujourd’hui.

    Où cela peut-il mener ? L’avenir le dira et seulement lui dont nous sommes les causes !

  • Des nouveautés qui, parfois, sont plus que risibles!

    Tweeting Bra : le soutien-gorge qui tweet pour lutter contre le cancer du sein

    Un nouveau gadget est né… pour la bonne cause ! Inventé par l’agence de communication Ogilvy Athens, en partenariat avec Nestlé Fitness, le Tweeting Bra est un soutien-gorge qui tweet tout seul dès qu’il est dégrafé. Le but ? Inciter ou sensibiliser les femmes à aller se faire dépister pour le cancer du sein.

    Dès qu’il est enlevé, le Tweeting Bra envoie directement un message sur le compte Twitter @tweetingbra.

     

    tweeting_bra_5661_center_640x440.jpg

  • Des miroirs géants pour réfléchir la lumière du soleil

     

    Trois miroirs géants ont été installés sur les hauteurs d'une petite ville norvégienne, afin de pallier au manque d'ensoleillement.

    En Norvège une petite ville s'est dotée de miroirs géants pour capter la lumière du soleil qu'elle ne reçoit pas en hiver.

    Célèbre pour sa cascade, la petite ville industrielle de Rjukan, nichée au cœur des montagnes dans le comté de Telemark, au sud de la Norvège, compte désormais une nouvelle attraction. La ville s'est dotée de miroirs géants destinés à l'illuminer durant les longues périodes hivernales.

    L'idée n'est pas nouvelle. Rjukan est longtemps resté un centre industriel de pointe, possédant notamment, jusqu'au début des années 1970, la plus grande usine hydro-électrique du monde. Il y a près d'un siècle, son fondateur, l'industriel Sam Eyde, s'inquiétait déjà du peu de soleil que recevaient ses ouvriers. Il envisage la possibilité de construire un réflecteur sur les hauteurs de la ville mais abandonne cette idée, un peu trop novatrice en son temps, pour un simple téléphérique. Désormais les habitants de Rjukan n'auront plus à l'emprunter pour s'offrir un bain de soleil.

    Convaincu par un projet similaire, qui a été mis en place en 2006 dans le village de Viganella, dans le nord de l'Italie, le conseil municipal de Rjukan a finalement accepté d'investir les 640.000 euros nécessaires à la construction des miroirs.

    Martin Andersen, artiste et entrepreneur local originaire d'Oslo, et l'investigateur du projet, aura du redoubler de patience. Après cinq années de débats avec les responsables locaux, les miroirs, installés en juillet, n'ont vraiment commencé à fonctionner qu'à partir d'octobre, avec le début de l'hiver scandinave. Le système, dit "héliostat", suit automatiquement la course du soleil. Les trois miroirs, situé à 742 mètres d'altitude pour une surface totale de 51 m², s'ajustent d'eux même afin d'optimiser la réflexion en contrebas, sur la place du marché.

    Un système de miroirs réflecteurs en France?

    Aucune ville de France, en mal d'ensoleillement, ne semble pour l'instant envisager cette extrémité. La société anglaise Colt, fondée en 1931 et implantée dans 80 pays dont le nôtre, offre pourtant des installations de type héliostat. Colt exploite les éléments naturels pour optimiser le confort de vivre à l'échelle d'un bâtiment. Sa philosophie: "purifier l'environnement dans lequel les gens travaillent". Ainsi, entre autres brise-soleil et systèmes de ventilation naturels, elle propose de canaliser la lumière du jour pour éclairer "naturellement" des locaux sombres ou aveugles.

    Renato Pero, directeur général de Colt-France, confie que la gamme héliostat "ne décolle pas" dans l'Hexagone. Après avoir intriguée les architectes, le carnet de commande est finalement resté vide. Une désaffection qui est peut-être à rapprocher d'un manque d'intérêt français pour les filières photovoltaiques.

    Entre-temps Colt a reçu plusieurs demandes en Suisse et aux Etats-Unis pour des projets similaires à ceux de Rjuka et Viganella. Il est question, par exemple, d'installer à New-York des trackers solaires au sommets des buildings pour éclairer les jardins enclavés de la Grosse Pomme en attendant, un jour, d'illuminer une ville entière.

     

    miroire geants.jpg

     

     

     

     

     

     

  • Et si nous avions une peau bionique ?

    sur mon compte dailymotion, pseudo toulousejoyce, j'ai parlé d'une "nano-peau technologique, sorte d'ordinateur en forme de peau" il y a quelques années... on y vient doucement, semble-t-il....

     

    Si la robotique est un domaine de recherche très en vogue ces dernières années, cela aura aussi permis d’accélérer les découvertes technologiques dans de nombreux autres domaines. Ainsi, en s’attelant, il y a dix ans, à concevoir une peau pour nos robots, des chercheurs travaillent aujourd’hui à mettre au point notre peau bionique de demain.

    Takao Someya et son équipe auraient difficilement pu imaginer se retrouver où ils en sont aujourd’hui lorsque, il y a dix ans, ces chercheurs se sont lancés dans la conception d’une "peau" pour nos amis robots, leur permettant ainsi de ressentir les choses, grâce à la pression et à la température.

    Aujourd’hui, avec les avancées technologiques, l’équipe a mis au point une peau bionique d’une épaisseur de seulement un dixième de celle du cellophane et capable d’épouser les mouvements de notre peau sans porter atteinte à l’intégrer de ses circuits.

    Les possibilités d’une telle peau bionique sont infinies. On pourrait par exemple intégrer des moniteurs cardiaques ou tout autre appareil biomédical, lui adjoindre une connectivité WiFi, des LEDs organiques ou même des écrans tactiles… Affaire à suivre !

    [ Sources: Dvice]    

    peau-bionique-655x400.jpg

     

     

     

     

     

     

     

  • La banquise et la régression vers la moyenne

     

    La banquise arctique en croissance ou pas ? Analyse critique d’un article sceptique.

    Par Acrithène.

    Contrepoints a publié récemment une image bien scientifique montrant que la couverture glacière de l’Arctique était très largement supérieure en août 2013 qu’un an auparavant. La preuve est à nouveau faite, le réchauffement climatique est en pause ! Et les commentateurs enthousiastes de s’interroger sur quelle galipette les promoteurs de la théorie du réchauffement climatique vont bien pouvoir réaliser pour retomber sur leur pattes.

    Comme j’ai trouvé l’article indigent, je m’y colle. Connaissez-vous ce phénomène qu’on appelle la régression vers la moyenne ?

    A1.png

     

     

     

     

     

     

    Imaginons par exemple le jeu suivant. J’effectue une répétition de lancers d’un dé à 6 faces et j’en note les scores. Avant chaque nouveau lancer, j’ajoute 1 à chaque face du dès. Ainsi le premier lancer est fait avec un dé dont les faces vont de 1 à 6, le second avec un dé allant de 2 à 7, et ainsi de suite… Tout le monde est d’accord pour dire qu’un tel processus est caractérisé par une tendance haussière.

    Mais imaginez qu’au lancer numéro 4 (mon dé va alors de 4 à 9) j’obtienne un score de 9. Quelle est la probabilité que j’obtienne un score inférieur au coup d’après ? J’aurais alors un dé allant de 5 à 10, et la probabilité de faire un score inférieur sera de 4/6, c’est-à-dire d’obtenir 5, 6, 7, ou 8. Et ce bien que j’ai lancé un dé dont les faces sont supérieures à celles du dé précédent. Autrement dit, la personne qui, observant que j’ai obtenu 9 au lancer #4 et 7 au lancer #5, en conclurait que les faces du lancer #5 ont des plus petites valeurs commettrait une grossière erreur d’interprétation. Ou, si l’erreur est volontaire, un sophisme.

    Le phénomène s’appelle « regression toward the mean » et décrit le fait que lorsqu’une variable obtient un score très élevé (respectivement très faible), la probabilité conditionnelle d’une décroissance (respectivement croissance) à l’observation suivante s’élève. Mathématiquement, ce phénomène est entièrement imputable à la partie aléatoire du processus étudié, et non à une éventuelle tendance.

    Ce phénomène statistique est très trompeur. Il nous fait par exemple croire que punir est plus efficace que récompenser. Par exemple, la note d’un enfant à l’école dépend à la fois de son travail et d’un facteur chance. La mère qui punit les mauvaises notes et récompense les bonnes notes aura le sentiment que les punitions sont plus efficaces, car elles sont statistiquement suivies d’une amélioration alors que les récompenses sont statistiquement suivies d’une dégradation. Mais le lien de causalité n’existe sans doute pas et la mère est peut-être trompée par la régression vers la moyenne du facteur chance. Autrement dit, le fait que la performance de son enfant s’améliore après une mauvaise note vient pour partie de la probabilité que cette mauvaise note était un accident. Et symétriquement qu’une bonne note était un coup de chance.

     

    A2.png

    Revenons-en à la belle image publiée par Contrepoints. Indépendamment de toute tendance au réchauffement  ou au refroidissement, si la banquise était particulièrement peu étendue en 2012, il est logique qu’elle se retrouve plus étendue en 2013. Cette variation ne vient pas d’une tendance, mais du retour vers la moyenne de la partie aléatoire du climat.

    Comme l’article de Contrepoints citait la NASA en argument d’autorité, j’y reprends ce graphique issu du NSIDC (National Snow and Ice Data Center) qui confirme totalement mon interprétation. L’année 2012 constituait une année extrême au regard de la moyenne historique. Le fait que l’année 2013 offre une banquise plus étendue est donc une prévision logique de la régression vers la moyenne. En revanche, le graphique montre que l’étendue de la banquise en 2013, fusse-t-elle bien plus grande qu’en 2012, est bien en-dessous de la moyenne des 30 dernières années.

    Source NSIDC

     

    Je ne me lance pas dans le débat sur le réchauffement, je tenais juste à montrer que la démonstration offerte par l’article de Contrepoints n’avait pas la moindre valeur scientifique. Elle n’est qu’un sophisme statistique connu depuis Francis Galton, un scientifique du XIXème siècle.