Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Savoir - Page 244

  • Ha, le futur.... c'est quelque chose!

    Est-ce un robot qui vous a écrit cette lettre à la main?

    De l’encre de stylo, du papier et des lettres irrégulières: ce courrier a été forcément été écrit par un être humain, non? En fait, il est peut-être l’œuvre d’une machine. Sur Medium.com, le journaliste Clive Thomson raconte comment il a ouvert en toute confiance une enveloppe qui était en réalité une publicité camouflée.

    L’adresse n’était pas écrite avec une police d’ordinateur imitant la calligraphie manuelle, mais bien à la main, celle d’un robot. Des services tels que Bond fonctionnent avec des machines capables de rédiger des missives qui ont l’apparence de l’écriture humaine.

    Mais, même si les robots s’attachent à reproduire nos imperfections, il existe encore (peut-être plus pour longtemps), quelques détails qui permettent de les distinguer de l’homme. Ils ont été confiés à Medium par les cofondateurs de la startup Maillift, qui propose des services d’écriture manuelle.

    Nous mettons les points sur les "i" de manière aléatoire, en fonction de notre état de fatigue et de la position de notre main, tandis que les machines les placent toujours au même endroit au-dessus de la lettre. Lorsqu’on force sur la bille de son stylo, une bande claire, sans encre, apparaît au milieu du trait. Le robot ne sait pas faire ça. Son écriture est fluide, son stylo posé ou levé.

    ecriture-main.jpg

     

     

     

     

    Un humain ne sait pas non plus gérer l’espace qu’occupent ses mots sur une ligne. Son écriture aurait tendance à se positionner en léger arrondi contre la marge de droite, pour compenser le manque ou le surplus de place. La machine, en revanche, connaît parfaitement la taille de chaque mot.

    Sur Network World, Paul McNamara dénonce l’utilisation abusive de cette fausse écriture manuelle pour vendre un produit ou un service aux individus peu attentifs:

    "[...] comme pour les spams, il y a probablement des gens ici que ça ne gêne pas d’être dupés. [...] Je vous attends, markéteux trompeurs. Parce que si j’ouvre la lettre et que c’est une publicité de n’importe quel type, vous me direz sans équivoque que vous et votre client n’êtes pas dignes de confiance."

    Mais d’après Medium, l’intrusion des robots dans un art que les humains délaissent pourrait inverser la logique.

    "Le nombre d’humains vivants et honnêtes qui écrivent régulièrement des lettres à la main a diminué régulièrement depuis des années. Alors peut-être qu’il ne reste pas beaucoup de temps avant que [...] une enveloppe écrite à la main devienne non pas une mise à l’épreuve de l’humanité, mais une preuve certaine qu’une base de données impersonnelle nous a envoyé une lettre type."

  • 1er octobre: Journée mondiale du chocolat

    La fourchette qui vous laisse chocolat!

    En 2014, il existe une fourchette capable de donner aux brocolis un goût de banane. La chose s’appelle "Aromafork" et peut transformer les saveurs d’une bouchée. "Un produit quasi-magique", comme l’écrit le Huffington Post? Pas tant que ça.

    Pour faire marcher l’Aromafork, il faut mettre une gouttelette d’un des arômes liquides, très concentrés, sur un petit buvard qui se trouve sur le manche. Ensuite, on est censé manger le contenu de la fourchette en inspirant les effluves qui sortent du couvert.

    Sophie Boivin, qui s’occupe des relations publiques de Molecule-R, la boîte commercialisant cette étrange fourchette, explique au Huffington Post que "la fourchette joue avec les perceptions. Elle trompe l’esprit en lui faisant croire qu’on est en train de manger ce que l’on sent".

    Le kit (qui coûte quand même 58,95 dollars, soit 45,81 euros la fourchette…) propose 21 arômes dans 6 catégories: grains (vanille, café, chocolat), fruits (fraise, fruit de la passion, litchi, banane), herbes (menthe, coriandre, basilic), noix (cacahuète, noix de coco, amande), épices (wasabi, gingembre, cannelle, poivre noir) et umami (fumé, huile d’olive, beurre, truffe).

    Jonathan Coutu, le président de l’entreprise, explique dans un communiqué rapporté par le Los Angeles Times que "personne ne nous apprend à goûter correctement, et la plupart d’entre nous se concentre instinctivement sur les papilles lors de la dégustation. L’Aromafork démontre et amplifie l’importance du nez dans la perception des saveurs".

    Mais à quoi ça sert? Selon le Huffington Post, cela peut permettre à des gens allergiques à l'arachide de sentir le goût d'un pseudo-sandwich au beurre de cacahuète (avec une fourchette, donc…), puisque les arômes de l’Aromafork sont garantis sans allergènes connus, ou encore aux végétariens de manger des légumes au goût "fumé" (mais ont-ils vraiment envie de manger du brocoli au goût de bacon?). Si vous voulez manger une purée au beurre en limitant l’apport calorique du beurre, ça peut aussi servir…

    Selon Sophie Boivin, le kit a été développé au début pour l’éducation et le divertissement, mais il pourrait être adapté à la perte de poids dans le futur. Pour le Los Angeles Times, cela pourrait servir à faire manger plus de légumes aux enfants.

     

  • Singularité technologique: l’avenir de l’humanité ?

    Le concept de "singularité technologique" décrit un instant qui inscrit une rupture d’échelle dans l’évolution de notre progrès technologique.

    Par Thierry Berthier.

    Le développement exponentiel des nouvelles technologies (information, nano-, quanto-, bio-…) et leur rapide convergence, réactivent les concepts profonds et anciens de transhumanisme ou posthumanisme et nous interrogent sur nos capacités d’accès à un événement essentiel que l’on nomme "Singularité Technologique"

    Qu’entend-t-on par singularité ?

    Ce terme fait clairement référence à la singularité gravitationnelle engendrée par un trou noir en cosmologie et à la notion connexe de déformation puis de discontinuité de l’espace-temps aux abords immédiats de ce trou noir.

    À compter de cette date ou de cet événement, notre croissance technologique changera brusquement d’échelle, de plusieurs ordres vers le haut, le progrès, les découvertes scientifiques seront le fruit de forces et d’énergies non humaines ou posthumaines, issues de l’intelligence artificielle (IA).

    Cette notion de singularité a été introduite au début des années 1950 par le mathématicien John Von Neumann[1] puis développée durant les années 1960 par Alan Turing[2] et Irving John Good[3]. Elle a inspiré de nombreux scientifiques comme Carl Sagan[4] et de nombreux auteurs de science-fiction durant ces trente dernières années. Elle se réactive régulièrement lors d’annonces d’innovations technologiques majeures (robotiques, biotechnologiques ou autres).

    Entre débats sérieux et projets insensés

    Aujourd’hui, cette notion de singularité alimente débats, fantasmes sectaires et projets, des plus insensés aux plus sérieux. En 2008, une Université de la Singularité a été créée en Californie par Ray Kurzweil[5] et Peter Diamantis avec le soutien massif de Google, Nokia, Cisco, Autodesk, de la NASA, et de l’administration américaine. L’esprit de cette université tient en un tweet : " Be prepared to learn how the growth of exponential and disruptive technologies will impact your industry, your company, your career, and your life ". Ses moyens financiers sont presque sans limite, à l’image de la puissance des lobbies qui agissent à l’origine de cette création…

    Deux questions principales s’imposent alors :

    1 – La singularité surviendra-t-elle un jour ?

    2 – Si oui, en sommes-nous loin, ou au contraire tout proche ?

    La première question est évidemment la plus profonde des deux. Elle se reformule, tantôt comme une prophétie positive et argumentée, tantôt comme une interrogation formelle indécidable par nature. Pour l’aborder sereinement, il faut en premier lieu évoquer une nouvelle singularité, symétrique de la première qui pourrait s’appeler " singularité d’extinction " ou régressive en termes de progrès. Elle représente l’instant potentiel à partir duquel notre civilisation effectue un bond en arrière majeur à l’échelle planétaire : ce brusque saut peut se produire par exemple à la suite d’un impact météoritique avec un géocroiseur massif (non détourné par l’homme et sa technique) de l’orbite terrestre.

    Au-delà d’une certaine masse, il est prouvé que cet impact serait totalement destructeur pour la vie humaine et animale, nous ramenant ainsi quelques millions d’années en arrière… et repoussant d’autant la date de notre seconde singularité ; le " nous " employé étant celui des bactéries ou insectes survivants. Il est illusoire de discuter d’une singularité sans évoquer sa forte dépendance à la réalisation ou non de sa symétrique. (Ceci revient d’ailleurs à ne pas oublier le septième terme dans l’équation de Drake : celui indiquant la durée de vie moyenne d’une civilisation.)

    Un argument classique pouvant être objecté ici, consiste à penser qu’au-delà d’un certain niveau de maturité technologique, les risques d’extinction de l’espèce s’éloignent, sachant que l’IA saura mettre en œuvre les contre-mesures appropriées et efficaces pour dissiper les menaces futures. Je pense qu’il s’agit plus d’un optimisme béat que d’une bienveillance naturelle du système…

    L’homme, depuis sa naissance, baigne dans "l’aléatoire sauvage" et de ce fait subit constamment l’assaut des événements rares, imprévisibles et surpuissants. Ces événements rares, imprévisibles, inédits et surpuissants sont appelés " cygnes noirs " par Nassim Nicholas Taleb[6], écrivain et philosophe des sciences du hasard (très lu par les financiers en quête de modèles nouveaux et distincts de l’obsolète standard gaussien). Une des idées phares de Taleb est que l’expérience passée n’apporte malheureusement aucune information exploitable concernant la réalisation ou non d’événements inédits a priori très peu probables mais d’impact majeur sur l’évolution du système.

    Taleb a construit et calibré sa théorie à partir de son expérience de trader des marchés financiers durant les années 1980-90 et de son enfance puis adolescence marquée par la guerre du Liban. Les crachs boursiers (celui de 1929, de 1987, puis la crise que l’on connaît aujourd’hui) sont ses premiers cygnes noirs, les conflits armés, insurrections, révoltes, attentats en sont d’autres à ses yeux, obéissant aux mêmes fluctuations du hasard. Cette vision de la force de l’aléatoire est un frein considérable à la construction de prévisions ou de prédictions fondées. Les cygnes noirs de Taleb nous mettent en garde contre toute arrogance prédictive et nous réduisent de fait aux simples techno-prophéties…

    On comprend alors que pour étudier l’éventualité de l’émergence d’une singularité technologique, il est nécessaire d’y inclure l’aléa des cygnes noirs : cette dose d’aléatoire présente à toute échelle, imprégnant chacune des strates poreuses de notre évolution technologique. C’est elle qui est à l’origine des bonds et discontinuités ou des périodes de pause constatées tout au long de notre marche vers le progrès. Enfin, c’est peut-être elle qui constituera l’amorce ou le germe de notre singularité vue à son tour comme le cygne noir essentiel de notre évolution.

    Les arguments en faveur de la singularité

    Maintenant que le paysage aléatoire est en place, il est possible " d’empiler " certains arguments en faveur de l’avènement d’une singularité technologique :

    ◾Le caractère exponentiel de l’évolution technologique est un premier indicateur d’accélération systémique : il suffit de mesurer et comparer les acquis humains à l’échelle du millénaire, du siècle, puis sur dix ans et de constater le gradient !

    ◾La convergence rapide de grands territoires de la pensée humaine : mécanique quantique, théories de l’information et de la complexité, intelligence artificielle, astrophysique, sciences cognitives, biologie, philosophie, sociologie, économie et finance. La partition initiale n’existe plus : les savoirs spécifiques circulent et se diffusent, d’un domaine vers un autre, interagissant et modifiant sans cesse les lignes de perception des thématiques classiques.

    ◾Le web en tant qu’émergence d’une structure globale issue d’une multitude d’interactions locales : Internet peut être vu comme un graphe dynamique dont les sommets sont les pages web et les arêtes, les liens html liant ces pages. Ce graphe planétaire évolue en temps réel ; à chaque instant, des pages disparaissent, d’autres sont créées, des liens apparaissent, d’autres s’effacent, des topologies se forment et se transforment à l’image d’une entité biologique et des cellules qui la composent. Le transfert massif de l’information humaine vers internet, son stockage, son traitement, sa hiérarchisation via les moteurs de recherche constituent certainement les premiers pas vers notre singularité, si elle doit avoir lieu.

    ◾La fusion homme-machine ou le concept de transhumanisme (qui a débuté dès 1958 avec le premier pacemaker implanté) modifie profondément notre rapport au corps[7]. Que ce soit dans un but de simple remplacement de l’organe malade ou dans celui d’augmentation des capacités de l’organe sain, la manipulation nous interroge sur notre propre identité : à partir de quel niveau de transformation passe-t-on du statut d’homme à celui de trans-humain ? Est-il légitime de retarder notre vieillissement et notre mort? Peut-on "s’augmenter sans se perdre?" Là encore, cette thématique renforce au premier rang le concept de singularité.

    Imaginons maintenant la convergence et l’évolution des quatre arguments que l’on vient de déployer. Nous nous situons bien sûr dans un futur qu’il n’est pas possible de préciser davantage.

    Lire la suite

  • ATTENTION: TRES IMPORTANT

    Mon blog de cuisine toulousaine va devenir

    cuisine-toulousaine.com

     

    vérifiez: vous ne devez pas ajouter les 3 w devant!

  • Barclays lance la reconnaissance par empreinte veineuse

    La banque a développé, en partenariat avec Hitachi Europe, un système de reconnaissance des individus par leurs réseaux veineux.

    Pour s'assurer une identification parfaite de ses clients, Barclays déploie les grands moyens. La banque a développé, en partenariat avec Hitachi Europe, un système de reconnaissance des individus par leurs réseaux veineux. Elle va envoyer, dès l'année prochaine, 30.000 lecteurs biométriques à ses grands comptes entreprises. Le panel sera élargi en cas de succès. Les personnes concernées pourront enregistrer leur empreinte veineuse, en scannant le bout de leur doigt. L'appareil enregistre alors les réseaux des veines, qui ne seront altérés ni par la vieillesse ni par la maladie.

    Lutter contre la fraude

    L'opération a des qualités. La première est de lutter contre la fraude, qui a fait perdre plus de 5 milliards de livres aux banques britanniques l'année dernière. Le système contentera aussi les clients pressés ou oublieux: inutile désormais de se rappeler des codes secrets fastidieux, le simple scan d'un doigt permettra d'accéder à ses comptes ou de passer une transaction. La technique devrait aussi décourager les malfrats de couper des doigts. "Contrairement aux empreintes digitales, le réseau veineux est très difficile à imiter et à répliquer. Le doigt scanné doit être attaché à un être humain vivant pour que les veines soient authentifiées", a en effet expliqué au Guardian un représentant de la banque.

    En Pologne, 2000 distributeurs automatiques qui promettent "du cash au bout de votre doigt" sont déjà équipés d'un tel système. L'introduction de ces lecteurs fera gagner du temps et de l'argent à Barclays. Elle réjouira certains de ses clients férus de technologie. Certains y opposeront peut-être des principes de protection de la vie privée. Quoique le consentement général à être fiché semble bien installé.

     

     

  • Changement climatique? Finalement c’est bien le Soleil…

     

    De nouvelles recherches sur le climat tendraient à minorer le rôle de l’homme dans le réchauffement de la planète.

    Par jacques Henry.

    Réchauffement climatique (Crédits : René Le Honzec/Contrepoints.org, licence Creative Commons)Voilà enfin avancée une preuve irréfutable que c’est bien le Soleil qui commande les fluctuations climatiques que connait la Terre, et non l’activité humaine. Il était temps que des universitaires démontent le mythe du réchauffement climatique anthropogénique inspiré par les pseudo-scientifiques irresponsables du GIEC, cette émanation des Nations-Unies, organisation dont on peut de plus en plus douter de l’utilité. Car, tout de même, que fait cette organisation à propos des événements regrettables du moment, Irak, Israël, Ukraine, Somalie ou encore Nigeria ? Rien, sinon financer des apprentis climatologistes qui répandent l’heuristique de la peur, des idéologues qui veulent que le monde d’hier devienne la réalité de demain (un propos emprunté à Michel Onfray à propos de Hans Jonas).

    Du nouveau sur le réchauffement climatique

    Bref, toute cette entrée en matière pour dire que cet article paru dans Nature risque de faire grand bruit parce qu’il remet en cause les théories extravagantes clamées à grands coups de prix Nobel (Al Gore et le GIEC) et de déclarations tonitruantes des ONG du genre Greenpeace et autres WWF ou Sierra Club pour répandre la peur planétaire d’un hypothétique réchauffement climatique.

    Je m’explique: quand le soleil fait une petite sieste, comme par exemple entre deux cycles d’activité, celle-ci dure environ 11 ans. Le flux des particules émises par le soleil en direction de la Terre diminue d’intensité et donc le champ magnétique terrestre protège moins bien l’atmosphère des rayons cosmiques galactiques. Tout cela à cause des hautes couches de l’atmosphère alors moins ionisées. C’est un peu vite dit, mais c’est à peu près comme ça que les choses se passent. Les rayons cosmiques pénètrent alors mieux dans les profondeurs de l’atmosphère et vont bombarder des atomes d’oxygène ou d’azote pour former un isotope du béryllium, le Be-10, qui se désintègre en bore avec une période de demi-vie de 1,38 million d’années. C’est ultra-pratique pour reconstituer l’activité solaire passée, puisque plus il y a de Be-10, moins le Soleil était actif. On peut dès lors reconstituer les variations d’activité du Soleil sur de longues périodes passées. Même chose pour le carbone-14, radioactif aussi, qui se forme également dans l’atmosphère naturellement par bombardement des atomes d’azote par les rayons cosmiques. Ce carbone se retrouve dans les arbres et les carbonates comme ceux des stalagmites.

    Il y a enfin un autre " proxy " pour étudier les variations de l’activité solaire qui dépend cette fois de la température : c’est l’abondance relative de l’isotope naturel 18 de l’oxygène, non radioactif, qui est 12,5% plus lourd que l’isotope du même oxygène le plus abondant, l’oxygène-16. Quand l’eau des océans s’évapore sous l’action du Soleil, celle constituée d’oxygène-18 s’évapore moins vite parce que plus lourde et la différence de teneur entre ces deux isotopes dans les stalagmites, par exemple, permet de reconstituer l’activité solaire passée.

     Henry1.png

     

     

     

     

     

    L’activité solaire de ces vingt mille années passées

    C’est ce qu’a fait avec des précautions extrêmes une équipe de géophysiciens de l’Université de Lund en Suède en rapprochant les trois observations, béryllium-10, carbone-14 et oxygène-18. Ils ont ainsi reconstitué l’activité solaire au cours des vingt mille années passées, analysé les données obtenues avec le carottage de la glace du Groenland, et rapproché ces dernières des analyses de concrétions calcaires provenant d’une grotte chinoise. Les résultats ont permis d’établir une parfaite corrélation entre l’activité solaire et les subtiles variations climatiques observées et révélées par l’analyse fine des carottes glaciaires permettant de remonter aux variations climatiques se matérialisant par les précipitations neigeuses et leur abondance.

     

     

     henry2.png

     

     

     

    Durant la période glaciaire dite du Würm, s’étalant entre 26000 et 13000 ans avant notre ère, le climat ne fut pas toujours très très froid. Il y eut des épisodes relativement plus chauds, et l’activité solaire y est directement pour quelque chose. L’étude dirigée par le Professeur Raimund Muscheler a permis de préciser ce qui pouvait se passer au niveau atmosphérique pour expliquer l’abondance des chutes de neige au Groenland durant cette période. Au Groenland, mais pas seulement. Toute la région euro-américaine de l’hémisphère nord sous l’influence de l’océan Atlantique également, lui-même, on peut le comprendre aisément, sous l’influence de l’activité solaire et de ses variations cycliques, en particulier le cycle dit de " de Vries " d’une durée moyenne de 207 ans.

    Il a été ainsi possible d’aboutir à une modélisation de ce qui a pu se passer au niveau de l’Océan Atlantique pour influer sur l’intensité des chutes de neige au Groenland avec la persistance d’un anticyclone situé au-dessus du pays : un régime de vents d’ouest dominants pénétrant l’Afrique et apportant de l’humidité depuis l’océan, (le Sahara à l’époque était une vaste prairie), et un vent froid arrivant sur l’Europe du Nord favorisant le maintien de véritables calottes glaciaires en Scandinavie atteignant le nord de l’Allemagne. L’Écosse était recouverte d’un immense glacier.

    L’épisode glaciaire du Würm vit le niveau des océans baisser de plus de 130 mètres, ce qui facilita les migrations humaines d’Asie vers l’Amérique du Nord. Cet événement s’explique parfaitement par les variations de l’activité solaire dont on ignore toujours les raisons sur le long terme mise à part l’hypothèse d’un effet de marée de Jupiter et de Saturne sur l’activité solaire interne.

    En effet, une année jupitérienne dure 11 ans. Tous les 200 ans environ, Jupiter et Saturne se trouvent alignés par rapport au Soleil, curieuse coïncidence avec la durée du cycle de De Vries, peut-être bien pas si fortuite que ça. Cette direction d’investigation ne fait pas partie de cet article paru dans Nature – et aimablement communiqué par le principal auteur de l’étude – mais elle peut constituer matière à de plus amples investigations de la part des géophysiciens et des spécialistes de la dynamique interne du Soleil.

    Tout cela est naturellement très complexe mais à n’en pas douter, un jour ou l’autre, peut-être très prochainement, on comprendra qu’en définitive c’est le Soleil avec ses planètes massives qui commande le climat de la Terre et non la ridicule activité humaine en regard de l’immense énergie qui nous parvient depuis cette étoile paradoxalement vivante et parfois capricieuse…

    Sources : Nature, article aimablement communiqué par le Docteur Raimund Muscheler que je tiens à remercier ici.