Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

- Page 2

  • Météo 2015

    Année de 13 lunes encore: temps très humide toute l'année 2015

    Janvier: pluvieux, très humide sur toute la France

    Février: mauvais temps général (voir ci-dessus); léger mieux bord Méditerranée (moins de pluie)

    Mars: même temps très humide partout, mieux sur bord Méditerranée et Ouest (Bretagne) + Nord de la France

    Avril: mauvais temps général, vent fort dans beaucoup de régions bord de mer

    Mai: pluvieux à très humide un peu partout sauf sur toutes les cotes, surtout atlantiques et méditerranéennes

  • La nutrigénétique, avenir de la nutrition

    Qu'est-ce que la nutrigénétique ? Une discipline naissante mais prometteuse qui pourrait bien un jour amener à reconsidérer les recommandations alimentaires pour les adapter au mieux aux besoins de chacun de nous.

    Comment faire pour rester en bonne santé?

    Règle numéro 1: adopter une alimentation équilibrée. Surveiller ses apports en vitamines et minéraux pour éviter les carences et être sûr de ne pas manquer de nutriments essentiels au bon fonctionnement de son organisme.

    La naissance de la médecine prédictive

    La nutrigénétique est issue de ce qu’on appelle la médecine préventive, un concept édicté par le prix Nobel de médecine Jean Dausset en 1980 : " Depuis des siècles, la médecine a essayé de traiter et aujourd'hui son but ultime est de prévenir plutôt que de guérir. Mais pour prévenir, il est nécessaire de prédire ; c'est pourquoi la médecine prédictive, première étape de la médecine préventive, est née ".

    Problème: l’alimentation optimale n’est pas la même pour tout le monde. Le régime alimentaire qui convient à votre voisin n’est pas forcément adapté à votre organisme. Parce que nous n’avons pas tous le même profil génétique, nous n’avons pas tous le même métabolisme ni les mêmes besoins alimentaires. Tel est le principe de la nutrigénétique. LaNutrition.fr vous fait découvrir cette spécialité innovante et vous présente trois maladies que la nutrigénétique peut contribuer à prévenir : les maladies cardiovasculaires, l’ostéoporose et l’hypercholestérolémie.

    Prévenir pour mieux guérir

    " Nous sommes tous le résultat d’interactions entre gènes et environnement, explique le docteur Helena Baranova, organisatrice en France du premier diplôme inter-universitaire de Médecine Prédictive. Le but est d’adapter au mieux l’environnement de chacun aux susceptibilités génétiques qu’il y a derrière ". Ça tombe bien : le programme international de séquençage du génome humain s’est achevé avec succès en 2003 et a permis d’identifier près de 30 000 gènes. " En connaissant votre profil génétique, vous pouvez découvrir les particularité métaboliques de votre organisme et adapter votre environnement et donc votre alimentation en conséquence, explique la spécialiste. C’est de la prévention intelligente ".

    Balayer les idées reçues

    La génétique représente un outil extraordinaire dans le concept de prévention personnalisée, à condition de l’appréhender correctement. " Il est indispensable de différencier la génétique utilisée dans le cadre de la médecine prédictive des idées reçues que les gens ont sur cette discipline ", souligne le docteur Baranova. Selon la chercheuse les analyses génétiques sont souvent synonymes de maladie dans l’esprit du public. " Il faut absolument distinguer la logique des maladies monogéniques de celle de la prévention personnalisée. " Une maladie monogénique est une maladie liée à un seul gène. C’est par exemple le cas de la mucoviscidose : si vous êtes porteurs des deux copies du gène de cette maladie, alors vous serez forcément atteint de mucoviscidose. " Mais en prévention l’approche est totalement différente. Pour commencer on ne travaille pas sur des gènes isolés mais sur des combinaisons de gènes dont il faut systématiquement analyser les interactions. Par ailleurs nous travaillons sur des maladies induites par l’environnement, ce qui explique qu’on ne parle pas de risque absolu ou de diagnostic. On parle plutôt de tests prédictifs et de risque relatifs donc toujours modulable. D’ailleurs en consultation nous essayons de bannir les termes de "risque" et de "prédisposition" que les patients peuvent trop facilement percevoir comme une fatalité“.

    Cet outil génétique est indissociable d’une analyse du mode de vie du patient et de son environnement. "D’ailleurs le fait de détecter un gène de sensibilité à une maladie chez un patient ne veut absolument pas dire que ce dernier va développer la maladie", précise la spécialiste. Ça signifie juste que c’est une possibilité, mais si on en tient compte dans une prise en charge personnalisée et globale, on peut adapter l’environnement de façon à éviter parfois que cette maladie ne se déclare".

     

  • Sommes-nous tous des extraterrestres ?

    L’Univers date de 13 milliards d’années, le système solaire ne date « que » de 5 milliards d’années environ. En 8 milliards d’années, il a pu se passer bien des choses, pourquoi pas la vie ?

    Par Jacques Henry.

    Il s’agit d’une réflexion vers laquelle je suis souvent revenu personnellement depuis ces longues conversations inoubliables avec Francis Crick (Prix Nobel de Médecine 1962) qui pensait que la panspermie devait être une hypothèse à ne pas écarter dans le cadre d’une approche globale de la biologie avec pour principale préoccupation l’explication de l’apparition de la vie. En effet, si on observe non pas l’Univers mais simplement notre petite planète bleue, la seule explication plausible à la présence d’éléments chimiques « lourds » comme le silicium ou encore le fer et jusqu’à l’uranium sur la Terre est que le système solaire est le résultat de l’explosion d’une super-nova, c’est-à-dire une étoile qui existait avant le Soleil. Ce dernier ne serait qu’un vestige entouré de matière disparate constituée de quelques concrétions significatives comme les planètes, d’une nuée de « poussières » constituant la ceinture de Kuiper et du nuage de Oort qui s’étend jusqu’à presque la moitié de la distance séparant le Soleil de son plus proche voisin, Alpha du Centaure.

    Puisque l’Univers date de 13 milliards d’années selon la théorie du Big Bang, et que le système solaire ne date « que » de 5 milliards d’années environ, en 8 milliards d’années, il a pu se passer bien des choses autour de l’étoile qui finit par exploser en emportant tout sur le passage de l’onde de choc provoquée par cette explosion et en donnant naissance au système solaire. En écrivant ce texte, je suis assis sur un balcon orienté plein sud et je vois Sirius, la deuxième étoile la plus proche du Soleil après Alpha du Centaure, s’élever lentement à l’est. Entre ces trois étoiles, le vide, rien que le vide et un intense trafic de particules venues de nulle part et allant également nulle part.

    Rien ne permet d’exclure que l’étoile qui donna naissance au système solaire en explosant n’ait pas aussi été entourée d’une ou plusieurs planètes favorables à l’apparition de la vie. En 8 milliards d’années, il s’est en effet passé beaucoup de choses, je le répète. Comme la vie telle que nous la connaissons sur notre planète Terre repose sur un pilier incontournable, à notre échelle et selon nos observations, à savoir la présence d’acides nucléiques, ADN ou ARN, le support génétique de la vie, comment ne pas exclure sinon prouver que l’ADN de formes de vie précédant la vie sur la Terre depuis plusieurs milliards d’années ait pu être capable d’ensemencer notre planète pour qu’une nouvelle vie y apparaisse ? Parce qu’après tout, quand cette étoile explosa et volatilisa ses planètes éventuellement porteuses de vie, rien ne prouve que des fragments de ces dernières n’aient pas été soufflés par l’explosion en emportant avec eux des traces de vie.

    Cette hypothèse de la panspermie n’est pas du tout invraisemblable. Cependant l’ADN n’est pas une molécule très résistante aux conditions extrêmes de températures et de radiations mais on peut imaginer que la vie sur Terre soit « réapparue » en un peu plus d’un milliard d’années à partir de fragments d’ADN ayant échappé à l’anéantissement et se retrouvant sur la Terre dans la « bouillie primordiale » (expérience de Miller-Urey, 1952) pour catalyser une nouvelle apparition de la vie.

     L’une des missions de la sonde Rosetta n’est-elle pas de tenter de retrouver des molécules chimiques complexes dont la structure ne peut pas être expliquée autrement que comme les restes de formes de vie ? Par exemple, on trouve dans le pétrole des hydrocarbures cycliques complexes qui proviennent des pigments impliqués dans la photosynthèse. L’ensemencement de la Terre par de l’ADN aurait donc pu subvenir par les retombées de fragments solides après que notre planète se fut suffisamment refroidie pour devenir compatible avec la vie, soit un bon milliard d’années après la constitution du système solaire sur les restes de l’explosion de la supernova ancestrale. Encore fallait-il que cet ADN ait résisté à ces évènements extrêmes…

     

    C’est de manière tout à fait inattendue qu’une équipe de chercheurs de l’Université de Zürich, en collaboration avec diverses équipes universitaires allemandes a apporté une petite vraisemblance à la panspermie dont était adepte Francis Crick et dont je viens de décrire le processus qui est d’ailleurs valable aussi pour la planète Mars. Il s’est agi de profiter de fusées-sondes encore utilisées pour de nombreuses études de la haute atmosphère jusqu’à des altitudes de 250 kilomètres. Lors de l’ascension et de la retombée vers le sol, le bouclier protégeant les instruments de mesure embarqués s’échauffe par friction avec les gaz constituant l’atmosphère, un genre de simulation de l’entrée dans les hautes couches de l’atmosphère des météorites, à la seule différence près que la vitesse d’entrée des météorites est de l’ordre de 20 km par seconde alors qu’une fusée sonde atteint au mieux une vitesse de l’ordre de 1 km par seconde, mais l’expérience de résistance de l’ADN dans ces conditions valait tout de même le coup d’être tentée. À divers endroits de l’ogive de protection de la fusée de l’ADN a été badigeonné et après récupération de la fusée, cet ADN a été soigneusement prélevé et analysé. Il s’agissait d’un petit morceau d’ADN circulaire appelé dans le jargon scientifique un plasmide codant pour deux informations facilement détectables expérimentalement, une résistance à la kanamycine, un antibiotique communément trouvé dans le sol, donc en fait le gène de l’enzyme capable de détruire la kanamycine, et le gène d’une protéine fluorescente. Le plasmide présentant la propriété de pouvoir pénétrer à l’intérieur d’une cellule vivante, le test d’intégrité de l’ADN après sa promenade dans les hautes couches de l’atmosphère et son retour vers le sol fut donc facilement obtenu.

    Cette expérience assez simple décrite dans PlosOne en libre accès a montré que l’ADN était remarquablement résistant alors que, dans des conditions similaires, des bactéries sous forme de spores ne résistaient pas à un tel traitement. L’endroit le plus propice pour retrouver jusqu’à 60 % d’ADN fonctionnel était l’anfractuosité des boulons reliant l’ogive de protection au corps de la fusée. Quand on a vu l’aspect de la comète Churyumov-Gerasimenko révélée par la sonde Rosetta, on peut sans hésitation imaginer que de l’ADN provenant de formes vivantes (hypothétiques) ayant existé avant l’explosion de la supernova qui donna naissance au Soleil ait pu subsister dans un recoin de cette comète depuis plus de 5 milliards d’années…

    Finalement nous sommes peut-être tous des descendants d’extraterrestres n’en déplaise aux créationnistes.

    Contrepoint.org

  • Connectez tout: et, en plus, sont toulousains!

    SIGFOX

    SIGFOX fournit une solution de connectivité cellulaire unique, des dispositifs des clients à leurs applications logicielles

    Le réseau SIGFOX, hautement extensible, est construit pour un grand nombre d'appareils. Il établit des communications bidirectionnelles avec vos périphériques et est étonnamment facile à intégrer aux applications logicielles.

    SIGFOX utilise UNB (Ultra Narrow Band) basé sur une technologie radio pour connecter des périphériques à son réseau mondial. L'utilisation de l'UNB est essentielle à la fourniture d'un réseau de haute capacité, évolutif, à très faible consommation énergétique, tout en conservant une infrastructure cellulaire simple et facile au déploiement sous forme d’étoile.

    Le réseau fonctionne dans les bandes ISM disponibles mondialement (bandes de fréquences sans licence) et coexistent sur ces fréquences avec d'autres technologies radio, mais sans aucun risque de collision ou de problèmes de capacité. SIGFOX utilise actuellement la bande européenne ISL la plus populaire sur 868MHz (telle que définie par l'ETSI et CEPT) ainsi que la 902 MHz aux USA (telle que définie par la FCC), en fonction des réglementations régionales spécifiques.

    La communication sur SIGFOX est sécurisée à bien des égards, y compris la protection anti-rejeu, message de brouillage, séquençage, etc. Cependant, l'aspect le plus important de la sécurité de transmission est le fait que seuls les fournisseurs de périphérique comprennent les données échangées entre le périphérique et les systèmes informatiques. SIGFOX agit seulement comme un canal de transport, poussant les données vers le système informatique du client.

    Un avantage important fourni par l'utilisation de la technologie à bande étroite est la flexibilité liée au choix de l'antenne. À l’extrémité de l'infrastructure de réseau, il permet l'utilisation de petites antennes simples, mais il permet surtout aux appareils d'utiliser des antennes peu coûteuses et faciles à personnaliser.

    Le protocole SIGFOX est compatible avec les émetteurs-récepteurs existants et activement transféré vers un nombre de plateformes techniques.

    DOCUMENTATION

    http://www.sigfox.com/fr/#!/technology

    SIGFOX

    Siège social 425 rue Jean Rostand, 31670 Labège

  • Mieux comprendre le pergélisol

    Projet international sur le pergélisol

    Le responsable du projet, Florent Dominé, lors d'une visite à l'île Bylot en mai 2014. Cette île est l'un des sites qui seront étudiés par les chercheurs.

     Au cours des trois prochaines années, une équipe regroupant des chercheurs de France et du Québec étudiera en profondeur le dégel du pergélisol dans les régions arctiques du Canada. Pilotée par Florent Dominé, chercheur à l'Unité mixte internationale Takuvik et professeur au Département de chimie, cette importante recherche mettra à contribution 8 équipes du CNRS, de l'Université Laval, de l'INRS, de l'Université de Sherbrooke, de l'UQTR et de l'Université McGill. La Fondation BNP Paribas a profité du lancement officiel du projet, qui a eu lieu le 3 décembre sur le campus, pour annoncer un appui financier de 800 000$ à ce consortium franco-canadien.

    Le pergélisol est la couche de sol gelé en permanence dans les régions froides. Son épaisseur fluctue au fil du temps en fonction de plusieurs facteurs environnementaux, notamment la température de l'air et la couverture de neige qui forme une couche isolante limitant le refroidissement hivernal du pergélisol. "L'épaisseur du pergélisol peut aller de quelques mètres à plus d'un kilomètre, signale Florent Dominé. À Alert, au Nunavut, elle atteint 1500 mètres".

     Ce milieu est un important puits de carbone: environ 1 600 milliards de tonnes y seraient séquestrées, soit deux fois plus que ce que l'on trouve présentement dans l'atmosphère. Le dégel du pergélisol, induit par le réchauffement climatique, risque de créer une spirale inflationniste de la température. En effet, lorsque le pergélisol dégèle, le carbone qu'il contient peut se transformer en CO2 et en méthane et être libéré dans l'atmosphère, accentuant ainsi l'effet de serre. Par ailleurs, selon les modèles climatiques, le réchauffement du climat s'accompagnera d'une hausse des chutes de neige dans l'Arctique. Ajoutez à ça un couvert végétal plus abondant qui retient mieux la neige et isole davantage le sol, et les conditions sont réunies pour accentuer le dégel du pergélisol et le réchauffement climatique.

    Afin de mieux comprendre le phénomène, les chercheurs vont étudier trois sites du Nord canadien où le Centre d'études nordiques a des installations. Ils sont situés à Umiujaq et à Kuujjuarapik, au Nunavik, et à l'île Bylot, au Nunavut. Les données recueillies serviront à documenter les échanges thermiques entre le sol et l'air afin de modéliser le profil vertical de température du pergélisol et à estimer la quantité de CO2 libérée dans l'atmosphère. Le consortium a tenu une première réunion de travail à la fin novembre et les travaux sur le terrain commenceront en mars prochain.

    Comme le dégel du pergélisol a des répercussions sur les communautés inuites, les chercheurs maintiendront un contact étroit avec les populations locales. "Nous allons leur expliquer ce que nous faisons, nous allons leur communiquer les résultats de nos travaux et nous voulons les faire participer à la récolte des données", souligne Florent Dominé. En effet, il est prévu que certaines écoles inuites seront équipées d'outils pour mesurer la température du sol et la densité de la neige. Par ailleurs, le consortium développera un site Web qui permettra aux élèves de partager des données et de s'informer sur l'adaptation aux changements climatiques.

     

  • Sommes-nous prêts pour la révolution technologique à venir?

    2030, l’Horizon 

    Par Thierry Berthier. Contrepoints.org

    Les futurs probables selon le National Intelligence Council

    Il y a tout juste deux ans paraissait Global Trends 2030 : Alternative Worlds, un rapport très attendu de 160 pages rédigé et publié par le National Intelligence Council. Formé en 1979, le National Intelligence Council est une agence de renseignement qui produit des analyses stratégiques à moyen et long terme destinées à la communauté du renseignement américain. Les prévisions, avis et préconisations émis par le NIC sont à la fois attendus et entendus par le Pentagone et par la Maison Blanche. Les études publiées cherchent à dégager les grandes tendances à quinze ans et les évolutions technologiques à fort impact, ce qui constitue par définition un exercice difficile et nécessaire. Le but du rapport n’est pas tant de prédire l’avenir mais de fournir un cadre de réflexion sur les futurs possibles et leurs conséquences sur les équilibres humains. S’il fallait résumer l’idée dominante de ce rapport en une phrase, on pourrait dire que le monde de 2030 sera radicalement différent de celui dans lequel nous évoluons aujourd’hui. Parmi les hypothèses à forte probabilité du rapport paru en décembre 2012 figurent notamment :

    – La fin de la domination mondiale américaine.

    – La montée en puissance des individus ou groupes d’individus contre les États.

    – L’émergence d’une classe moyenne mondiale qui n’hésite pas à contester les gouvernements.

    – Des pénuries chroniques en eau, en nourriture et en énergie ; les effets toujours plus violents du changement climatique.

    La tendance la plus radicale selon le rapport Global Trends 2030 concerne la modification et l’augmentation des capacités humaines par la technologie et l’évolution transhumaniste disruptive qui viendra bouleverser les grilles d’analyse usuelles. Rappelons encore une fois que ces prévisions ne sont pas le fruit d’un collectif d’auteurs de science-fiction ou de scientifiques iconoclastes se laissant aller à des divagations jubilatoires mais qu’elles proviennent d’une structure académique d’analyse et de renseignement sérieuse et respectée…

    Ce que nous dit le rapport Global Trends 2030 sur la technologie

    Comme on peut s’y attendre, le rapport insiste sur le déferlement hautement probable des implants, prothèses et exosquelettes motorisés qui se généraliseront à toutes les sphères d’activités humaines en devenant des extensions « banales » et pertinentes de notre corps. En très peu de temps, les capacités humaines pourraient évoluer de manière spectaculaire et modifier les équilibres actuels.

    Les prothèses pourraient devenir plus performantes que les membres et organes biologiques « d’origine ». Des pans entiers du handicap pourraient trouver des réponses fonctionnelles efficaces et acceptables. Les armées s’appuieront sur des exosquelettes pour équiper le combattant et augmenter ses capacités opérationnelles (déplacement en zone de combat, port de charges lourdes, vision diurne et nocturne, aide au tir,…). La mise au point de psychostimulants de nouvelle génération permettra au soldat de rester actif plus longtemps et lui donnera une acuité renforcée. Les stimulants amélioreront ses réactions et ses réflexes dans un contexte ultime de combat.

    Ces technologies seront d’ailleurs déclinées dans leurs versions civiles pour lutter contre le vieillissement et prolonger la vie. Les implants cérébraux font l’objet de prévisions claires et précises. Les interfaces « neuro-cloud » viendront combler les déséquilibres d’information et de calcul existant entre le cerveau humain et les systèmes cybernétiques. Ces neurotechnologies pourraient accroître de manière disruptive certaines capacités humaines et faire émerger de nouvelles fonctionnalités biologiques. L’œil et la vision humaine profiteront de ces augmentations.

    Des implants rétiniens permettront une vision nocturne et donneront accès aux spectres de lumières inaccessibles chez l’homme de 2014. Les progrès réalisés sur la chimie des neurostimulants augmenteront nos capacités de mémorisation, d’attention, de vitesse de réaction et de réalisation.

    Les systèmes de réalité augmentée devraient améliorer notre compréhension des phénomènes complexes réels. La simulation numérique généralisée ouvrira de nouvelles fenêtres sur le monde. Les progrès de l’intelligence artificielle seront immédiatement intégrés aux développements de la robotique. Les avatars et robots fourniront des données inédites liées au toucher, à l’odorat. Ils bénéficieront d’une plus grande autonomie et d’une IA embarquée conséquente.

    Le rapport nous alerte également sur les risques associés au progrès disruptif et au changement de paradigme qu’il devrait induire. D’après le groupe d’analystes, bon nombre de ces technologies d’augmentation ne seront disponibles que pour ceux qui seront en mesure de les payer.

    Ces déséquilibres d’accès à l’amélioration pourraient être à l’origine de violentes turbulences, et de conflits si rien n’est mis en place pour réguler et encadrer les technologies impliquées.

    Le risque principal résulte d’une société clivée, à deux niveaux formée d’une part des individus ayant accès aux technologies d’augmentation et profitant pleinement des améliorations et d’autre part, des laissés pour compte technologiques, non augmentés pour lesquels l’écart des capacités se creuse à mesure que le progrès avance. Cette asymétrie n’est pas tenable et nécessitera probablement une stricte surveillance des gouvernements et une régulation méthodique des technologies d’augmentation. La convergence NBIC (Nanotechnologies, Biotechnologies, Informatique, sciences Cognitives) devrait induire des progrès scientifiques collatéraux importants comme ceux du stockage de l’énergie avec des batteries longue durée, ceux de l’interfaçage biologique – silicium, ou encore ceux de l’électronique biocompatible flexible.

    Notons sur ce point que les premiers succès de l’électronique moléculaire viennent d’être enregistrés  en cette fin d’année 2014, confirmant ainsi certaines prévisions à court terme du rapport…

    Prévoir, Préparer, Prévenir

    On ne doit pas douter une seconde de l’utilité d’un tel rapport lorsqu’il s’agit de prévoir les changements disruptifs, de préparer les gouvernants et les décideurs aux impacts d’une technologie exponentielle et de prévenir les futures crises liées à ces changements violents.

    Les États-Unis qui produisent aujourd’hui l’essentiel de l’innovation technologique mondiale ont parfaitement compris l’intérêt stratégique d’une réflexion à toute échelle portant sur les évolutions NBIC et les risques associés. Des instituts de recherche intégrant des équipes de chercheurs en éthique contribuent régulièrement à la réflexion stratégique nationale.

    La Grande Bretagne dispose du « Future of Humanity Institute (FHI) », composante de l’Université d’Oxford, qui mène une réflexion de qualité sur la convergence NBIC et ses effets sur l’humanité.

    Le positionnement du FHI est assez proche de celui de l’Université de la Singularité (SU) créée par Google, Cisco, la Nasa, et de nombreux grands acteurs du numérique américain.

    La Chine est également très engagée dans l’innovation NBIC et en mesure pleinement son potentiel en tant qu’outil de puissance. Les transgressions génétiques ne semblent pas rencontrer d’obstacle ou de réticence particulière dans la population chinoise qui adhère massivement au progrès technologique sous toutes ses formes.

    Le temps des questions...

    ◾La France est-t-elle prête à relever les défis technologiques majeurs des quinze prochaines années?

    ◾Existe-t-il, au sein de la sphère politique nationale, une réflexion stratégique globale à quinze ans, ouverte et suivie, intégrant le facteur technologique?

    ◾Avons-nous commandé un rapport s’inscrivant dans le même esprit que celui du NIC?

    ◾Disposons-nous sur le territoire national d’un institut de recherche similaire au FHI ou à la SU

    ◾Comment allons-nous accueillir le train express des innovations technologiques et son wagon de transgressions éthiques?

    ◾Serons-nous passagers actifs de ce train du progrès ou simple spectateur immobile sur le quai, figé par des postures anachroniques et par des dogmes d’un autre siècle?

    ◾Allons-nous enfin adapter nos structures éducatives aux réalités d’une révolution technologique exponentielle qui bouleverse l’ensemble des équilibres?

    ◾En 2030, nos enfants et petits-enfants auront-ils encore la possibilité de demander des comptes à ceux qui auront été à l’origine du déclin français amorcé au début de ce siècle?

    ◾Souhaitons-nous réorienter la France vers un destin technologique afin qu’elle puisse compter dans la compétition mondiale?

    ◾En avons-nous l’envie et les moyens?

    Ces dix questions n’ont pas vocation à provoquer ou à froisser la sensibilité du lecteur. Elles appellent toutes à des réponses individuelles issues d’une introspection minimale. Elles mériteraient d’être posées sans détour par le citoyen lors des prochaines échéances électorales nationales. Le politique n’aura pas le choix, il devra se saisir de la question technologique pour l’intégrer pleinement à son programme. Orienter la nation vers son destin technologique peut constituer l’objectif principal d’un gouvernement. Cela sous-entend de l’abnégation, du courage politique, une volonté déconnectée de toute arrière-pensée de réélection, bref «de la sueur, du sang et des larmes » selon les mots de Winston Churchill en 1943. Les grands hubs technologiques sont tous nés de volontés humaines et de concordances d’efforts exercés dans la même direction, celle de l’innovation et de la rupture technologique.

    La première conférence internationale Transvision 2014 « le Transhumanisme face à la question sociale » a été organisée à Paris, Espace des Sciences Pierre-Gilles de Gennes – ESPCI les 20,21 et 22 novembre 2014. Ce colloque a rassemblé des acteurs majeurs du mouvement transhumaniste international ainsi que des contradicteurs et pourfendeurs de la pensée H+. Les contributions des transhumanistes américains ont fait preuve d’une vraie différence d’approche sur les enjeux de l’augmentation par rapport à celle des intervenants français. Les grandes figures du mouvement H+ ont affiché un optimisme appuyé et une tendance marquée à un « solutionnisme » qui occulte assez facilement les risques collatéraux. Le transhumanisme questionné sous l’angle social constituait certainement la meilleure approche pour une première conférence organisée sur le sol français. Les échanges ont été fructueux et constructifs. Il reste maintenant à poursuivre cette réflexion dans un cadre académique et selon un programme de recherche structuré.

    Liens

    Le rapport complet Global Trends 2030

    Le NIC selon Wikipédia