Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science/Tech

  • L'effet nocebo, conséquence étonnante de l'affaire du Levothyrox

    L’explosion de plaintes contre le Levothyrox met au jour l'effet nocebo dont l’explication se trouve au fond du cerveau humain.

    Dans l'affaire du Levothyrox, sur 3 millions de malades, 62 ont saisi la justice. Mais 9.000 ont signalé crampes, maux de tête ou pertes de cheveux depuis l'arrivée de la nouvelle formule, fin mars. Etrangement, les cas ont explosé cet été, à la suite de la médiatisation de l'affaire. Selon certains spécialistes, une ­partie d'entre eux relèverait d'un effet nocebo ("je nuirai", en latin). L'effet nocebo? C'est le versant négatif du placebo, "son diable", résume le psychiatre Patrick ­Lemoine*. Le mécanisme est identique: c'est l'effet induit par la prise d'un médicament, qui n'est pas lié à son action pharmacologique mais provoque des symptômes réels et nocifs. La crainte du malade, nourrie par son expérience, sa croyance dans le discours du médecin, du voisin ou des médias, modifie l'activité du traitement. "Les réseaux sociaux amplifient la suspicion. Mais en général, l'expression du nocebo décroît dans le temps", relève Jean-François Bergmann, chef du département de médecine interne à l'hôpital Lariboisière, à Paris. A Hongkong, l'anorexie a explosé dans les années 1990 après la médiatisation de cette pathologie, invisible jusqu'alors.

    L'effet nocebo se perçoit au quotidien. Scruter la liste d'effets secondaires sur la notice d'un médicament peut suffire à déclencher un symptôme ; c'est aussi l'effet "blouse blanche", qui fait bondir la pression artérielle dans le cabinet du médecin. Des chercheurs anglais l'ont montré dans une étude sur les statines, menée sur cinq ans et 10.180 patients, parue en mai dans The Lancet. Ils se sont penchés sur les douleurs musculaires perçues comme des effets secondaires de cet anticholestérol controversé. Lorsque les patients ignorent le traitement qu'ils reçoivent (atorvastatine ou placebo), ils affichent le même taux de douleurs. Mais lorsqu'ils se savent sous statine, la présence de symptômes est supérieure de 41% à ceux du groupe placebo! La seule crainte d'éprouver des effets indésirables peut provoquer l'augmentation des douleurs, conclut l'équipe.

    François Gueyffier, du service de pharmacologie clinique des Hospices civils de Lyon, cite l'exemple de l'IEC, un traitement de l'hypertension: "Chez 5% des patients, ce traitement entraîne une toux assez ­sévère. Or, si l'on mène une étude visant à identifier spécifiquement combien de patients sont sujets à cette toux, ils seront 20 à 30% à s'en plaindre." A Lariboisière, Jean-François Bergmann évoque le cas du traitement de la sclérose en plaques. Une injection régulière d'interféron peut entraîner un syndrome proche de la grippe (fièvre, frissons). Lors d'une étude, la moitié de ses patients ont reçu le médicament, l'autre du sérum physiologique. "Or 23% de ceux-ci ont quand même décrit des symptômes grippaux. Parce que la notice d'information de l'essai indiquait que l'interféron génère ces symptômes."

    "Une information éclairée, avec un éclairage tamisé"

    Ce ne sont pas des malades imaginaires. "C'est toute la puissance du cerveau", insiste François Gueyffier. L'effet nocebo est notamment lié à la sécrétion de dopamine et d'opioïdes qui influent sur la perception de la douleur. "Le nocebo, c'est un médicament qu'on fabrique soi-même, avec ses effets secondaires", résume le psychiatre Patrick Lemoine. "Si je vous prescris de l'aspirine en vous alertant sur le fait que cela peut perforer l'estomac, votre organisme est en alerte et fabrique du cortisol. Or cet excès de cortisol, lié à votre peur, peut perforer votre estomac."

    La qualité de l'information délivrée au malade se révèle cruciale. "Etre exhaustif sur les effets indésirables, c'est terrorisant. Si on ne l'est pas, on nous accuse de cacher des choses. C'est un peu insoluble", ajoute Jean-François Bergmann. Critique sur le manque de réactivité de l'agence du médicament sur le Levothyrox, il juge que la solution réside dans la relation de confiance entre soignant et malade: "Il faut fournir une information éclairée, mais avec un éclairage tamisé." En d'autres termes, insiste François Gueyffier, hiérarchiser les effets et entendre le patient s'il ne supporte pas le médicament.

    En janvier, 11 vaccins de petite enfance seront obligatoires. Si médias, médecins et autorités ne font pas œuvre de pédagogie, le psychiatre Patrick Lemoine parie déjà sur l'effet nocebo, avec un boom en perspective d'effets secondaires signalés.

    * Le Mystère du nocebo (Odile Jacob).

    Le psychiatre devrait arrêter de fumer sa moquette. J'ai une amie qui prend du Lévo machin depuis un an et demi… et depuis ce printemps, elle se traînait, n'avançant plus aussi bien, une fatigue intense inimaginable; de plus, elle ne dormait plus du tout et je parle par des douleurs….

    C'est en entendant parler de toutes les femmes qui se plaignaient des effets secondaires de ce médicament qu'elle a pu, enfin, savoir d'où provenaient ces symptômes invalidants.

    Alors, raconter l'explosion des nocébo… je rigole!

     

  • Avoir du pif ou pas?????

    Maladies détectées par le nez!!!

    Ne pensez pas qu’il vous suffira un jour de faire “hhhhhhha” au nez (et à la barbe) de votre médecin pour qu’il se rende immédiatement compte de quoi vous souffrez. Mais on y est presque… Nous devrions en effet bientôt pouvoir bénéficier d’une nouvelle technique de diagnostic: le “nez électronique”, qui révélera la maladie dont nous souffrons rien qu’en “sentant” notre haleine, chaque maladie présentant un profil olfactif bien spécifique.

    Cette information a été évoquée dans bon nombre de publications scientifiques, lesquelles annoncent des résultats extrêmement prometteurs en la matière. Le nez électronique sera ainsi susceptible de diagnostiquer pas moins de 17 maladies (voir liste ci-contre). La technique n’a en soi rien de neuf, c’est le moins qu’on puisse dire: dans l’Antiquité déjà, les médecins utilisaient leur organe olfactif pour déterminer l’origine du mal dont souffraient leurs contemporains. Aujourd’hui, on leur préfère la truffe des chiens, pourvue de plus de 200 millions de capteurs olfactifs (soit 20 fois plus que le nez des humains) et capable de détecter un cancer du sein ou de prévenir une crise d’épilepsie. Ou encore le nez du rat dont les compétences en matière de détection des mines antipersonnelles sont bien connues mais qui peut aussi déterminer si quelqu’un souffre de tuberculose. Mais avec le nez électronique, les avantages seront multiples: le nombre de maladies détectables pourrait être considérablement augmenté, le diagnostic pourrait se faire de façon précoce, la technique n’est pas invasive et donc plus facilement acceptée par les patients et elle permet d’agir en amont (en décelant les signes avant-coureurs d’une maladie) tout comme en aval (en suivant le processus de convalescence). Il pourra être utilisé à domicile par le patient lui-même qui enverra les résultats à son médecin via son smartphone. Enfin, le coût unitaire de ces tests est très faible par rapport aux autres techniques de diagnostic actuellement sur le marché.

    Des essais cliniques probants

    Pour discuter de tout cela, des scientifiques en provenance de quatorze laboratoires internationaux se sont réunis en France dans le but de valider la capacité du nez électronique à diagnostiquer ces 17 maladies, classées en maladies cancéreuses, inflammatoires, neurologiques ou indépendantes. Les résultats ont été publiés en début d’année par Morad Nakhleh, chercheur pour Technion (Israël Institute of Technology). Les chercheurs ont scindé l’étude entre, d’une part, les maladies qui peuvent présenter un lien entre elles: par exemple le cancer colorectal (qui concerne le côlon et le rectum) et la maladie de Crohn (touchant le tube digestif en entier) ou encore le cancer du poumon et l’hypertension artérielle pulmonaire qui, dans les deux cas, concernent le même organe. Et, d’autre part, ils ont pris en compte des maladies sans lien apparent entre elles: par exemple la pré-éclampsie (hypertension artérielle durant la grossesse) et la maladie de Parkinson, dont les marqueurs pathologiques sont donc plus faciles à distinguer.

    Comment fonctionne le nez électronique ? Relié à un ordinateur, il se compose d’un support de conduction électrique recouvert d’un matériau synthétique qui va absorber les composés organiques volatils caractéristiques d’une maladie à partir de l’haleine du patient. Celle-ci est collectée dans un ballon en mylar (la matière des ballons de baudruche). Ils seront ensuite analysés via l’intelligence artificielle dans un premier temps, afin de diagnostiquer et classifier la maladie, et, dans un second temps, afin de déterminer sa composition chimique. Ce nez électronique est copié sur celui de l’être humain. Il doit, comme celui-ci, passer par une phase d’apprentissage de reconnaissance des odeurs, dans ce cas-ci des odeurs caractéristiques des maladies. Les composés organiques volatils présentent parfois même des odeurs particulières: ainsi l’haleine d’un tuberculeux sentirait la bière et celle d’un diabétique rappellerait plutôt le foin, mais tout n’est pas aussi simple et certaines maladies ne sont pas liées à une odeur spécifique, d’où l’intérêt du nez électronique pour les détecter.

    À chaque odeur correspond donc un algorithme de reconnaissance. La difficulté pour ce nez bioartificiel consiste à contourner les interférences qui peuvent brouiller son diagnostic. On devine que le tabac, par exemple, risque de le perturber, mais nous exhalons également d’autres substances, liées à notre âge ou à notre sexe, qui pourraient interférer dans le diagnostic. Elles ont pu être éliminées par le biais informatique. Les tests ont été réalisés sur 1.404 sujets (52 % d’hommes, 48 % de femmes, 36 % de fumeurs) dont 591 pour contrôle de santé et 813 diagnostiqués pour l’une des 17 maladies en question. Tous soignés dans quatorze départements de neuf centres cliniques établis en Israël, en France, aux États-Unis, en Lettonie et en Chine. En fin de compte, les chercheurs ont obtenu un taux de réussite de 86 % en moyenne, certains diagnostics étant plus difficiles à obtenir que d’autres.

    Les 17 maladies détectables par le nez électronique

    Cancer du poumon, cancer colorectal, cancer tête et cou, cancer des ovaires, cancer de la vessie, cancer de la prostate, cancer du rein, cancer de l’estomac, maladie de Crohn, colite ulcéreuse, syndrome du côlon irritable, maladie de Parkinson idiopathique (c’est-à-dire n’ayant aucun lien avec une autre maladie), syndrome parkinsonien atypique, sclérose en plaques, hypertension artérielle pulmonaire, pré-éclampsie et maladie rénale chronique.

    Le nez électronique au service de l’hypertension artérielle pulmonaire

    L’équipe franco-israélienne (Inserm/Paris-Sud et Institut Technion de Haïfa), qui a mis le projet du nez électronique sur les rails en décembre 2013, a focalisé ses recherches sur les patients présentant des risques de développer de l’hypertension artérielle pulmonaire, c’est-à-dire un rétrécissement progressif du diamètre des vaisseaux sanguins des poumons, entraînant une élévation de la pression sanguine et un épuisement progressif du cœur qui doit envoyer le sang vers les poumons. Le nez électronique permettrait de réaliser le dépistage de cette maladie plus facilement et à un stade précoce, évitant ainsi à certains patients (dont les symptômes sont aussi peu caractéristiques que l’essoufflement à l’effort et une fatigue chronique) de devoir passer par la technique – lourde et coûteuse – de la mesure de la pression artérielle pulmonaire via l’insertion d’un cathéter jusqu’au cœur.

    "Une vaste étude clinique a été lancée. Les “ballons” seront analysés en Israël, expliquait, en février dernier, le Pr Marc Humbert, chef du service de pneumologie de l’hôpital du Kremlin-Bicêtre (Paris) dans une interview accordée à la Fondation pour la Recherche médicale (France). Plusieurs centaines de personnes vont être recrutées: des volontaires sains et des patients à différents stades de leur maladie, porteurs ou non du gène BMPR2 (principale cause de l’hypertension pulmonaire familiale). L’objectif est d’apprendre au “nez” à identifier précocement les sujets à risque. Les premiers résultats des tests seront connus en 2018“.

     

  • Une étude de la NASA contredit les prévisions alarmantes du GIEC

    Ces derniers sont-ils vraiment des experts du climat comme ils le prétendent?

    Les médias nous abreuvent tous les jours de nouvelles alarmantes concernant la fonte des glaces de l'Arctique. A en croire les commentateurs, le Pôle Nord qui se situe au milieu de l'Océan, ne sera bientôt plus du tout couvert par la glace. Ce n'est qu'une question de temps. Et dans leur envolée lyrique, nos commentateurs incluent, bien qu'ils ne possèdent pas d'éléments de preuve, les deux pôles dans le même processus de fonte irréversible. Voire. Le continent Antarctique qui n'est accessible que par la voie des airs, et encore à condition que la météo soit favorable ce qui n'arrive pratiquement jamais en hiver, réserve bien des surprises pour peu que l'observation prime sur le dogme.

    Pour mesurer les gains ou les pertes de glace dans une région désertique et inaccessible comme l'Antarctique, quoi de plus précis que les observations par satellite? Les satellites, capables d'une précision submillimétrique en ce qui concerne le niveau de la mer, peuvent également mesurer les lentes évolutions d'altitude du relief désertique de glace de l'Antarctique. Le calcul permet ensuite d'évaluer les volumes de glace perdus par la fonte ou récupérés par l'accumulation de la neige pour effectuer ensuite un bilan massique pour l'ensemble du continent. Seulement, le résultat n'est pas conforme à la vulgate ambiante...

    Voici la traduction d'un article publiée par la NASA en 2014, écrit par Maria José Viñas de la NASA's Earth Science News Team. Il est curieux de constater que les "experts" du GIEC n'on pas prit la peine d'annoncer cette importante nouvelle qui remet fortement en question une de ses annonces concernant l'évolution du niveau de la mer. Un oubli, sans doute?

    Remarquons le ton très libre de l'auteur qui n'hésite pas à bousculer les dogmes en vigueur du temps de l'ancien directeur de cet organisme, James Hansen. A l'époque de celui-ci, il aurait été inconcevable qu'un tel article vit le jour. J'ai mis mes remarques dans cette couleur.

    Antarctic Peninsula

    Une nouvelle étude de la NASA montre que l'Antarctique accumule globalement de la glace. Cependant, certaines régions du continent, comme la Péninsule Antarctique photographiées ci-dessus ont vu leurs pertes en masse s'accroitre.

    Credits: NASA's Operation IceBridge

    Map showing the rates of mass changes from ICESat 2003-2008 over Antarctica.

    Carte montrant la vitesse de changement de masse d'après la mission ICESat sur l'Antarctique: Antarctique est (EA, 2-17) ; intérieur de l'Antarctique ouest (WA2, 1, 18, 19 et 23) ; côte de l'Antarctique ouest (WA1, 20-21) ; ; et Péninsule Antarctique (24-27). Une gigatonne (Gt) correspond à 1 milliard de tonnes.

    Credits: Jay Zwally/ Journal of Glaciology

    "Dans une récente (2015) étude, la NASA explique que l'accumulation de neige en Antarctique commencée il y a 10 000 ans ajoute assez de glace au continent pour compenser largement l'augmentation des pertes provenant de l'amincissement des glaciers.

    Cette recherche contredit les conclusions d'autres études, dont le dernier rapport du GIEC qui prétend que l'Antarctique perd de sa glace continentale.

    D'après cette nouvelle analyse par satellite, la couche de glace de l'Antarctique montre un gain net de 112 milliards de tonnes par an de 1992 à 2001. Ce gain net est ensuite descendu à 82 milliards de tonnes par an entre 2003 et 2008. (La source des données pour la première période n'est pas la même que pour la deuxième.(Voir plus loin dans le texte). Ce fait pourrait bien explique les différences observées entre les deux périodes).

    Nous sommes essentiellement en accord avec d'autres études qui montrent un accroissement de la perte en glace pour la péninsule Antarctique ainsi que pour la région des glaciers Thwaites et Pine dans l'Antarctique ouest" déclare Jay Swally, glaciologue au NASA Goddard Space Flight Center à Greenbelt (Maryland) et auteur principal de cette étude qui a été publiée le 30 octobre dans le Journal of glaciology. "Notre désaccord porte sur l'Antarctique est et sur l'intérieur de l'Antarctique ouest. Là, nous observons un gain de glace qui dépasse les pertes dans les autres régions". Zwally ajoute que son équipe a mesuré "à la fois des petits changements de hauteur sur des grandes surfaces et des grands changements sur des petites surfaces".

    Nos scientifiques ont calculé la croissance ou la décroissance de l'épaisseur de la couche de glace à partir des changement de hauteur qui sont mesurés par les altimètres des satellites. Aux endroits où la quantité de neige qui s'accumule sur la glace n'est pas égale à la quantité de glace qui disparaît dans l'océan, les hauteurs changent, et l'épaisseur de la couche de glace s'accroit ou décroit. Mais la croissance observée de l'épaisseur de la couche de glace de l'Antarctique pourrait s'inverser en quelques décennies d'après Zwally. "Si les pertes de la Péninsule Antarctique et d'une partie de l'Antarctique ouest continuent à augmenter au rythme de ces deux dernières décennies, les pertes compenseront le gain de long terme en Antarctique est en 20 ou 30 ans - je ne pense pas que l'augmentation des précipitations neigeuses arriveront à compenser les pertes".

    (Ici, on voit que l'auteur pratique le rétropédalage classique permettant de se mettre à l'abri des critiques futures éventuelles si les choses ne se passaient pas comme prévu, et montrant qu'il fait bien allégeance à la cause réchauffiste).

    L'étude analyse les changements d'altitude de la surface de la couche de glace antarctique mesurés par les altimètres radar de deux satellites de télédétection de l'Agence Européenne de l'Espace (ERS) pour la période 1992 - 2001 et par l'altimètre laser du satellite de la NASA glace, nuages et altitudes (ICESat) pour la période 2003 - 2008. Zwally pense qu'alors que certains scientifiques ont estimé que les gains en altitude observés dans l'Antarctique est sont dus à l'augmentation récente de l'accumulation neigeuse, son équipe, en utilisant des archives météorologiques commençant en 1979, a montré que les chutes de neige dans l'Antarctique est ont en réalité diminué de 11 milliards de tonnes par an pendant les deux périodes ERS et ICESat. Ils ont aussi utilisé les données concernant l'accumulation de la neige  depuis des milliers d'années reconstituées par d'autres chercheurs à partir des carottes glaciaires, pour finalement conclure que la couche de glace de l'Antarctique est  s'épaissit depuis très longtemps. (Je respecte la règle qui consiste à ne pas mettre de majuscule à "est" et "ouest" lorsqu'ils sont employés comme adjectifs, mais je me rends compte à quel point ça rend le texte illisible...)

    Zwally: "A la fin du dernier âge glaciaire, l'air était devenu plus chaud et transportait plus d'humidité à travers le continent ce qui a doublé la quantité de neige sur la couche de glace".

    Cette surabondance de neige qui a commencé il y a 10 000 ans s'est accumulée lentement sur la couche de glace en se compactant pendant des millénaires et en augmentant l'épaisseur de celle-ci dans l'Antarctique est et dans l'intérieur de l'Antarctique ouest à raison de 0,7 pouce (1,7 centimètre) par an. Cette modeste augmentation d'épaisseur qui s'est poursuivie pendant des milliers d'années et s'est étendue largement sur ces secteurs de l'Antarctique correspond à un gain très important de glace - assez pour l'emporter sur les pertes provenant des glaciers à écoulement rapide (tout est relatif...) dans les autres parties du continent et pour réduire l'élévation globale du niveau de la mer.

    L'équipe de Zwally a calculé que le gain en masse provenant de l'augmentation d'épaisseur de la couche de glace en Antarctique est est resté constant de 1992 à 2008 à 200 milliards de tonnes par an, tandis que la perte de glace des régions côtières de l'Antarctique ouest et de la Péninsule Antarctique s'est accrue de 65 milliards de tonnes par an.

    "La bonne nouvelle est que l'Antarctique ne contribue pas actuellement à l'augmentation du niveau de la mer, mais au contraire le réduit de 0,23 millimètres par an" d'après Zwally.

    Mais il y a aussi une mauvaise nouvelle: si les 0,27 millimètres (ici, j'ai un problème: si je suis la règle qui veut qu'en français la forme plurielle commence à deux, je dois écrire "les 0,27 millimètre"???) d'augmentation du niveau de la mer attribué par le GIEC à l'Antarctique ne provient pas réellement de l'Antarctique, il doit y avoir une autre contribution à l'augmentation du niveau de la mer qui n'est pas comptée. (Alarmisme caractéristique du réchauffisme: on pourrait aussi dire, avec certainement moins de chances de se tromper, que cette augmentation a très probablement une cause (1) peut-être indépendante du réchauffement climatique, qui n'a pas plus de raisons de s'aggraver que de s'affaiblir).

    "Cette nouvelle étude montre les difficultés qui existent pour mesurer les petits changements de hauteur de la glace dans l'Antarctique est " commente Ben Smith, glaciologue à l'Université de l'Etat de Washington à Seattle, non impliqué dans l'étude de Zwally (et ce commentaire montre l'opposition de l'universitaire envers un autre fonctionnaire... Ben Smith met le doigt (mais avec un gant)  sur ce qui pourrait être une faiblesse de l'étude).

    "Faire de l'altimétrie avec précision sur des surfaces très grandes est extraordinairement difficile, et il y a des mesures d'accumulation de neige qui doivent être faites par ailleurs pour comprendre ce qui est arrivé dans ces surfaces" dit encore Smith. (Ici, c'est vraiment une attaque frontale: en effet, Smith connaît très bien les difficultés énormes qu'il y aurait à faire des carottages sur toutes ces zones qui sont très étendues et dont le climat est particulièrement rude...)

    Pour améliorer les mesures des petits changements en Antarctique, la NASA est en train de développer le successeur de la mission ICESat, ICESat-2, qui doit être lancé en 2018. "ICESat-2 mesurera les changements d'épaisseur de la glace avec la précision d'une mine de crayon N°2" dit Tom Neumann, glaciologue à Goddard, chef du projet ICESat-2. Il contribuera à résoudre le problème du budget massique en Antarctique en fournissant des données à long terme sur les variations d'altitudes. "

    La vision générale classique de l'Antarctique est biaisée: la raison en est que l'accès à certaines régions est extrêmement difficile. Ces régions sont des déserts absolus. Elles ne peuvent être analysées que par des méthodes de survols systématisés que seuls les satellites sont en mesure d'exécuter. En conséquence, jusqu'à très récemment, la vision générale de l'Antarctique était fondée sur celle de la région "habitée" du continent, la Péninsule Antarctique.

    Or, cette région a vu un réchauffement important au cours des années écoulées, ce qui s'est traduit par une fonte accélérée des glaciers. L'observation de ces phénomènes a conduit certains scientifiques à extrapoler la situation à tout le continent, ce qui s'avère très faux, l'étude de la NASA ci-dessus le prouve. Le GIEC, qui se repose beaucoup sur des "études"  apportées par des organisations comme Greenpeace dont le coté engagé n'est plus à démontrer, annonce à la page 4 du Résumé à l'attention des décideurs: "Entre 1992 et 2011, la masse des nappes glaciaires du Groenland et de l’Antarctique a diminué (degré de confiance élevé), la perte ayant probablement augmenté au cours de la période 2002−2011", à la page 44: "Au cours des deux dernières décennies, la masse des nappes glaciaires du Groenland et de l’Antarctique a diminué (degré de confiance élevé)", ce qui est en contradiction directe avec les observations rapportées dans l'étude de la NASA ci-dessus. Le problème, c'est que l'augmentation catastrophique du niveau de la mer prévue dans le même résumé pour la fin du siècle est fondée sur une importante contribution de la perte de glace de l'Antarctique.

    Comme les observations réelles montrent au contraire qu'actuellement l'Antarctique contribue plutôt à une légère diminution de ce niveau, cette augmentation doit être plutôt vue comme une opinion plutôt que comme une prévision fiable. En aviez-vous entendu parler par ailleurs? Non, bien sûr, et pour cause: elle a été soigneusement  mise sous un chapeau...

    Notes du 10 juillet 2017

    Lorsqu'un scientifique fait une mesure au moyen de deux systèmes de mesure analogues et qu'il ne trouve pas le même résultat, il considère qu'il ne peut pas comparer les deux résultats car les deux systèmes forment ensemble une indétermination. On ne peut conserver et considérer comme valables que les résultats qui sont observés à la fois dans les deux systèmes: par exemple le sens (positif ou négatif). C'est le cas ici, où les mesures ERS et ICESat ont été effectuées par deux satellites différents. Le seul résultat cohérent dans les deux systèmes est que le bilan massique des glaces est positif, (la glace s'épaissit) mais on ne sait pas de combien. Un autre exemple classique est celui des mesures du niveau de la mer. Celles-ci ont été réalisées par deux systèmes différents: les marégraphes jusqu'en 1992 puis les satellites (TOPEX puis JASON) à partir de 1993. Les marégraphes ont donné une augmentation moyenne de ce niveau de 1,4 mm/an de 1930 à 1992, alors que les satellites ont donné 3,3 mm/an à partir de 1993. Les systèmes de mesure ayant complètement changé, il aurait été normal de considérer que la véritable valeur n'était pas donnée par les satellites. Or, la valeur donnée par ces derniers (par hasard la plus élevée) est la seule prise en compte par Jim Hansen et le GIEC. Cette attitude n'est pas scientifique.

    (2) En réalité, le diamètre d'une mine de crayon numéro 2 (USA) n'est pas défini, car ce chiffre indique la dureté de la mine et pas son diamètre. #2 est l'équivalent de la dureté "HB".

    Graphiques et cartes ici:

    https://climatdeterreur.info/climat/une-etude-de-la-nasa-contredit-les-previsions-alarmantes-du-giec