Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science/Tech - Page 14

  • Avoir du pif ou pas?????

    Maladies détectées par le nez!!!

    Ne pensez pas qu’il vous suffira un jour de faire “hhhhhhha” au nez (et à la barbe) de votre médecin pour qu’il se rende immédiatement compte de quoi vous souffrez. Mais on y est presque… Nous devrions en effet bientôt pouvoir bénéficier d’une nouvelle technique de diagnostic: le “nez électronique”, qui révélera la maladie dont nous souffrons rien qu’en “sentant” notre haleine, chaque maladie présentant un profil olfactif bien spécifique.

    Cette information a été évoquée dans bon nombre de publications scientifiques, lesquelles annoncent des résultats extrêmement prometteurs en la matière. Le nez électronique sera ainsi susceptible de diagnostiquer pas moins de 17 maladies (voir liste ci-contre). La technique n’a en soi rien de neuf, c’est le moins qu’on puisse dire: dans l’Antiquité déjà, les médecins utilisaient leur organe olfactif pour déterminer l’origine du mal dont souffraient leurs contemporains. Aujourd’hui, on leur préfère la truffe des chiens, pourvue de plus de 200 millions de capteurs olfactifs (soit 20 fois plus que le nez des humains) et capable de détecter un cancer du sein ou de prévenir une crise d’épilepsie. Ou encore le nez du rat dont les compétences en matière de détection des mines antipersonnelles sont bien connues mais qui peut aussi déterminer si quelqu’un souffre de tuberculose. Mais avec le nez électronique, les avantages seront multiples: le nombre de maladies détectables pourrait être considérablement augmenté, le diagnostic pourrait se faire de façon précoce, la technique n’est pas invasive et donc plus facilement acceptée par les patients et elle permet d’agir en amont (en décelant les signes avant-coureurs d’une maladie) tout comme en aval (en suivant le processus de convalescence). Il pourra être utilisé à domicile par le patient lui-même qui enverra les résultats à son médecin via son smartphone. Enfin, le coût unitaire de ces tests est très faible par rapport aux autres techniques de diagnostic actuellement sur le marché.

    Des essais cliniques probants

    Pour discuter de tout cela, des scientifiques en provenance de quatorze laboratoires internationaux se sont réunis en France dans le but de valider la capacité du nez électronique à diagnostiquer ces 17 maladies, classées en maladies cancéreuses, inflammatoires, neurologiques ou indépendantes. Les résultats ont été publiés en début d’année par Morad Nakhleh, chercheur pour Technion (Israël Institute of Technology). Les chercheurs ont scindé l’étude entre, d’une part, les maladies qui peuvent présenter un lien entre elles: par exemple le cancer colorectal (qui concerne le côlon et le rectum) et la maladie de Crohn (touchant le tube digestif en entier) ou encore le cancer du poumon et l’hypertension artérielle pulmonaire qui, dans les deux cas, concernent le même organe. Et, d’autre part, ils ont pris en compte des maladies sans lien apparent entre elles: par exemple la pré-éclampsie (hypertension artérielle durant la grossesse) et la maladie de Parkinson, dont les marqueurs pathologiques sont donc plus faciles à distinguer.

    Comment fonctionne le nez électronique ? Relié à un ordinateur, il se compose d’un support de conduction électrique recouvert d’un matériau synthétique qui va absorber les composés organiques volatils caractéristiques d’une maladie à partir de l’haleine du patient. Celle-ci est collectée dans un ballon en mylar (la matière des ballons de baudruche). Ils seront ensuite analysés via l’intelligence artificielle dans un premier temps, afin de diagnostiquer et classifier la maladie, et, dans un second temps, afin de déterminer sa composition chimique. Ce nez électronique est copié sur celui de l’être humain. Il doit, comme celui-ci, passer par une phase d’apprentissage de reconnaissance des odeurs, dans ce cas-ci des odeurs caractéristiques des maladies. Les composés organiques volatils présentent parfois même des odeurs particulières: ainsi l’haleine d’un tuberculeux sentirait la bière et celle d’un diabétique rappellerait plutôt le foin, mais tout n’est pas aussi simple et certaines maladies ne sont pas liées à une odeur spécifique, d’où l’intérêt du nez électronique pour les détecter.

    À chaque odeur correspond donc un algorithme de reconnaissance. La difficulté pour ce nez bioartificiel consiste à contourner les interférences qui peuvent brouiller son diagnostic. On devine que le tabac, par exemple, risque de le perturber, mais nous exhalons également d’autres substances, liées à notre âge ou à notre sexe, qui pourraient interférer dans le diagnostic. Elles ont pu être éliminées par le biais informatique. Les tests ont été réalisés sur 1.404 sujets (52 % d’hommes, 48 % de femmes, 36 % de fumeurs) dont 591 pour contrôle de santé et 813 diagnostiqués pour l’une des 17 maladies en question. Tous soignés dans quatorze départements de neuf centres cliniques établis en Israël, en France, aux États-Unis, en Lettonie et en Chine. En fin de compte, les chercheurs ont obtenu un taux de réussite de 86 % en moyenne, certains diagnostics étant plus difficiles à obtenir que d’autres.

    Les 17 maladies détectables par le nez électronique

    Cancer du poumon, cancer colorectal, cancer tête et cou, cancer des ovaires, cancer de la vessie, cancer de la prostate, cancer du rein, cancer de l’estomac, maladie de Crohn, colite ulcéreuse, syndrome du côlon irritable, maladie de Parkinson idiopathique (c’est-à-dire n’ayant aucun lien avec une autre maladie), syndrome parkinsonien atypique, sclérose en plaques, hypertension artérielle pulmonaire, pré-éclampsie et maladie rénale chronique.

    Le nez électronique au service de l’hypertension artérielle pulmonaire

    L’équipe franco-israélienne (Inserm/Paris-Sud et Institut Technion de Haïfa), qui a mis le projet du nez électronique sur les rails en décembre 2013, a focalisé ses recherches sur les patients présentant des risques de développer de l’hypertension artérielle pulmonaire, c’est-à-dire un rétrécissement progressif du diamètre des vaisseaux sanguins des poumons, entraînant une élévation de la pression sanguine et un épuisement progressif du cœur qui doit envoyer le sang vers les poumons. Le nez électronique permettrait de réaliser le dépistage de cette maladie plus facilement et à un stade précoce, évitant ainsi à certains patients (dont les symptômes sont aussi peu caractéristiques que l’essoufflement à l’effort et une fatigue chronique) de devoir passer par la technique – lourde et coûteuse – de la mesure de la pression artérielle pulmonaire via l’insertion d’un cathéter jusqu’au cœur.

    "Une vaste étude clinique a été lancée. Les “ballons” seront analysés en Israël, expliquait, en février dernier, le Pr Marc Humbert, chef du service de pneumologie de l’hôpital du Kremlin-Bicêtre (Paris) dans une interview accordée à la Fondation pour la Recherche médicale (France). Plusieurs centaines de personnes vont être recrutées: des volontaires sains et des patients à différents stades de leur maladie, porteurs ou non du gène BMPR2 (principale cause de l’hypertension pulmonaire familiale). L’objectif est d’apprendre au “nez” à identifier précocement les sujets à risque. Les premiers résultats des tests seront connus en 2018“.

     

  • Une étude de la NASA contredit les prévisions alarmantes du GIEC

    Ces derniers sont-ils vraiment des experts du climat comme ils le prétendent?

    Les médias nous abreuvent tous les jours de nouvelles alarmantes concernant la fonte des glaces de l'Arctique. A en croire les commentateurs, le Pôle Nord qui se situe au milieu de l'Océan, ne sera bientôt plus du tout couvert par la glace. Ce n'est qu'une question de temps. Et dans leur envolée lyrique, nos commentateurs incluent, bien qu'ils ne possèdent pas d'éléments de preuve, les deux pôles dans le même processus de fonte irréversible. Voire. Le continent Antarctique qui n'est accessible que par la voie des airs, et encore à condition que la météo soit favorable ce qui n'arrive pratiquement jamais en hiver, réserve bien des surprises pour peu que l'observation prime sur le dogme.

    Pour mesurer les gains ou les pertes de glace dans une région désertique et inaccessible comme l'Antarctique, quoi de plus précis que les observations par satellite? Les satellites, capables d'une précision submillimétrique en ce qui concerne le niveau de la mer, peuvent également mesurer les lentes évolutions d'altitude du relief désertique de glace de l'Antarctique. Le calcul permet ensuite d'évaluer les volumes de glace perdus par la fonte ou récupérés par l'accumulation de la neige pour effectuer ensuite un bilan massique pour l'ensemble du continent. Seulement, le résultat n'est pas conforme à la vulgate ambiante...

    Voici la traduction d'un article publiée par la NASA en 2014, écrit par Maria José Viñas de la NASA's Earth Science News Team. Il est curieux de constater que les "experts" du GIEC n'on pas prit la peine d'annoncer cette importante nouvelle qui remet fortement en question une de ses annonces concernant l'évolution du niveau de la mer. Un oubli, sans doute?

    Remarquons le ton très libre de l'auteur qui n'hésite pas à bousculer les dogmes en vigueur du temps de l'ancien directeur de cet organisme, James Hansen. A l'époque de celui-ci, il aurait été inconcevable qu'un tel article vit le jour. J'ai mis mes remarques dans cette couleur.

    Antarctic Peninsula

    Une nouvelle étude de la NASA montre que l'Antarctique accumule globalement de la glace. Cependant, certaines régions du continent, comme la Péninsule Antarctique photographiées ci-dessus ont vu leurs pertes en masse s'accroitre.

    Credits: NASA's Operation IceBridge

    Map showing the rates of mass changes from ICESat 2003-2008 over Antarctica.

    Carte montrant la vitesse de changement de masse d'après la mission ICESat sur l'Antarctique: Antarctique est (EA, 2-17) ; intérieur de l'Antarctique ouest (WA2, 1, 18, 19 et 23) ; côte de l'Antarctique ouest (WA1, 20-21) ; ; et Péninsule Antarctique (24-27). Une gigatonne (Gt) correspond à 1 milliard de tonnes.

    Credits: Jay Zwally/ Journal of Glaciology

    "Dans une récente (2015) étude, la NASA explique que l'accumulation de neige en Antarctique commencée il y a 10 000 ans ajoute assez de glace au continent pour compenser largement l'augmentation des pertes provenant de l'amincissement des glaciers.

    Cette recherche contredit les conclusions d'autres études, dont le dernier rapport du GIEC qui prétend que l'Antarctique perd de sa glace continentale.

    D'après cette nouvelle analyse par satellite, la couche de glace de l'Antarctique montre un gain net de 112 milliards de tonnes par an de 1992 à 2001. Ce gain net est ensuite descendu à 82 milliards de tonnes par an entre 2003 et 2008. (La source des données pour la première période n'est pas la même que pour la deuxième.(Voir plus loin dans le texte). Ce fait pourrait bien explique les différences observées entre les deux périodes).

    Nous sommes essentiellement en accord avec d'autres études qui montrent un accroissement de la perte en glace pour la péninsule Antarctique ainsi que pour la région des glaciers Thwaites et Pine dans l'Antarctique ouest" déclare Jay Swally, glaciologue au NASA Goddard Space Flight Center à Greenbelt (Maryland) et auteur principal de cette étude qui a été publiée le 30 octobre dans le Journal of glaciology. "Notre désaccord porte sur l'Antarctique est et sur l'intérieur de l'Antarctique ouest. Là, nous observons un gain de glace qui dépasse les pertes dans les autres régions". Zwally ajoute que son équipe a mesuré "à la fois des petits changements de hauteur sur des grandes surfaces et des grands changements sur des petites surfaces".

    Nos scientifiques ont calculé la croissance ou la décroissance de l'épaisseur de la couche de glace à partir des changement de hauteur qui sont mesurés par les altimètres des satellites. Aux endroits où la quantité de neige qui s'accumule sur la glace n'est pas égale à la quantité de glace qui disparaît dans l'océan, les hauteurs changent, et l'épaisseur de la couche de glace s'accroit ou décroit. Mais la croissance observée de l'épaisseur de la couche de glace de l'Antarctique pourrait s'inverser en quelques décennies d'après Zwally. "Si les pertes de la Péninsule Antarctique et d'une partie de l'Antarctique ouest continuent à augmenter au rythme de ces deux dernières décennies, les pertes compenseront le gain de long terme en Antarctique est en 20 ou 30 ans - je ne pense pas que l'augmentation des précipitations neigeuses arriveront à compenser les pertes".

    (Ici, on voit que l'auteur pratique le rétropédalage classique permettant de se mettre à l'abri des critiques futures éventuelles si les choses ne se passaient pas comme prévu, et montrant qu'il fait bien allégeance à la cause réchauffiste).

    L'étude analyse les changements d'altitude de la surface de la couche de glace antarctique mesurés par les altimètres radar de deux satellites de télédétection de l'Agence Européenne de l'Espace (ERS) pour la période 1992 - 2001 et par l'altimètre laser du satellite de la NASA glace, nuages et altitudes (ICESat) pour la période 2003 - 2008. Zwally pense qu'alors que certains scientifiques ont estimé que les gains en altitude observés dans l'Antarctique est sont dus à l'augmentation récente de l'accumulation neigeuse, son équipe, en utilisant des archives météorologiques commençant en 1979, a montré que les chutes de neige dans l'Antarctique est ont en réalité diminué de 11 milliards de tonnes par an pendant les deux périodes ERS et ICESat. Ils ont aussi utilisé les données concernant l'accumulation de la neige  depuis des milliers d'années reconstituées par d'autres chercheurs à partir des carottes glaciaires, pour finalement conclure que la couche de glace de l'Antarctique est  s'épaissit depuis très longtemps. (Je respecte la règle qui consiste à ne pas mettre de majuscule à "est" et "ouest" lorsqu'ils sont employés comme adjectifs, mais je me rends compte à quel point ça rend le texte illisible...)

    Zwally: "A la fin du dernier âge glaciaire, l'air était devenu plus chaud et transportait plus d'humidité à travers le continent ce qui a doublé la quantité de neige sur la couche de glace".

    Cette surabondance de neige qui a commencé il y a 10 000 ans s'est accumulée lentement sur la couche de glace en se compactant pendant des millénaires et en augmentant l'épaisseur de celle-ci dans l'Antarctique est et dans l'intérieur de l'Antarctique ouest à raison de 0,7 pouce (1,7 centimètre) par an. Cette modeste augmentation d'épaisseur qui s'est poursuivie pendant des milliers d'années et s'est étendue largement sur ces secteurs de l'Antarctique correspond à un gain très important de glace - assez pour l'emporter sur les pertes provenant des glaciers à écoulement rapide (tout est relatif...) dans les autres parties du continent et pour réduire l'élévation globale du niveau de la mer.

    L'équipe de Zwally a calculé que le gain en masse provenant de l'augmentation d'épaisseur de la couche de glace en Antarctique est est resté constant de 1992 à 2008 à 200 milliards de tonnes par an, tandis que la perte de glace des régions côtières de l'Antarctique ouest et de la Péninsule Antarctique s'est accrue de 65 milliards de tonnes par an.

    "La bonne nouvelle est que l'Antarctique ne contribue pas actuellement à l'augmentation du niveau de la mer, mais au contraire le réduit de 0,23 millimètres par an" d'après Zwally.

    Mais il y a aussi une mauvaise nouvelle: si les 0,27 millimètres (ici, j'ai un problème: si je suis la règle qui veut qu'en français la forme plurielle commence à deux, je dois écrire "les 0,27 millimètre"???) d'augmentation du niveau de la mer attribué par le GIEC à l'Antarctique ne provient pas réellement de l'Antarctique, il doit y avoir une autre contribution à l'augmentation du niveau de la mer qui n'est pas comptée. (Alarmisme caractéristique du réchauffisme: on pourrait aussi dire, avec certainement moins de chances de se tromper, que cette augmentation a très probablement une cause (1) peut-être indépendante du réchauffement climatique, qui n'a pas plus de raisons de s'aggraver que de s'affaiblir).

    "Cette nouvelle étude montre les difficultés qui existent pour mesurer les petits changements de hauteur de la glace dans l'Antarctique est " commente Ben Smith, glaciologue à l'Université de l'Etat de Washington à Seattle, non impliqué dans l'étude de Zwally (et ce commentaire montre l'opposition de l'universitaire envers un autre fonctionnaire... Ben Smith met le doigt (mais avec un gant)  sur ce qui pourrait être une faiblesse de l'étude).

    "Faire de l'altimétrie avec précision sur des surfaces très grandes est extraordinairement difficile, et il y a des mesures d'accumulation de neige qui doivent être faites par ailleurs pour comprendre ce qui est arrivé dans ces surfaces" dit encore Smith. (Ici, c'est vraiment une attaque frontale: en effet, Smith connaît très bien les difficultés énormes qu'il y aurait à faire des carottages sur toutes ces zones qui sont très étendues et dont le climat est particulièrement rude...)

    Pour améliorer les mesures des petits changements en Antarctique, la NASA est en train de développer le successeur de la mission ICESat, ICESat-2, qui doit être lancé en 2018. "ICESat-2 mesurera les changements d'épaisseur de la glace avec la précision d'une mine de crayon N°2" dit Tom Neumann, glaciologue à Goddard, chef du projet ICESat-2. Il contribuera à résoudre le problème du budget massique en Antarctique en fournissant des données à long terme sur les variations d'altitudes. "

    La vision générale classique de l'Antarctique est biaisée: la raison en est que l'accès à certaines régions est extrêmement difficile. Ces régions sont des déserts absolus. Elles ne peuvent être analysées que par des méthodes de survols systématisés que seuls les satellites sont en mesure d'exécuter. En conséquence, jusqu'à très récemment, la vision générale de l'Antarctique était fondée sur celle de la région "habitée" du continent, la Péninsule Antarctique.

    Or, cette région a vu un réchauffement important au cours des années écoulées, ce qui s'est traduit par une fonte accélérée des glaciers. L'observation de ces phénomènes a conduit certains scientifiques à extrapoler la situation à tout le continent, ce qui s'avère très faux, l'étude de la NASA ci-dessus le prouve. Le GIEC, qui se repose beaucoup sur des "études"  apportées par des organisations comme Greenpeace dont le coté engagé n'est plus à démontrer, annonce à la page 4 du Résumé à l'attention des décideurs: "Entre 1992 et 2011, la masse des nappes glaciaires du Groenland et de l’Antarctique a diminué (degré de confiance élevé), la perte ayant probablement augmenté au cours de la période 2002−2011", à la page 44: "Au cours des deux dernières décennies, la masse des nappes glaciaires du Groenland et de l’Antarctique a diminué (degré de confiance élevé)", ce qui est en contradiction directe avec les observations rapportées dans l'étude de la NASA ci-dessus. Le problème, c'est que l'augmentation catastrophique du niveau de la mer prévue dans le même résumé pour la fin du siècle est fondée sur une importante contribution de la perte de glace de l'Antarctique.

    Comme les observations réelles montrent au contraire qu'actuellement l'Antarctique contribue plutôt à une légère diminution de ce niveau, cette augmentation doit être plutôt vue comme une opinion plutôt que comme une prévision fiable. En aviez-vous entendu parler par ailleurs? Non, bien sûr, et pour cause: elle a été soigneusement  mise sous un chapeau...

    Notes du 10 juillet 2017

    Lorsqu'un scientifique fait une mesure au moyen de deux systèmes de mesure analogues et qu'il ne trouve pas le même résultat, il considère qu'il ne peut pas comparer les deux résultats car les deux systèmes forment ensemble une indétermination. On ne peut conserver et considérer comme valables que les résultats qui sont observés à la fois dans les deux systèmes: par exemple le sens (positif ou négatif). C'est le cas ici, où les mesures ERS et ICESat ont été effectuées par deux satellites différents. Le seul résultat cohérent dans les deux systèmes est que le bilan massique des glaces est positif, (la glace s'épaissit) mais on ne sait pas de combien. Un autre exemple classique est celui des mesures du niveau de la mer. Celles-ci ont été réalisées par deux systèmes différents: les marégraphes jusqu'en 1992 puis les satellites (TOPEX puis JASON) à partir de 1993. Les marégraphes ont donné une augmentation moyenne de ce niveau de 1,4 mm/an de 1930 à 1992, alors que les satellites ont donné 3,3 mm/an à partir de 1993. Les systèmes de mesure ayant complètement changé, il aurait été normal de considérer que la véritable valeur n'était pas donnée par les satellites. Or, la valeur donnée par ces derniers (par hasard la plus élevée) est la seule prise en compte par Jim Hansen et le GIEC. Cette attitude n'est pas scientifique.

    (2) En réalité, le diamètre d'une mine de crayon numéro 2 (USA) n'est pas défini, car ce chiffre indique la dureté de la mine et pas son diamètre. #2 est l'équivalent de la dureté "HB".

    Graphiques et cartes ici:

    https://climatdeterreur.info/climat/une-etude-de-la-nasa-contredit-les-previsions-alarmantes-du-giec

     

     

  • Le bar est ouvert! enfin, disons plutôt le robinet à pognon

    La sortie du nucléaire coûterait 217 milliards d’euros

    Prônée par Benoît Hamon et par Jean-Luc Mélenchon, la sortie du nucléaire fait débat en France. L’Institut Montaigne, think tank libéral, estime qu’une sortie du nucléaire à l’horizon 2035 coûterait, avec les seuls critères mesurables, 217 milliards d’euros. Parmi les critères retenus figurent le coût de remplacement du nucléaire (179 milliards d’euros), le coût de l’adaptation du réseau de distribution français des énergies renouvelables (13 milliards d’euros entre 2018 et 2035), le coût d’indemnisation d’EDF (25 milliards) et le manque à gagner pour la balance commerciale française (25 milliards d’euros par an).

     

  • La fumisterie à l’âge du Big Data

    Il y a d’abord eu les politiciens, puis les médias, et avec ce qui se passe présentement aux États-Unis, il y aura sans doute les tribunaux… Mais les prochaines victimes de la perte de confiance d’une partie de la population pourraient bien être les scientifiques, bien que ce soit déjà le cas dans certains dossiers, comme celui des changements climatiques.

    Jusqu’ici, peu de scientifiques ont été impliqués dans des scandales financiers. Le public en est conscient, ce qui explique qu’ils sont beaucoup mieux cotés que les politiciens et les journalistes. Mais selon Ugo Bardi[1], professeur de chimie physique à l’Université de Florence en Italie, le problème n’est pas lié aux individus ou à certaines disciplines en particulier, mais à la science en général. Dans son livre Big Gods (Princeton, 2013) le professeur de psychologie sociale de l’Université de Colombie britannique, Ara Norenzayan, soutient que les gens ont un détecteur de mensonge intégré, une sorte d’algorithme heuristique qui évalue la justesse d’un propos sur la base de la cohérence. Non seulement le message doit-il être cohérent, mais le comportement du messager doit aussi être conséquent.

    Les fausses promesses et l’incohérence du message

    Malheureusement, la science présente actuellement deux visages. D’un côté, il y a ceux qu’on perçoit comme des prophètes de malheur parce qu’ils explorent les limites imposées par la nature et qu’ils invitent à faire des sacrifices pour éviter les crises qui nous menacent. De l’autre côté, il y a ce que Bardi appelle les scientifiques " du Père Noël " qui promettent des lendemains ensoleillés. Le message de ces derniers n’est pas nouveau, il a commencé dans les années 1950. Il consiste à dire " donnez-nous de l’argent et nous inventerons un truc magique pour résoudre les problèmes ". Mais ce message sonne de plus en plus creux parce que le public est en mesure de constater que les promesses de ces scientifiques sont encore loin de leur matérialisation (pensons à la fusion nucléaire ou à l’économie hydrogène annoncée par Jeremy Rifkin en 2002), tandis que d’autres ont empiré les choses (ex : la fracturation hydraulique ou la résistance aux antibiotiques). Pourtant, certains scientifiques n’hésitent pas à faire encore ce genre de promesses, claironnées par les médias, en partie pour gonfler leurs budgets de recherche.

    Lire la suite

  • Avant: une petite ville bien française: Bobigny

    photo,femme,fille,mec,société,culture,église,occitanie

     

     

     

     

     

     

    Pour info, l'adresse de cette "église" construite en 1980 est 5 avenue Karl Marx.

    En 1980, je crois.

    Il manque la cinquième photo pour que le processus soit achevé :

    Premières photos : église bien française sise place de l’Église

    Seconde photo: une horreur sise avenue Karl Marx

    Dernière photo (A venir, d'ici une bonne dizaine d'années) : Mosquée sise avenue du prophète

    C'est censé être une église, cette chose immonde? Quelle insulte à la France! On dirait de l'art contemporain. De l'art dégénéré, comme dirait de Lesquen.

     

    0BOBIGNY93.jpg

     

     

     

     

     

     

    Faut vraiment être un dégénéré mental pour avoir l'idée de pondre une pourriture pareille. Une saleté de gauchiste, mondialiste ou franc mac? Non, mairie communiste. La laideur de cette merde est à l'image de la pourriture qui anime ceux qui l'ont pondue.

    A raser! Et qu'on ne se contente pas de raser cette "œuvre". Il faut également raser ceux qui l'ont créée!

    C'est justement parce que ça ne ressemble pas à une église que les communistes ont choisit cette architecture en remplacement de l'ancienne qui était dans un style catholique classique et reconnaissable, là y'a juste à retirer la croix et t'en fait une mosquée, ou un abattoir...

     

    Un suicide culturel et spirituel.

    Pris sur un site... quelques réflexions des internautes