Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Savoir - Page 250

  • En 2015, les voitures appelleront elles-mêmes les secours en cas d'accident

    En 2015, les voitures appelleront elles-mêmes les secours en cas d'accident

    En cas d'impossibilité pour le conducteur d'appuyer sur le bouton, l'alerte se fera automatiquement .

    À compter d'octobre 2015, tous les nouveaux modèles de voitures en Europe devront être équipés d'un bouton d'appel d'urgence. Ce système baptisé eCall a été validé, ce mardi, par la commission du Marché intérieur du Parlement européen. Le vote définitif devrait intervenir dans les mois prochains.

    À partir d'octobre 2015, tous les nouveaux modèles de voitures en Europe seront un peu plus intelligents. Ils devront être équipés d'un bouton qu'il suffira de presser pour alerter automatiquement les services de secours. En cas d'impossibilité pour le conducteur d'appuyer sur le bouton, l'alerte se fera automatiquement et le véhicule sera géolocalisé.

    Dans les cartons des autorités européennes depuis plusieurs années, ce système baptisé "eCall" vient de franchir une étape supplémentaire. La commission du marché intérieur du Parlement européen s'est prononcée ce mardi en faveur de cette technologie qui avait donné lieu à des désaccords tenaces entre pays. Cette dernière devrait donc être adoptée par le parlement européen en février ou mars prochain.

    Le temps d'intervention sera réduit

    Concrètement l'eCall qui sera connecté au 112, - un numéro réservé aux appels d'urgence et déjà en vigueur aujourd'hui dans l'Union européenne - permettra d'alerter plus rapidement les secours. Selon l'Europe, le temps d'intervention des pompiers et du Samu sera réduit "de 50% en zones rurales et de 40% en zones urbaines". Selon Bruxelles, quelque 2500 vies pourraient être ainsi sauvées chaque année

     

  • Passionnant!

    Perception, conscience et intelligence existent avant la naissance !

    Le 19 avril dernier, une équipe de recherche franco-danoise, dirigée par Sid Kouider, du Laboratoire de Sciences Cognitives et Psycholinguistique (ENS Paris, CNRS) publiait dans la prestigieuse revue " Science ", un article qui a eu un grand retentissement au sein de la communauté scientifique internationale.

    Cette étude, intitulée " Découverte d’un marqueur neuronal de la perception consciente chez le nouveau-né " (LSCP), a, pour la première fois, établi de manière rigoureuse l’existence chez le nourrisson d’une réponse cérébrale à des stimuli extérieurs, identique à celle des adultes.

    Les chercheurs sont parvenus à cette surprenante conclusion en analysant l’activité cérébrale de bébés de 5 à 15 mois. Au cours de ces expérimentations, ils ont pu montrer que l’enchaînement des événements neurologiques entraînés par la vision, même très brève, d’un visage, s’effectue de manière identique chez ces nourrissons et chez les adultes.

    Ces scientifiques savaient déjà que, chez l’adulte, ces marqueurs de la conscience montraient l’existence d’un mécanisme à double détente, aboutissant à la perception d’un évènement extérieur.  Dans un premier temps, la réponse du cerveau est non-consciente et se traduit par une activité cérébrale linéaire. Mais dans une deuxième phase, au bout d’environ 0,3 seconde, cette activité connaît une brusque rupture qui correspond, selon les scientifiques, à l’apparition de la conscience.

    Pour connaître le niveau de perception et de conscience exacte de ces nourrissons, les chercheurs ont mesuré l’activité électrique du cerveau de 80 bébés, âgés de cinq à 15 mois, exposés à des visages qui leur étaient soumis plus ou moins brièvement.

    Les résultats sont étonnants puisque l’étude précise que " Pour tous les groupes d’âge, il a été observé la même réponse tardive et non-linéaire que chez les adultes, confirmant la présence de cette signature neuronale de la conscience chez ces nourrissons ".

    Ce mécanisme de la conscience perceptive chez les bébés fonctionne juste un peu plus lentement que chez les adultes, se déclenchant au bout d’une seconde, au lieu d’un tiers de seconde chez l’adulte. Mais il ne s’agit pas d’une différence de nature quant au mécanisme fondamental à l’œuvre dans le cerveau.

    Sid Kouider, le jeune et brillant chercheur qui a dirigé ces travaux, précise que la conscience dont il est question dans ces expériences est une conscience perceptive, une conscience primaire. Il ne s’agit pas de la conscience réflexive qui apparaît plus tard et permet au sujet de se concevoir comme séparé du monde qui l’entoure.

    Mais, comme le précise ce scientifique " Nous pouvons, à l’issue de ces expériences, affirmer que les bébés possèdent des mécanismes d’accès à la conscience".

    Cette découverte fondamentale confirme et prolonge de récentes recherches qui démontrent les étonnantes capacités de raisonnement abstrait et probabiliste des nouveau-nés et même des prématurés.

    Des chercheurs du CNRS dirigé par Vittorio Girotto ont par exemple montré (CNRS) dans une étude publiée en mai 2011 dans la revue " Science ", que les bébés sont capables, à partir d’un an, alors qu’ils ne savent pas encore parler, d’utiliser une faculté cognitive que l’on croyait réservée à des enfants beaucoup plus âgés : la prévision rationnelle, dans un environnement complexe et inconnu, d’événements possibles, en s’appuyant sur un calcul de probabilités.

    Pour parvenir à ce constat qui a beaucoup étonné la communauté scientifique, ces chercheurs ont montré de petits films à 60 bébés âgés d’environ un an.

    Dans ces vidéos, les bébés pouvaient voir un ensemble d’objets ayant différentes formes et différentes couleurs rebondir dans un récipient transparent dont le fond pouvait s’ouvrir. Ce récipient était ensuite masqué. Quand le fond s’ouvrait, les bébés pouvaient voir l’un des objets en sortir.

    Les chercheurs ont alors mesuré la durée de l’attention des enfants face aux différentes scènes, en supposant que ces bébés regarderaient plus longtemps un événement qu’ils considéraient comme inattendu et improbable.

    Et c’est exactement ce qui s’est passé puisque les différences de niveau d’attention constatées montraient clairement que ces enfants faisaient des prédictions probabilistes correctes et étaient surpris lorsqu’ils voyaient sortir du récipient des objets qui ne correspondaient pas à leurs prévisions.

    Ces travaux, comme ceux de Sid Kouider, ont fait l’effet d’une petite bombe dans le domaine des sciences cognitives car ils remettent en cause une partie du cadre théorique de référence concernant le développement cognitif de l’enfant, formulée par Jean Piaget, il y a plus d’un demi-siècle. Celui-ci, dans sa description des différentes phases de la construction cognitive chez l’enfant, considéraient en effet qu’une telle faculté n’était pas en place avant l’âge de sept ans.

    En avril 2012, une autre découverte étonnante, réalisé par des chercheurs du CNRS, dirigés par Édouard Gentaz, est venue également bousculer la conception généralement admise des capacités cognitives chez les bébés. (NCBI).

    Cette étude a en effet montré que les prématurés, dès la 31e semaine de grossesse, sont capables de reconnaître avec une main un objet déjà manipulé par l’autre main. Ces observations expérimentales montrent qu’une aire cérébrale impliquée dans le transfert d’informations, le corps calleux, est déjà opérationnelle chez ces enfants nés avant terme.

    Il y a trois ans, la même équipe de recherche avait déjà montré pour la première fois que les prématurés étaient capables de mémoriser la forme des objets à partir de l’information tactile que ces bébés parvenaient à en extraire…

    Il faut également évoquer une autre étude, publiée en février 2013 et réalisée par une équipe associant des chercheurs de l’Inserm, du CEA et du NeuroSpin. Ces recherches, dirigées par Fabrice Wallois et Ghislaine Dehaene-Lambertz, visaient à évaluer les capacités de discrimination auditive de nouveaux-nés prématurés, nés deux à trois mois avant le terme. (Voir " Capacités de discrimination syllabique chez les enfants prématurés " (INSERM)

    Certaines études avaient déjà montré que les nouveaux-nés étaient capables, à la naissance, de distinguer des syllabes proches, de reconnaître la voix de leur mère et même de différencier diverses langues humaines. Mais le débat se poursuivait au sein de la communauté scientifique pour savoir si ces capacités chez les bébés résultaient de mécanismes innés d’aptitude au langage, ou étaient le résultat d’un apprentissage des spécificités de la voix maternelle au cours des dernières semaines de grossesse

    Des expériences réalisées dans le cadre de cette étude ont montré que ces enfants prématurés possédaient déjà une capacité d’identification d’un changement de syllabe et de repérage d’un nouveau son, ce qui montre que les fœtus disposent bien, avant la naissance, de capacités intrinsèques d’acquisition du langage.

    Pour parvenir à ces conclusions étonnantes, les chercheurs ont stimulé auditivement les nouveau-nés prématurés, en les exposant à deux sons de syllabes proches, prononcées, soit par un homme, soit par une femme. Les réactions cérébrales de ces enfants ont ensuite été analysées à l’aide d’un système d’imagerie optique utilisant la spectroscopie. C’est cette analyse qui a permis de montrer qu’en dépit d’un cerveau immature, les prématurés sont à la fois réceptifs aux changements de voix (homme ou femme) et aux changements de phonèmes.

    Ces travaux ont également montré que les réseaux de neurones mobilisés par ces aptitudes chez le prématuré sont très proches de ceux à l’œuvre chez le sujet adulte.

    Il semble donc, à la lumière de ces récentes expériences, qu’avant même qu’un apprentissage quelconque ait pu produire ses effets, le cerveau du fœtus est déjà équipé pour pouvoir " décoder " et traiter le type d’information correspondant à la parole humaine.

    Ces travaux passionnants et ces avancées majeures dans la connaissance de la construction cognitive chez le jeune enfant tendent à confirmer la théorie d’une grammaire générative, innée et universelle formulée par le philosophe et linguiste américain Noam Chomsky, il y a plus de 50 ans.

    Dans cette hypothèse, que Chomsky n’a cessé d’enrichir et de compléter au fil des décennies, la grammaire générative est conçue comme un système de règles grammaticales permettant de générer toutes les phrases de la langue.

    Les travaux de Chomsky ont non seulement bouleversé la linguistique mais également l’ensemble des sciences cognitives et partent d’un constat empirique : comment se fait-il qu’un très jeune enfant puisse produire et comprendre instantanément de nouvelles phrases qui sont différentes de toutes celles qu’il a déjà entendues, à la fois en termes de prononciation et d’intonation et sur le plan de la structure et de l’organisation.

    L’idée maîtresse de Chomsky est que cette remarquable capacité d’acquisition linguistique repose sur l’utilisation par l’enfant d’une " grammaire générative " innée et génétiquement programmée qui va permettre à l’enfant de développer très précocement et même in utero des capacités linguistiques inexplicables dans le seul cadre de l’apprentissage et de l’environnement.

    Pour autant, cette approche " nativiste ", qui semble confortée par les récentes découvertes des sciences cognitives, rend-elle caduque et inopérante l’approche constructiviste chère à Jean Piaget.

    La réponse est non car un nombre croissant de chercheurs considèrent aujourd’hui que cette opposition scientifique, épistémologique et philosophique entre " constructivistes " et " nativistes " doit être dépassée.

    Il n’est en effet pas contradictoire, ni incohérent d’admettre que le nouveau-né dispose déjà d’un extraordinaire outil d’analyse cognitive, sans doute génétiquement programmé, qui lui permet déjà de réaliser des opérations de calcul et d’évaluation abstraite et d’accéder très tôt au sens du langage  et qu’il va ensuite développer et modifier tout au long de sa vie, son propre système d’appréhension mental, cognitif et symbolique du monde, en fonction de son histoire affective, corporelle, sociale et culturelle singulière.

    C’est bien pourquoi, en dépit de l’extraordinaire viatique cérébral et cognitif dont nous disposons, avant même notre naissance, nous ne cessons de commettre au cours de notre vie des erreurs de raisonnement, de prendre des décisions illogiques et de faire des choix non prévisibles.

    En effet, comme l’avait bien vu Piaget et comme l’ont développé depuis de grands scientifiques comme Antonio Damasio, qui refusent une vision neurobiologique réductrice de l’homme, notre esprit s’inscrit dans un corps et son fonctionnement, même dans les domaines les plus abstraits et les plus logiques, n’est jamais séparable du monde infini de perception, d’émotions et de sensations qui nous entoure et des liens affectifs que nous ne cessons de tisser avec les autres.

    Loin de nous réduire à des êtres qui seraient essentiellement déterminés par leurs gènes, ou au contraire de faire de l’homme, une entité désincarnée, dont la dimension biologique serait effacée, ces découvertes majeures et convergentes dans le domaine des sciences cognitives montrent que notre extraordinaire capacité à penser et à construire notre représentation du monde est inséparable de cette unité retrouvée entre corps et esprit et de cette spirale ascendante qui va de la vie à la conscience et par laquelle nous construisons notre irréductible liberté.

  • Hier, aujourd'hui, demain, l'homme sera-t-il?

    Stopper la montée de l’insignifiance

    IL manque la voix de Cornelius Castoriadis, ce dissident essentiel, en ces temps de" non-pensée". Il n’a pas sombré dans le renoncement esthète, ni dans le cynisme ni dans cette apathie repue qui dit :" Tout se vaut, tout est vu, tout est vain."  Il dénonce une élite politique réduite à appliquer l’intégrisme néolibéral, mais souligne aussi la responsabilité du" citoyen" que la précarité désengage de l’activité civique. Silencieusement, s’est mise en place cette formidable régression : une non-pensée produisant cette non-société, ce racisme social. Jusqu’au bout Castoriadis a recherché une radicalité :" Je suis un révolutionnaire favorable à des changements radicaux, disait-il quelques semaines avant sa mort.  Je ne pense pas que l’on puisse faire marcher d’une manière libre, égalitaire et juste le système français capitaliste tel qu’il est."

    par Cornelius Castoriadis, août 1998

    Ce qui caractérise le monde contemporain ce sont, bien sûr, les crises, les contradictions, les oppositions, les fractures, mais ce qui me frappe surtout, c’est l’insignifiance. Prenons la querelle entre la droite et la gauche. Elle a perdu son sens. Les uns et les autres disent la même chose. Depuis 1983, les socialistes français ont fait une politique, puis M. Balladur a fait la même politique ; les socialistes sont revenus, ils ont fait, avec Pierre Bérégovoy, la même politique ; M. Balladur est revenu, il a fait la même politique ; M. Chirac a gagné l’élection de 1995 en disant :" Je vais faire autre chose" et il a fait la même politique.

    Les responsables politiques sont impuissants. La seule chose qu’ils peuvent faire, c’est suivre le courant, c’est-à-dire appliquer la politique ultralibérale à la mode. Les socialistes n’ont pas fait autre chose, une fois revenus au pouvoir. Ce ne sont pas des politiques, mais des politiciens au sens de micropoliticiens. Des gens qui chassent les suffrages par n’importe quel moyen. Ils n’ont aucun programme. Leur but est de rester au pouvoir ou de revenir au pouvoir, et pour cela ils sont capables de tout.

    Il y a un lien intrinsèque entre cette espèce de nullité de la politique, ce devenir nul de la politique et cette insignifiance dans les autres domaines, dans les arts, dans la philosophie ou dans la littérature. C’est cela l’esprit du temps. Tout conspire à étendre l’insignifiance.

    La politique est un métier bizarre. Parce qu’elle présuppose deux capacités qui n’ont aucun rapport intrinsèque. La première, c’est d’accéder au pouvoir. Si on n’accède pas au pouvoir, on peut avoir les meilleures idées du monde, cela ne sert à rien ; ce qui implique donc un art de l’accession au pouvoir. La seconde capacité, c’est, une fois qu’on est au pouvoir, de savoir gouverner.

    Rien ne garanti que quelqu’un qui sache gouverner sache pour autant accéder au pouvoir. Dans la monarchie absolue, pour accéder au pouvoir il fallait flatter le roi, être dans les bonnes grâces de Mme de Pompadour. Aujourd’hui dans notre" pseudo- démocratie", accéder au pouvoir signifie être télégénique, flairer l’opinion publique.

    Je dis" pseudo-démocratie" parce que j’ai toujours pensé que la démocratie dite représentative n’est pas une vraie démocratie. Jean-Jacques Rousseau le disait déjà : les Anglais croient qu’ils sont libres parce qu’ils élisent des représentants tous les cinq ans, mais ils sont libres un jour pendant cinq ans, le jour de l’élection, c’est tout. Non pas que l’élection soit pipée, non pas qu’on triche dans les urnes. Elle est pipée parce que les options sont définies d’avance. Personne n’a demandé au peuple sur quoi il veut voter. On lui dit :" Votez pour ou contre Maastricht". Mais qui a fait Maastricht ? Ce n’est pas le peuple qui a élaboré ce traité.

    Il y a la merveilleuse phrase d’Aristote :" Qui est citoyen ? Est citoyen quelqu’un qui est capable de gouverner et d’être gouverné." Il y a des millions de citoyens en France. Pourquoi ne seraient-ils pas capables de gouverner ? Parce que toute la vie politique vise précisément à le leur désapprendre, à les convaincre qu’il y a des experts à qui il faut confier les affaires. Il y a donc une contre-éducation politique. Alors que les gens devraient s’habituer à exercer toutes sortes de responsabilités et à prendre des initiatives, ils s’habituent à suivre ou à voter pour des options que d’autres leur présentent. Et comme les gens sont loin d’être idiots, le résultat, c’est qu’ils y croient de moins en moins et qu’ils deviennent cyniques.

    Dans les sociétés modernes, depuis les révolutions américaine (1776) et française (1789) jusqu’à la seconde guerre mondiale (1945) environ, il y avait un conflit social et politique vivant. Les gens s’opposaient, manifestaient pour des causes politiques. Les ouvriers faisaient grève, et pas toujours pour de petits intérêts corporatistes. Il y avait de grandes questions qui concernaient tous les salariés. Ces luttes ont marqué ces deux derniers siècles.

    On observe un recul de l’activité des gens. C’est un cercle vicieux. Plus les gens se retirent de l’activité, plus quelques bureaucrates, politiciens, soi-disant responsables, prennent le pas. Ils ont une bonne justification :" Je prends l’initiative parce que les gens ne font rien."  Et plus ils dominent, plus les gens se disent :" C’est pas la peine de s’en mêler, il y en a assez qui s’en occupent, et puis, de toute façon, on n’y peut rien."

    La seconde raison, liée à la première, c’est la dissolution des grandes idéologies politiques, soit révolutionnaires, soit réformistes, qui voulaient vraiment changer des choses dans la société. Pour mille et une raisons, ces idéologies ont été déconsidérées, ont cessé de correspondre aux aspirations, à la situation de la société, à l’expérience historique. Il y a eu cet énorme événement qu’est l’effondrement de l’URSS en 1991 et du communisme. Une seule personne, parmi les politiciens - pour ne pas dire les politicards - de gauche, a-t-elle vraiment réfléchi sur ce qui s’est passé ? Pourquoi cela s’est- il passé et qui en a, comme on dit bêtement, tiré des leçons ? Alors qu’une évolution de ce type, d’abord dans sa première phase - l’accession à la monstruosité, le totalitarisme, le Goulag, etc. - et ensuite dans l’effondrement, méritait une réflexion très approfondie et une conclusion sur ce qu’un mouvement qui veut changer la société peut faire, doit faire, ne doit pas faire, ne peut pas faire. Rien !

    Et que font beaucoup d’intellectuels ? Ils ont ressorti le libéralisme pur et dur du début du XIXe siècle, qu’on avait combattu pendant cent cinquante ans, et qui aurait conduit la société à la catastrophe. Parce que, finalement, le vieux Marx n’avait pas entièrement tort. Si le capitalisme avait été laissé à lui-même, il se serait effondré cent fois. Il y aurait eu une crise de surproduction tous les ans. Pourquoi ne s’est-il pas effondré ? Parce que les travailleurs ont lutté, ont imposé des augmentations de salaire, ont créé d’énormes marchés de consommation interne. Ils ont imposé des réductions du temps de travail, ce qui a absorbé tout le chômage technologique. On s’étonne maintenant qu’il y ait du chômage. Mais depuis 1940 le temps de travail n’a pas diminué.

    Les libéraux nous disent :" Il faut faire confiance au marché." Mais les économistes académiques eux-mêmes ont réfuté cela dès les années 30. Ces économistes n’étaient pas des révolutionnaires, ni des marxistes ! Ils ont montré que tout ce que racontent les libéraux sur les vertus du marché, qui garantirait la meilleure allocation possible des ressources, la distribution des revenus la plus équitable, ce sont des aberrations ! Tout cela a été démontré. Mais il y a cette grande offensive économico- politique des couches gouvernantes et dominantes qu’on peut symboliser par les noms de M. Reagan et de Mme Thatcher, et même de François Mitterrand ! Il a dit :" Bon, vous avez assez rigolé. Maintenant, on va vous licencier", on va éliminer la" mauvaise graisse", comme avait dit M. Juppé !" Et puis vous verrez que le marché, à la longue, vous garantit le bien-être." A la longue. En attendant, il y a 12,5 % de chômage officiel en France !

    La crise n’est pas une fatalité

    ON a parlé d’une sorte de terrorisme de la pensée unique, c’est-à-dire une non-pensée. Elle est unique en ce sens qu’elle est la première pensée qui soit une non-pensée intégrale. Pensée unique libérale à laquelle nul n’ose s’opposer. Qu’était l’idéologie libérale à sa grande époque ? Vers 1850, c’était une grande idéologie parce qu’on croyait au progrès. Ces libéraux-là pensaient qu’avec le progrès il y aurait élévation du bien-être économique. Même quand on ne s’enrichissait pas, dans les classes exploitées, on allait vers moins de travail, vers des travaux moins pénibles : c’était le grand thème de l’époque. Benjamin Constant le dit :" Les ouvriers ne peuvent pas voter parce qu’ils sont abrutis par l’industrie [il le dit carrément, les gens étaient honnêtes à l’époque !],  donc il faut un suffrage censitaire."

    Par la suite, le temps de travail a diminué, il y a eu l’alphabétisation, l’éducation, des espèces de Lumières qui ne sont plus les Lumières subversives du XVIIIe siècle mais des Lumières qui se diffusent tout de même dans la société. La science se développe, l’humanité s’humanise, les sociétés se civilisent et petit à petit on arrivera à une société où il n’y aura pratiquement plus d’exploitation, où cette démocratie représentative tendra à devenir une vraie démocratie.

    Mais cela n’a pas marché ! Donc les gens ne croient plus à cette idée. Aujourd’hui ce qui domine, c’est la résignation ; même chez les représentants du libéralisme. Quel est le grand argument, en ce moment ?" C’est peut-être mauvais mais l’autre terme de l’alternative était pire." Et c’est vrai que cela a glacé pas mal les gens. Ils se disent :" Si on bouge trop, on va vers un nouveau Goulag." Voilà ce qu’il y a derrière cet épuisement idéologique et on n’en sortira que si vraiment il y a une résurgence d’une critique puissante du système. Et une renaissance de l’activité des gens, d’une participation des gens.

    Çà et là, on commence quand même à comprendre que la" crise" n’est pas une fatalité de la modernité à laquelle il faudrait se soumettre," s’adapter" sous peine d’archaïsme. On sent frémir un regain d’activité civique. Alors se pose le problème du rôle des citoyens et de la compétence de chacun pour exercer les droits et les devoirs démocratiques dans le but - douce et belle utopie - de sortir du conformisme généralisé.

    Pour en sortir, faut-il s’inspirer de la démocratie athénienne ? Qui élisait-on à Athènes ? On n’élisait pas les magistrats. Ils étaient désignés par tirage au sort ou par rotation. Pour Aristote, souvenez-vous, un citoyen, c’est celui qui est capable de gouverner et d’être gouverné. Tout le monde est capable de gouverner, donc on tire au sort. La politique n’est pas une affaire de spécialiste. Il n’y a pas de science de la politique. Il y a une opinion, la  doxa des Grecs, il n’y a pas d’épistémè (1).

    L’idée selon laquelle il n’y a pas de spécialiste de la politique et que les opinions se valent est la seule justification raisonnable du principe majoritaire. Donc, chez les Grecs, le peuple décide et les magistrats sont tirés au sort ou désignés par rotation. Pour les activités spécialisées - construction des chantiers navals, des temples, conduite de la guerre -, il faut des spécialistes. Ceux-là, on les élit. C’est cela, l’élection. Election veut dire" choix des meilleurs". Là intervient l’éducation du peuple. On fait une première élection, on se trompe, on constate que, par exemple, Périclès est un déplorable stratège, eh bien on ne le réélit pas ou on le révoque.

    Mais il faut que la doxa soit cultivée. Et comment une doxa concernant le gouvernement peut-elle être cultivée ? En gouvernant. Donc la démocratie - c’est important - est une affaire d’éducation des citoyens, ce qui n’existe pas du tout aujourd’hui.

    « Se reposer ou être libre"

    RÉCEMMENT, un magazine a publié une statistique indiquant que 60 % des députés, en France, avouent ne rien comprendre à l’économie. Des députés qui décident tout le temps ! En vérité, ces députés, comme les ministres, sont asservis à leurs techniciens. Ils ont leurs experts, mais ils ont aussi des préjugés ou des préférences. Si vous suivez de près le fonctionnement d’un gouvernement, d’une grande bureaucratie, vous voyez que ceux qui dirigent se fient aux experts, mais choisissent parmi eux ceux qui partagent leurs opinions. C’est un jeu complètement stupide et c’est ainsi que nous sommes gouvernés.

    Les institutions actuelles repoussent, éloignent, dissuadent les gens de participer aux affaires. Alors que la meilleure éducation en politique, c’est la participation active, ce qui implique une transformation des institutions qui permette et incite à cette participation.

    L’éducation devrait être beaucoup plus axée vers la chose commune. Il faudrait comprendre les mécanismes de l’économie, de la société, de la politique, etc. Les enfants s’ennuient en apprenant l’histoire alors que c’est passionnant. Il faudrait enseigner une véritable anatomie de la société contemporaine, comment elle est, comment elle fonctionne. Apprendre à se défendre des croyances, des idéologies.

     

    Aristote a dit :" L’homme est un animal qui désire le savoir." C’est faux. L’homme est un animal qui désire la croyance, qui désire la certitude d’une croyance, d’où l’emprise des religions, des idéologies politiques. Dans le mouvement ouvrier, au départ, il y avait une attitude très critique. Prenez le deuxième couplet de  L’Internationale, le chant de la Commune :" Il n’est pas de Sauveur suprême, ni Dieu - exit la religion -  ni César, ni tribun" - exit Lénine !

    Aujourd’hui, même si une frange cherche toujours la foi, les gens sont devenus beaucoup plus critiques. C’est très important. La scientologie, les sectes, ou le fondamentalisme, c’est dans d’autres pays, pas chez nous, pas tellement. Les gens sont devenus beaucoup plus sceptiques. Ce qui les inhibe aussi pour agir.

    Périclès dans le discours aux Athéniens dit :" Nous sommes les seuls chez qui la réflexion n’inhibe pas l’action." C’est admirable ! Il ajoute :" Les autres, ou bien ils ne réfléchissent pas et ils sont téméraires, ils commettent des absurdités, ou bien, en réfléchissant, ils arrivent à ne rien faire parce qu’ils se disent, il y a le discours et il y a le discours contraire." Actuellement, on traverse une phase d’inhibition, c’est sûr. Chat échaudé craint l’eau froide. Il ne faut pas de grands discours, il faut des discours vrais.

    De toute façon il y a un irréductible désir. Si vous prenez les sociétés archaïques ou les sociétés traditionnelles, il n’y a pas un irréductible désir, un désir tel qu’il est transformé par la socialisation. Ces sociétés sont des sociétés de répétition. On dit par exemple :" Tu prendras une femme dans tel clan ou dans telle famille. Tu auras une femme dans ta vie. Si tu en as deux, ou deux hommes, ce sera en cachette, ce sera une transgression. Tu auras un statut social, ce sera ça et pas autre chose."

    Or, aujourd’hui, il y a une libération dans tous les sens du terme par rapport aux contraintes de la socialisation des individus. On est entré dans une époque d’illimitation dans tous les domaines, et c’est en cela que nous avons le désir d’infini. Cette libération est en un sens une grande conquête. Il n’est pas question de revenir aux sociétés de répétition. Mais il faut aussi - et c’est un très grand thème - apprendre à s’autolimiter, individuellement et collectivement. La société capitaliste est une société qui court à l’abîme, à tous points de vue, car elle ne sait pas s’autolimiter. Et une société vraiment libre, une société autonome, doit savoir s’autolimiter, savoir qu’il y a des choses qu’on ne peut pas faire ou qu’il ne faut même pas essayer de faire ou qu’il ne faut pas désirer.

    Nous vivons sur cette planète que nous sommes en train de détruire, et quand je prononce cette phrase je songe aux merveilles, je pense à la mer Egée, je pense aux montagnes enneigées, je pense à la vue du Pacifique depuis un coin d’Australie, je pense à Bali, aux Indes, à la campagne française qu’on est en train de désertifier. Autant de merveilles en voie de démolition. Je pense que nous devrions être les jardiniers de cette planète. Il faudrait la cultiver. La cultiver comme elle est et pour elle-même. Et trouver notre vie, notre place relativement à cela. Voilà une énorme tâche. Et cela pourrait absorber une grande partie des loisirs des gens, libérés d’un travail stupide, productif, répétitif, etc. Or cela est très loin non seulement du système actuel mais de l’imagination dominante actuelle. L’imaginaire de notre époque, c’est celui de l’expansion illimitée, c’est l’accumulation de la camelote - une télé dans chaque chambre, un micro-ordinateur dans chaque chambre -, c’est cela qu’il faut détruire. Le système s’appuie sur cet imaginaire- là.

    La liberté, c’est très difficile. Parce qu’il est très facile de se laisser aller. L’homme est un animal paresseux. Il y a une phrase merveilleuse de Thucydide :" Il faut choisir : se reposer ou être libre." Et Périclès dit aux Athéniens :" Si vous voulez être libres, il faut travailler." Vous ne pouvez pas vous reposer. Vous ne pouvez pas vous asseoir devant la télé. Vous n’êtes pas libres quand vous êtes devant la télé. Vous croyez être libres en zappant comme un imbécile, vous n’êtes pas libres, c’est une fausse liberté. La liberté, c’est l’activité. Et la liberté, c’est une activité qui en même temps s’autolimite, c’est- à-dire sait qu’elle peut tout faire mais qu’elle ne doit pas tout faire. C’est cela le grand problème de la démocratie et de l’individualisme.

    ( Propos recueillis par Daniel Mermet.Le texte intégral de cet entretien est disponible à : France-Inter, émission" Là-bas si j’y suis", pièce 5463, 116, avenue du Président-Kennedy, 75220 Paris Cedex 16. Sous le titre  Post-scriptum sur l’insignifiance, il sera publié fin 1998 aux Editions de l’Aube, 84240 La Tour-d’Aigues.)

    http://www.monde-diplomatique.fr/1998/08/CASTORIADIS/10826

    Cornelius Castoriadis

    Philosophe, sociologue, historien, Cornelius Castoriadis fut aussi économiste et psychanalyste." Un titan de la pensée, énorme, hors norme", a dit de lui Edgar Morin. Il est mort le 26 décembre 1997. Né en 1922 en Grèce, il s’installe à Paris en 1945, où il crée la revue  Socialisme ou barbarie. En 1968, avec Edgar Morin et Claude Lefort, il publie  Mai 68 : la brèche (Fayard, Paris). En 1975 paraît  L’Institution imaginaire de la société (Seuil, Paris), sans doute son ouvrage le plus important. En 1978, il entreprend la série  Les Carrefours du labyrinthe. C’est à la suite de la publication de  La Montée de l’insignifiance (Seuil, Paris, 1996) qu’il accorda un entretien, en novembre 1996, à Daniel Mermet, producteur de l’émission" Là-bas si j’y suis" sur France-Inter, d’où est tiré ce texte.

  • Peau foncée et yeux bleus, le portrait-robot d'un homme du Mésolithique révélé

    Peau foncée et yeux bleus, le portrait-robot d'un homme du Mésolithique révélé

    Le portrait-robot d'un homme du Mésolithique, vivant il y a 7 000 ans en Espagne, révèle des caractéristiques physiques étonnantes, à commencer par une peau foncée et des yeux bleus.

    Le portrait-robot de La Brana 1 a été réalisé à partir de l'ADN particulièrement bien conservé des deux squelettes découverts par hasard dans la province de Leon, au nord-ouest de l'Espagne, en 2006. Photo : CSIC

    1Meso.jpg

     

     

     

     

     

     

     

     

    Plutôt bel homme, un brun hipster. Le portrait-robot d'un homme du Mésolithique, vivant en Espagne il y a 7.000 ans, est assez éloigné de la représentation habituellement faite de nos ancêtres préhistoriques. Publié par la revue Nature, ce portrait a été établi par une équipe de chercheurs de l'Institut de Biologie évolutive de Barcelone, menée par Carles Lalueza-Fox, qui a séquencé pour la première fois le génome complet d'un chasseur-cueilleur européen.

    Une performance scientifique réalisée à partir d'une dent trouvée sur l'un des deux squelettes découverts dans la grotte de La Brana-Arintero, dans la province de Leon (nord-ouest de l'Espagne), en 2006. Contre toute attente, l'ADN de cet homme révèle des caractéristiques originales. Ainsi, il aurait eu la peau foncée, les cheveux bruns et des yeux bleus.

    Des caractéristiques proches des Européens du Nord

    "Ce phénotype rare n'existe pas dans les populations européennes contemporaines", a précisé Carles Lalueza-Fox. L'étude des caractéristiques de l'individu de La Brana a montré qu'il était génétiquement éloigné des populations européennes actuelles, mais pouvait être rapproché des caractéristiques génétiques des Européens du Nord d'aujourd'hui, tels que les Suédois ou les Finlandais.

    "Jusqu'à maintenant, on considérait que la couleur de peau claire avait évolué assez tôt en Europe, au Paléolithique supérieur, en lien avec les faibles rayonnements UV à haute latitude", a expliqué le directeur de recherches. "Mais ce n'est clairement pas le cas. Cette évolution est intervenue beaucoup plus tard, probablement au Néolithique (il y a entre 11 000 et 5000 ans, ndlr)", selon lui.

    Une évolution qui peut être liée au changement de régime alimentaire. L'individu de La Brana était ainsi porteur d'une variation génétique ancestrale produisant une intolérance au lactose. Pas de lait, donc, contrairement aux éleveurs qui apparaissent progressivement, et sans doute peu de céréales en raison d'une inadaptation génétique à un régime riche en amidon, selon les chercheurs. Une hypothèse à modérer néanmoins, puisque l'étude de l'ADN de cet homme a révélé qu'il possédait déjà des caractéristiques génétiques, lui offrant une certaine forme de résistance, présentes chez les Européens modernes.

  • J'ai été 15 ans photograveur offset... donc, je m'intéresse... N. de la rédactrice

    D’où vient le signe @ ? l’épopée de l’arobase.

    Par Guillaume Nicoulaud.

    Une adresse e-mail est composée de trois éléments essentiels. Le premier est l’identifiant de l’utilisateur, le troisième est le nom de domaine et le second, celui qui fait la jointure entre les deux, c’est le désormais omniprésent signe @.

    Pourquoi donc ce signe et d’où peut-il bien venir ?

    Pour le savoir, il va nous falloir suivre sa trace en commençant par ce beau jour de 1971 où Ray Tomlinson, l’ingénieur américain qui a inventé et envoyé le premier message électronique de l’histoire, va décider d’utiliser ce symbole plutôt qu’un autre. Quand on lui demande la raison de ce choix, la réponse de Tomlinson est d’une désarmante logique : le symbole @ présentait le double avantage de ne pas être ambiguë (on ne risquait pas de le confondre avec le nom de l’utilisateur ou celui du domaine) et de " faire sens " puisque, chez nos amis anglo-saxons, il était déjà largement compris comme signifiant at (à) de telle sorte que user@domain se lit intuitivement " user at domain " ; ce qui, vous en conviendrez, tombe assez bien.

    Le signe-at (@), donc, était déjà en usage chez les anglo-saxons bien avant que le premier e-mail ne soit envoyé et, plus précisément, il était fréquemment utilisé par les commerçants pour désigner le prix unitaire d’un produit : bien avant 1971, " 10 chickens @ $5″ signifiait déjà et très précisément 10 poulets à 5 dollars l’un. Mais avant que l’informatique ne lui offre son heure de gloire, le at commercial restait tout de même d’un usage relativement confidentiel ; on trouve bien quelques polices de caractères et machines à écrire (dès les années 1880 aux États-Unis) qui l’avaient prévu mais, pour l’essentiel, il semble que le @ ait surtout été longtemps manuscrit.

     

    keyboard-660x285.jpg

     

     

     

     

    Pendant très longtemps à vrai dire. Parce que notre at commercial, voyez-vous, ne date ni d’hier, ni du XIXe siècle : on en trouve la trace jusqu’au XVIe siècle ! Où ça ? Eh bien toujours chez les marchands mais les italiens cette fois-ci. James Mosley, dans son excellent papier consacré au sujet, en propose quelques exemples ; je publie ici sa reproduction d’un document daté de 1569 où l’on peut lire " … la valuta di libre centouinticinque di seta calabrese presa da noi @ Ragion di [scudi] tre la libra per pagar a tempo dj xviij mesi proximi @ venire " ; c’est-à-dire " la valeur de cent vingt-cinq livres de soie calabraise, obtenue de nous @ raison de trois scudi par livre, à payer dans les dix-huit mois prochains @ venir. "

     arrobe-660x192.jpg

     

     

    Cresci - Perfetto scrittore 1569 2 bw - 2

    Reproduction d’un document italien de 1569 (Cresci, Il perfetto scrittore, H.T. James Mosley).

    Le @, signifiant " à " (ou at en anglais) existait donc déjà au XVIe siècle, c’est une certitude, et il semble bien qu’il ait été utilisé avec à peu près la même signification un peu partout en Europe. De là, on est en droit de se demander comment ce symbole s’est diffusé de Venise à Londres. Bien sûr, le fait qu’il soit utilisé par des marchands peut porter une part d’explication mais il existe aussi une autre possibilité : le latin.

    Eh oui, le latin, véhiculé par les moines copistes reste, encore à cette époque, la langue qui unit toute l’Europe et il se trouve qu’en latin, notre @ se serait dit ad. Jetez un coup d’œil sur la graphie onciale et vous admettrez que la ligature du a et du d a quelques solides chances de donner un @ – surtout quand on se souvient que celle du e et du t nous a donné l’esperluette (&). Ce n’est, bien sûr, que pure conjecture mais il n’en reste pas moins que les moines utilisaient bel et bien le @ dès le XIIe siècle :

     

    amin-660x173.jpg

     

     

    Traduction des Chroniques de Constantin Manassès (Codex Vaticano Slavo 2, c. 1345).

     Quand au mot arobase, il nous vient du castillan arroba, unité de poids et de capacité en vigueur dans la péninsule ibérique depuis au moins 1088 ; l’arroba (pluriel : arrobas), dont le nom est lui-même tiré de l’arabe الربع (" le quart "), valait un quart de quintal de 100 livres – soit 10,4 kilos en Catalogne, 11,5 en Castille et 12,5 en Aragon – ou, en certaines occasions, de 12,5 à 16 litres en fonction du liquide. D’ailleurs, le Dictionnaire de l’Académie Françoise dans sa version de 1798 :

    " ARROBE. s. mas. Mesure de poids, usitée dans les possessions d’Espagne et de Portugal, et qui varie suivant les différens lieux. Vingt arrobes de sucre. "

    Mais alors, me direz-vous, par quel miracle en sommes-nous venus à nommer arobase (ou arrobe si ça vous amuse) ce signe @ qui, de toute évidence, signifiait ordinairement ad, a, à ou at ?

    Eh bien c’est fort simple : il se trouve que l’arroba castillane était, elle-aussi, symbolisée par un @ tout comme le symbole du réal était un r également enveloppé. Lorsque, à partir de 1971, les Espagnols ont redécouvert le symbole @, il lui ont tout naturellement redonné son ancien nom, arroba, et nous-autres Français, avons fait de même avec notre arrobase.

    Cresci-Perfetto-scrittore-1569-2-bw-2-660x333.jpg

     

     

     

     

    Document espagnol écrit en 1775 (H.T. Peter Gabor).

    C’est de là d’ailleurs que vient toute la confusion qu’a jeté la fameuse lettre de Francesco Lapi ; laquelle, écrite le 4 mai 1536, est réputée contenir la plus ancienne trace non monacale de notre @. Le castillan, en effet, utilise deux fois le symbole : une première fois en tant que ad dans la date (" @ 4 di maggio 1536″) et une seconde fois comme symbole de l’anfora (je vous laisse deviner l’étymologie), une unité de mesure italienne plus ou moins équivalente à l’arroba. D’où la confusion.

    Bref, ni arobase, ni arrobe ne sont appropriés : le véritable nom du @ en français, c’est le signe à.

    MERCI à la personne qui a écrit cet article; du temps où je travaillais en imprimerie (à Toulouse) j'avais demandé à un typographe très âgé ce qu'était cet arobase... Il me l'avait expliqué en disant que c'était un très vieux signe français... mais, que c'était pas facile en typographie pour le représenter.

    Lorsque je donne mon adresse courriel, j'utilise le mot at et la majorité des gens me disent: c'est quoi ça? mais, c'est ainsi qu'il faut dire lorsque l'on a "quelques lettres".

    N'oubliez pas, de toutes façon, que pour les ouvriers typographes de l'imprimerie d'autrefois, ils se devaient d'avoir un bon caractère pour faire bonne impression! :-)

     

  • Prendre son pied (de mouche)

    D’où vient le pied-de-mouche ?

    L’origine du symbole ¶, que l’on nomme « pied de mouche », est bien plus ancienne qu’on ne le croit. Par Guillaume Nicoulaud.

    Vous avez sans doute remarqué qu’à la fin de chaque paragraphe, votre logiciel de traitement de texte affiche – pour peu que vous n’ayez pas désactivé l’option idoine – le symbole : ¶

    On l’appelle pied-de-mouche et, comme nous allons le voir ci-après, son origine est bien plus ancienne qu’on ne le croit. Voici ce à quoi ressemblait la transcription d’un discours prononcé par l’empereur Claude devant le Sénat romain en 48 (i.e. Table claudienne) :

    TOT.ECCE.INSIGNES.IVVENES.QVOT.INTVEOR.NON.MAGIS.SVNT.PAENITENDI.

    SENATORES.QVAM.PAENITET.PERSICVM.NOBILISSIMVM.VIRVM.AMICVM.MEVM.INTER.IMAGINES.

    MAIORVM.SVORVM.ALLOBROGICI.NOMEN.LEGERE.QVOD.SI.HAEC.ITA.ESSE.CONSENTITIS.QVID.

    VLTRA.DESIDERATIS.QVAM.VT.VOBIS.DIGITO.DEMONSTREM.SOLVM.IPSVM.VLTRA.FINES.

    PROVINCIAE.NARBONENSIS.IAM.VOBIS.SENATORES.MITTERE.QVANDO.EX.LVGVDVNO.HABERE.

    NOS.NOSTRI.ORDINIS.VIROS.NON.PAENITET.TIMIDE.QVIDEM.P.C.EGRESSVS.ADSVETOS.

    FAMILIARESQVE.VOBIS.PROVINCIARVM.TERMINOS.SVM.SED.DESTRICTE.IAM.COMATAE.

    GALLIAE.CAVSA.AGENDA.EST.IN.QVA.SI.QVIS.HOC.INTVETVR.QVOD.BELLO.PER.DECEM.

    ANNOS.EXERCVERVNT.DIVOM.IVLIVM.IDEM.OPPONAT.CENTVM.ANNORVM.IMMOBILEM.

    FIDEM.OBSEQVIVMQVE.MVLTIS.TREPIDIS.REBVS.NOSTRIS.PLVS.QVAM.EXPERTVM.

    Bref, il était grand temps d’inventer la ponctuation, d’insérer des espaces entre les mots, de clore les phrases par des points, de les rythmer à coup de virgules et de trouver un moyen de signaler au lecteur qu’à partir d’un point donné du texte, on change d’idée.

    Découper un texte par idée, justement, c’est la fonction de ce que nous appelons aujourd’hui un paragraphe, du grec paragraphos (παράγραφος), un signe en marge du texte dont l’utilisation est attestée dès le IVe siècle avant J.-C. et qui servait principalement à signaler un changement de sujet.

    De nos jours, nous matérialisons le passage d’un paragraphe à un autre par un saut de ligne. Seulement, pour nos ancêtres qui vivaient à une époque où le papier ou ce qui en tenait lieu (papyrus, parchemin &c.) coûtait fort cher, cette méthode n’était pas sans inconvénients ; raison pour laquelle les scribes, copistes et autres imprimeurs couchaient généralement leurs textes en pavés aussi serrés qu’ils étaient indigestes. Typiquement, la deuxième page du Pantagruel de François Rabelais (édition Claude Nourry, c.1530), ressemblait à ceci :

    pantagruel

    C’est à Rome que va commencer l’histoire de notre pied-de-mouche ; lorsque certains auteurs – Cicéron par exemple – vont prendre l’habitude d’inscrire un K pour signaler au lecteur qu’ils changent d’idée ; K pour kaput, la tête, et son diminutif capitulum, la « petite tête » ou, plus communément, le chapitre qui sera identifié par un C. Petit à petit, la préférence des latinistes pour le C romain par rapport au K étrusque va faire son œuvre et, vers le XIIe siècle, le premier l’emportera définitivement sur le second.

    Ce sont les moines copistes qui vont terminer le travail en rajoutant une ou deux barres verticales à ce C afin de le distinguer du reste du texte et qui vont en colorier l’intérieur pour qu’on le repère plus facilement. Le résultat, vous le trouverez notamment dans la Somme théologique de Saint Thomas d’Aquin (1477) :

     

    summa

    Ou, pour ne pas être injuste avec le typographe de l’œuvre pantagruélique de Rabelais :

    rabelais

    À partir du XVIe siècle, avec la généralisation de l’imprimerie, le pied-de-mouche va progressivement tomber en désuétude et être remplacé par retours à la ligne et autres alinéa. En 1825, Henri Fourier note dans son Traité de typographie que « le pied-de-mouche se plaçait en tête d’une remarque qu’on voulait détacher du corps de l’ouvrage » et qu’on « s’en servait plus particulièrement pour les livres de droit. » Il est probable qu’au cours de ces deux siècles qui sont aussi ceux où les langues vulgaires ont supplanté le latin, le C de capitulum ait subit sa dernière transformation en devenant une sorte de P (pour paragraphe) que l’on plaçait plutôt en fin de texte, comme pour justifier qu’il soit inversé.

    Eric Gill, un sculpteur britannique par ailleurs créateur de plusieurs polices de caractère (Perpetua par exemple), a bien tenté de remettre le pied-de-mouche au goût du jour dans An Essay on Typography (1931) mais sans succès et ce sont finalement les concepteurs de nos logiciels de traitement de texte moderne qui lui ont donné une nouvelle vie en faisant de lui ce fantôme, ce caractère invisible qui marque la fin de nos paragraphes mais n’est plus imprimé.

    gill

    Eric Gill, An Essay on Typography (1931)

    Sur le web.

    Notes :

    En anglais, le pied-de-mouche se nomme pilcrow ; selon Keith Houston, ce serait-là une déformation du moyen anglais pylcrafte qui serait lui-même une déformation de notre paragraphe.

    Si vous lisez l’anglais, Shady Character a publié une série de trois articles très fouillés sur le sujet (le premier, le le second et le troisième).