Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

22/11/2007

Les théories Darwiniennes de la diffusion des idées

Voici une vidéo (durée : 1h23, télécharger pour Realplayer) du site prolifique Canal-U (U comme universitaire) qui offrent de nombreux documents pédagogiques gratuits en ligne (conférences, reportages) dans divers domaines des sciences fondamentales aux sciences humaines en passant par l'art et l'histoire.

Depuis une trentaine d'années, les explications néo-darwiniennes de la diffusion des idées, des sentiments et des pratiques dans les sociétés humaines – autrement dit, de la culture, au sens large – se multiplient et connaissent un succès croissant. Aux yeux des théoriciens qui proposent de telles explications, les principes fondamentaux du néo-darwinisme ont vocation à s'étendre bien au-delà de la biologie : ils constitueraient les clés épistémologiques des sciences humaines et sociales. Toutefois, derrière cette référence affichée à un même paradigme biologique, ces théories de la culture présentent d'assez vifs contrastes, fréquemment brouillés au regard par les polémiques qu'elles ont soulevées. Outre les vues réductionnistes souvent fort sommaires proposées depuis les années 70 sous l'étiquette « sociobiologie humaine », que l'on n'évoquera pas ou peu ici, deux grands modèles peuvent être dégagés. Le premier, inspiré par les sciences cognitives, explique les phénomènes culturels en les ramenant, plus ou moins directement selon les cas, à des dispositions innées inscrites dans le cerveau et commandées par des gènes (S. Pinker, J. Tooby et L. Cosmides, ou D. Sperber). Le second, dont la version la plus célèbre est la théorie des « mèmes » de l'éthologue R. Dawkins, propose de rendre raison de la diffusion des idées et des pratiques dans les groupes sociaux en s'appuyant sur une analogie avec le mode de diffusion des gènes : les phénomènes culturels seraient le siège d'une évolution semblable dans ses principes à celle des gènes, mais totalement indépendante vis-à-vis d'eux. La conférence sera consacrée à la présentation et à la discussion générales de ces deux grands modèles explicatifs. Une attention toute particulière sera accordée au second, qui reste sans doute encore relativement méconnu en France.

17/11/2007

Le GEIPAN admet l'existence des OVNI

Le GEIPAN est un organisme du CNES (Centre national d'études spatiales) chargé de collecter, analyser et archiver les PAN (Phénomènes Aérospatiaux Non-Identifiés, désignant un OVNI pas forcément solide dans la terminologie du CNES). Jacques Patenet, le directeur, est invité à l'émission de France 5, au même moment où sont mis en ligne la quasi-intégralité des documents du GEIPAN.
Ca n'a pas trop de rapport avec la spiritualité, mais certainement avec les limites de la pensée athée...!
L'émission "C dans l'air" en 4 volets sur les OVNI :



05/11/2007

Big Bang, trous de vers, et univers parallèles

Les trous noirs sont-ils à l'origine de nouveaux Univers ?

Par Laurent Sacco, Futura-Sciences

Les équations de la gravitation quantique à boucles appliquées à la naissance de l’Univers semblent prédire un pré-Big Bang et une absence de singularité initiale. Appliqués à l’intérieur d’un trou noir, de nouveaux calculs conduisent à une conclusion similaire : les trous noirs seraient à l’origine d’autres Univers connectés au nôtre.

La physique et la cosmologie du XXième siècle ont été dominées par deux théories cadres importantes : la théorie de la relativité générale d’Einstein et la mécanique quantique. Malheureusement, ces deux théories décrivant l’une l’infiniment grand et l’autre l’infiniment petit entrent en contradiction lorsqu’on cherche à les appliquer simultanément dans deux situations où elles doivent intervenir : l’intérieur d’un trou noir et le début de l’Univers. Dans les deux cas on considère des régions de l’espace plus petites qu’une particule élémentaire et avec une courbure de l’espace-temps colossale.

Une idée proposée dès la fin des années 1950 suppose que, de la même manière que la mécanique quantique arrête l’effondrement d’un électron sur le noyau d’un atome et produit des niveaux d’énergies discrets, un traitement quantique de la géométrie de l’espace-temps éviterait l’effondrement de la matière à l’intérieur d’un trou noir et effacerait la singularité prédite par les équations de la relativité générale classique. Comme l’expansion de l’Univers dans le cadre de la théorie du Big Bang ressemble beaucoup à l’effondrement d’une étoile mais avec le sens du temps inversé, on s’attend à ce que là aussi la singularité de l’espace-temps, caractérisée par une valeur infinie de la courbure de celui-ci et une densité infinie de matière, disparaisse.

Récemment, en utilisant une des théories possibles pour unifier les lois de la gravitation d’Einstein et la mécanique quantique, la gravitation quantique à boucles ou Loop Quantum Gravity (LQG), Martin Bojowald avait prolongé un peu plus loin les travaux de ses collègues appliquant la LQG au problème du Big Bang.

Ses travaux de cosmologie quantique montraient en effet qu’une forme simplifiée et résolvable des équations de la LQG éliminait effectivement la singularité initiale du Big Bang. On pouvait même parler d’un « avant le Big Bang » constitué d’un cycle sans fin d’expansions et de contractions.

Comme d’autres, Christian Böhmer et Kevin Vandersloot ont alors entrepris d’utiliser l’analogie, géométrie de l’espace-temps interne d’un trou noir et géométrie d’un Univers en expansion, pour appliquer les nouvelles techniques de la LQG afin de tenter de mieux comprendre ce qu’il advient de la matière et de l’espace-temps à l’intérieur d’un trou noir.

Un espace-temps qui ne serait pas continu

Là encore, l’idée principale utilisée est celle d’une modification de la géométrie de l’espace-temps qui de continue devient discrète. Comme Lee Smolin et Carlo Rovelli l’ont montré en 1995, il apparaît en LQG tout comme en mécanique quantique des opérateurs pour les variables physiques. Comme l’on traite de géométrie quantique on a aussitôt affaire à des opérateurs de surface et de volume limitant les valeurs que peuvent prendre ces quantités quand on les applique à un modèle cosmologique ou un trou noir. 

 

Crédit : Universe review

Sur le schéma ci-dessus, on a représenté le spectre de ces opérateurs et on l’a comparé à celui d’un atome d’hydrogène. Le terme spectre rappelle que les valeurs discrètes de l’énergie d’un électron dans un atome sont responsables du spectre lumineux en forme de raies que celui-ci absorbe ou émet. Par analogie, en mécanique quantique, on parle de spectre pour l’ensemble des valeurs que peut prendre une grandeur physique. Sur ce schéma on remarque que le spectre  tend vers une distribution continue lorsque l’on considère de grandes valeurs de l’énergie ou du volume (Principe de correspondance de Bohr). Ainsi, au fur et à mesure que l’on se rapproche du monde macroscopique, la granularité quantique s’estompe et une description continue, approximative, devient de plus en plus précise.

Deux évolutions possibles pour la géométrie et la matière dans un trou noir ?

En transposant les approximations et les calculs numériques de Martin Bojowald, les deux chercheurs ont alors trouvé que la géométrie interne d’un trou noir pouvait être modifiée de deux façons, également surprenantes.

Dans le premier cas, une sorte de trou de vers se forme connectant l’intérieur du trou noir avec un autre noir. Une solution analogue était déjà connue en relativité générale classique, elle peut même s’interpréter comme un pont entre deux Univers. Mais ici, la singularité séparant les deux trous noirs a été éliminée, sans même faire intervenir de l’énergie exotique comme dans le cas de la solution trou de ver traversable découverte par Kip Thorne vers le milieu des années 1980. La nature quantique de l’espace-temps introduit automatiquement une force répulsive lissant la singularité classique qui disparaît.

Dans le deuxième cas, peut-être le plus fascinant, la métrique interne se change en celle d’un véritable Univers avec un volume pouvant être infini, quand bien même cela se traduit par un volume extérieur fini pour l’observateur extérieur au trou noir. La solution trouvée décrivant cet Univers ressemble beaucoup à ce qu’on appelle une solution  de Nariai, avec une constante cosmologique et une charge électrique globale pour ce modèle cosmologique découvert il y a longtemps en relativité générale classique.


La théorie du pré-Big Bang (PBB) de Veneziano-Gasperini-Damour propose que notre Univers provienne d'une précédente phase de contraction d'une portion d'un autre Univers. Dans la théorie standard à gauche le temps a un commencement. Dans la théorie PBB le temps n'a ni début ni fin. Crédit : Universe review

Ces résultats sont des avancées significatives, mais il ne s’agit encore que d’approximations de calculs de gravitation quantique. On peut penser qu’ils représentent un comportement générique et que les conclusions qu’on en tire ne seront pas notablement changées le jour où des calculs complets pourront être vraiment menés. Toutefois, il est intéressant de voir que la LQG retrouve des résultats similaires à ceux obtenus par Gabriele Veneziano, Maurizio Gasperini et Thibault Damour dans le cadre des approches de pré-Big-Bang avec les supercordes. Là aussi, l’intérieur d’un trou noir pourrait donner naissance à un autre Univers. 


Dans la théorie PBB, notre Univers s'est créé dans un certain type de trou noir dans un Multivers éternel et incréé. L'effondrement, une fois atteintes une densité limite pour la matière et une courbure limite pour l'espace-temps se change en expansion. Crédit : Universe review

Dans les deux cas, quand un état limite de haute densité de matière et de courbure de l’espace-temps est atteint, l’effondrement est stoppé par l’apparition d’une force répulsive et un autre Univers en expansion se crée à partir du nôtre par bourgeonnement, un peu comme une petite bulle qui gonflerait à la surface d’un ballon pour finir par créer deux Univers distincts, connectés par un petit raccord.

Comme l’a proposé Lee Smolin au cours des années 1990, les deux théories principales et concurrentes pour la gravitation quantique, la LQG et la théorie des supercordes, pourraient bien être complémentaires.

Une série d'Univers connectés par des trous de vers.
Une série d'Univers connectés par des trous de vers.


*******
Voir le documentaire sur la théorie des cordes

01/11/2007

Auto-évolution : La fin du néo-darwinisme ?

Voir Un nouveau paradigme en biologie, l'auto-évolution (2004) du site Automates Intelligents

Extrait :
[...]

Comment définir l'auto-évolution ?

Tout ceci fait que le temps n'est sans plus très loin où l'on pourra remplacer (en partie) l'algorithme néo-darwinien de la mutation au hasard/sélection par un concept ou paradigme autrement plus riche de perspectives, mais aussi, pour le moment, autrement plus confus, celui d'auto-évolution avec transmission sous condition de certains des caractères acquis. Comment définir l'auto-évolution ? On ne remettra pas en cause le principe de la sélection des plus aptes, qui est, comme on l'a souvent dit, une lapalissade indiscutable : ne survivent que ceux qui se révèlent mieux adaptés que les autres aux contraintes extérieures. Mais on admettra que les organismes individuels (phénotypes) au sein des espèces (génotypes) peuvent faire appel à un très grand nombre de mécanismes leur permettant de s'adapter pour leur compte à de nouvelles conditions de vie. Grâce à ces mécanismes, ils peuvent, nous l'avons dit, mieux valoriser les ressources dont ils disposent déjà, essentiellement en provoquant la synthèse de nouvelles protéines produisant de nouvelles résistances. Ainsi des plantes réfractaires au zinc peuvent, sans attendre que de nouvelles espèces résistantes apparaissent au terme d'éventuelles mutations accidentelles, survivre dans un milieu riche en zinc(2). L'ADN de certaines de leurs cellules dirige la synthèse de nouvelles enzymes leur permettent de supporter le zinc. De plus, cette capacité peut se transmettre à l'ADN germinal (celui du génotype) dont on disait jusqu'ici qu'il était réfractaire aux modifications subies par le phénotype. Ainsi une nouvelle espèce ou sous-espèce, voire de nombreuses autres plus ou moins différentes, peuvent apparaître dans le temps d'une génération. On conçoit, surtout quand il s'agit d'espèces simples comme les bactéries, que la diversité biologique devienne vite proliférante et dangereuse pour les espèces supérieures. C'est sur cette prolifération que s'exerce la sélection.

On peut prendre une image pour montrer en quoi l'auto-évolution, ainsi conçue, diffère de l'évolution sur le mode de la mutation au hasard (éventuellement) favorable. Supposons que je sois confronté à un problème quelconque. Logiquement, ma première réaction sera de faire appel à mes connaissances : puis-je trouver dans ma mémoire des éléments de solutions. Le cas échéant, j'interrogerai des personnes étrangères. Mais je m'adresserai à des interlocuteurs choisis parce qu'ils me paraîtront les mieux aptes à me renseigner. Je ne m'adresserai pas à des gens rencontrés dans la rue. Je ne ferai pas non plus appel à un processus encore plus aléatoire, par exemple ouvrir un dictionnaire au hasard et voir si je trouve des informations pertinentes dans la page ainsi sélectionnée. Il y aurait une chance sur des millions pour que cela soit le cas. Remarquons cependant qu'en me limitant à recenser mes connaissances antérieures, sans faire appel à une recherche d'informations au hasard, je me priverai de la chance, peut-être une sur des millions précisément, de trouver la page précise qui aurait pu révolutionner ma façon de penser et faire de moi, qui sait, un autre homme.

C'est ainsi, en mobilisant leurs ressources internes, que procèdent semble-t-il les organismes vivants lorsqu'ils sont confrontés à un besoin d'adaptation. Evidemment, cette mobilisation n'est pas le produit d'une décision volontaire. Elle découle d'un mécanisme évolutif remontant sans doute aux origines de la vie. On pourrait l'analyser comme un processus réparateur enclenché par la perception de menaces sur l'intégrité du système. Gilbert Chauvet, dans son ouvrage cité, rappelle que les premières molécules biologiques n'ont pu apparaître qu'en se protégeant des influences extérieures par l'équivalent d'une membrane à l'intérieur de laquelle ont pu se dérouler des processus de synthèse auto catalytiques, d'organisation-réorganisation des éléments et finalement de réplication [voir ci-dessous le paragraphe concernant l'éventuel rôle d'un ARN précurseur]. On conçoit que de tels processus, aussi fructueux, aient été conservés, sous des formes éventuellement différentes, tout au long de l'évolution. Sans eux, il n'y aurait pas eu d'évolution du tout.

Les organismes apparaissent capables de réponses très différentes face à des agressions du milieu. Au cas par cas, telle réponse est sélectionnée tandis que les autres restent en sommeil. On est en présence d'un mécanisme qui ressemble un peu à la façon dont fonctionne le système immunitaire. Si cette réponse se révèle favorable, elle est transmise aux descendants grâce à des modifications génétiques ou épigénétiques mineures qui ne remettent pas en cause l'organisation d'ensemble du génome de l'espèce à laquelle appartient l'organisme considéré. Mais il est aussi possible que des lignées différentes au sein d'une même espèce finissent par s'individualiser en espèces différentes, faute de croisements suffisants pour entretenir l'interfécondité. Tout ceci ne relève pas du concept de mutation au hasard suivie de la sélection du plus apte. Si l'auto-évolution ainsi conçue ne peut pas faire apparaître n'importe quel caractère nouveau, elle donne quand même aux espèces et en leur sein aux variétés ou lignées beaucoup d'occasions de se diversifier, se complexifier et ainsi de s'adapter progressivement, en élargissant leurs sphères de survie.

Cela ne veut pas dire, nous l'avons rappelé, que l'individu puisse décider lui-même des modifications qu'il subira, afin d'acquérir puis transmettre à ses descendants des caractères mieux adaptés. Autrement dit, l'auto-évolution dont nous parlons ne doit pas être confondue avec une évolution auto-orientée. Ce dernier concept permettrait en effet de réintroduire une sorte de finalisme, à base de volontarisme, que jusqu'ici rien ne permet de présupposer (sauf peut-être en ce qui concerne l'influence de la conscience volontaire chez l'homme, si l'existence de cette dernière comme agent causal était retenue). Il s'agit seulement d'une évolution qui est rendue possible par l'entrée en jeu d'un certains nombre de facteurs évolutifs jusque là latents, au sein de l'individu, et qui se trouvent activés du fait de tel ou tel évènement auquel l'individu est confronté. Mais si nous retenons légitimement le terme d'auto-évolution, c'est parce que ces facteurs évolutifs ne proviennent pas de l'extérieur de l'individu mais de lui-même. De même, leur activation ne résulte pas du hasard, c'est-à-dire d'une cause aléatoire. Elle est d'une certaine façon déterminée par l'organisation antérieure de l'individu, le mettant à même de mieux valoriser des dispositions jusque là latentes ou de bénéficier d'alliances symbiotiques avec des partenaires lui apportant les ressources génétiques qui lui manquaient. Le hasard ne sera jamais exclu, mais il restera second.

[...]

De nouvelles données expérimentales

Mais quels sont les arguments permettant d'affirmer que ce qui précède ne relève pas de la simple supputation ? Trouve-t-on des faits qui démontrent la pertinence du concept d'auto-évolution ? Ils sont nombreux mais ils se présentent le plus souvent de façon différente. De plus certains d'entre eux sont encore conjecturaux ou, tout au moins, ne sont pas encore pleinement reconnus par l'opinion scientifique majoritaire. Ceci explique d'ailleurs que les rapprochements qui, selon nous s'imposeraient afin de faire l'hypothèse d'une vraie révolution paradigmatique, n'aient en général pas encore été conduits jusqu'à leur terme. D'autant plus que, comme toutes les sciences expérimentales, la biologie est aujourd'hui extrêmement parcellisée et que beaucoup de ceux qui l'exercent refusent de faire appel à des modèles généraux.

La biologie de l'ARN

On considérait jusqu'à ces derniers temps l'ARN comme le serviteur dévoué mais sans initiative de l'ADN, dont il assurait la duplication des sites codants lors de la construction cellulaire(3). La double hélice de l'ADN ou plus exactement les portions de celle-ci identifiés comme des gènes, c'est-à-dire comme portant les instructions permettant de commander la fabrication des protéines avait en effet jusqu'à présent focalisé l'attention. L'ARN – ARN dit messager – était considéré uniquement comme la recette que la cellule devait lire pour fabriquer la protéine commandée par le gène, c'est-à-dire par la portion d'ADN s'exprimant sous la forme dudit messager. Mais on a découvert qu'une grande partie du génome ne code pas pour permettre la fabrication de protéines. On a parlé d'ADN-poubelle mais on lui trouve constamment de nouveaux rôles, lesquels permettraient d'expliquer pourquoi elle a survécu à la sélection naturelle. Elle sert ainsi à fabriquer des fragments d'ARN qui circulent dans les cellules.

Lire l'intégralité d'
Un nouveau paradigme en biologie, l'auto-évolution

Et cet article paru en 2005 sur le site des Automates Intelligents :


De nouvelles méthodes en biologie

Dans notre numéro précédent, nous avions présenté (Un nouveau paradigme en biologie, l'auto-évolution) quelques-unes des hypothèses actuelles visant à relativiser le concept néo-darwinien d'évolution. Celle-ci ne résulterait pas seulement de mutations au hasard se produisant au niveau des portions codantes du génome (les gènes) mais pourrait provenir aussi d'autres facteurs agissant tout au long de la vie des individus, sur l'ensemble de l'ADN et sur divers autres processus de la physiologie cellulaire. On pourrait alors parler d'une auto-évolution, le terme signifiant que les individus peuvent s'adapter en continu aux variations de leur environnement et par conséquent transmettre de différentes façons à leurs descendants ce que l'on désignerait dans le vocabulaire Lamarckien par des caractères acquis. Nous avions conclu cet article en rappelant l'urgente nécessité de proposer, comme le fait le physiologiste et mathématicien Gilbert Chauvet(1) de nouveaux modèles permettant de simuler le fonctionnement du vivant.

Ce besoin est ressenti de toutes parts aujourd'hui, comme le montre un dossier publié dans le même temps par Science et Vie (n° 1047 de décembre 2004, p. 52) sous la direction de Hervé Poirier, et dont nous venons de prendre connaissance. Les rédacteurs rappellent que le modèle simpliste sur le développement, proposé par la biologie moléculaire il y a bientôt 50 ans : un gène > un ARN > une protéine > une fonction n'a plus cours. Certains biologistes et surtout des chercheurs issus d'autres disciplines proposent maintenant de nombreuses hypothèses originales permettant de commencer à éclairer les processus de l'embryogenèse et de la phylogenèse, dont la complexité continue à défier l'analyse.

Le dossier donne quelques exemples de ces nouvelles directions de recherche. Résumons celles-ci rapidement, en fournissant quelques références complémentaires, pour ceux de nos lecteurs qui ne se seraient pas procuré le numéro précité de Science et Vie :

* Construire les réseaux schématisant les relations croisées s'établissant entre les protéines produites par les gènes
On peut représenter par des graphes l'action d'une molécule donnée sur une ou plusieurs cibles. Les réseaux construits en rassemblant de cette façon les données expérimentales déjà disponibles présentent une topologie comparable à celles de nombreux autres réseaux complexes, par exemple Internet ou les réseaux de relations dans les sociétés animales ou humaines. On obtient de « petits mondes » (small worlds) très comparables, avec généralement trois degrés seulement de séparation entre nœuds (deux molécules choisies au hasard dans ce réseau ont de fortes chances d'être reliées par un chemin de moins de trois réactions). Cette ressemblance entre les réseaux non-biologiques et les réseaux d'interactions entre gènes et protéines permet d'appliquer à l'étude de ces derniers les enseignements obtenus par les ingénieurs dans la gestion des réseaux physiques (optimisation des modalités de modularité et de stabilisation structurelle, par exemple)(2)
.

Sources citées
François Képès, Génopole d'Evry Page personnelle http://stat.genopole.cnrs.fr/~kepes/ François Képès est, avec Frédéric Dardel, l'auteur d'un ouvrage de référence: Bioinformatique, génomique et post génomique, Editions de l'Ecole Polytechnique, 2002.
Albert-Lazlo Barabasi Université Notre Dame dans l'Indiana http://www.nd.edu/. Il est notamment l'auteur de l'ouvrage Linked: How Everything Is Connected to Everything Else and What It Means", Plume; Reissue edition (April 29, 2003) [édition hardcover le sous titre "The New Science of Networks"
Uri Alon, Institut Weismann Israël Home page http://www.weizmann.ac.il/mcb/UriAlon/
Vincent Hakim http://www.lps.ens.fr/~hakim/ et Paul François, Laboratoire de physique statistique de l'ENS.

** Faire appel aux « algèbres de processus »
Il s'agit de langages informatiques permettant à des ordinateurs distribués de coopérer dans la résolution de gros calculs ou de recherche documentaire sur le web. Il s'agirait d'analyser avec de telles algèbres les modèles et hypothèses formulés par des biologistes pour formaliser les interactions entre entités distribuées, agissant sans coordination centrale, telles qu'ils peuvent les identifier dans les réseaux d'interaction entre protéines. On pourrait alors faire apparaître des fonctions encore non détectées.

Sources citées
Aviv Reges, Institut Weismann, Israël. Voir le The BioSPI Project Home Page http://www.wisdom.weizmann.ac.il/~biospi/
Vincent Danos et al. , Laboratoire Preuves, Programmes et Systèmes , Université de Jussieu, Paris. Voir http://www.logique.jussieu.fr/www.danos/

*** Faire appel à la dynamique plutôt qu'à la structure pour expliquer le développement des systèmes vivants
La dynamique introduit le temps et aussi le hasard. La thermodynamique permet de retrouver des processus d'économie d'énergie en œuvre de façon identique dans la genèse des systèmes physiques et dans celles des systèmes vivants. Plus généralement une morphogenèse de type constructale (c'est nous qui ajoutons cette observation) pourrait être développée au profit à la fois de la vie biologique et de la vie artificielle.

Sources citées
James Ferrell, Stanford. Voir notamment ses travaux sur la maturation des oeufs de grenouille. Home page http://www.stanford.edu/group/ferrelllab/
Bertrand Laforge, physicien des particules. Université Pierre et Marie Curie. Site http://www.criticalsecret.com/laforge/
Michaël Deem, Université Rice, auteur de travaux sur le vaccin contre la grippe. Groupe de recherches http://www.mwdeem.rice.edu/

© Automates Intelligents 2005

Lire aussi Quand l’environnement change, l’évolution accélère


******

N.B : On peut lire sur Wikipédia :

  • Lamarck et Charles Darwin croyaient en l'hérédité des caractères acquis (bien qu'ils n'emploient pas cette expression, la distinction entre caractères acquis et innés date de la fin du XIXe siècle). Darwin mentionne même dans la première édition de L'origine des espèces les « effets cumulatifs du dressage » de génération en génération chez des chiens d'arrêt (pointers). Darwin est en réalité le premier à proposer une théorie des caractères acquis, sous le nom de "théorie de la pangenèse", dans son ouvrage De la variation des animaux et des plantes sous l'action de la domestication. C'est August Weismann qui fera la démonstration, non de l'impossibilité de la transmission des caractères acquis, mais de l'impossibilité de la transmission des mutilations, soutenue à la fin du XIXe siècle par les néo-lamarckiens. La théorie de Weismann exclu la transmission des caractères acquis de manière purement théorique (il est en effet impossible de démontrer scientifiquement l'impossibilité absolue d'un tel phénomène). La théorie synthétique postule aujourd'hui que les gènes ne peuvent être modifiés naturellement que par des mutations aléatoires, mais il s'agit, de l'aveu même de Francis Crick, d'un "dogme" de la biologie moléculaire.
  • On croyait en conséquence, jusqu'à la fin du XXe siècle, que l'adaptation individuelle ne se transmettait pas. Toutefois, au début du XXIe siècle, de nouvelles expériences et observations ont rouvert la porte à l'hypothèse d'une transmission de l'adaptation individuelle dans certains cas (notamment la taille, par rapport aux conditions d'alimentation), non par la modification des gènes, mais par la modification de leurs conditions d'expression, et, par là, de leur niveau d'activité, avec toutes les conséquences. Ces phénomènes sont qualifiés d'épigénétique. En outre, on a découvert que si les mutations sont bien aléatoires, les probabilités qu'elles soient réparées sont dépendantes des conditions extérieures : les mécanismes d'auto-réparation et d'entretien de l'intégrité du génome sont sous contrôle de l'état des cellules, ce qui fait que les cellules laissent passer plus ou moins de mutations selon leur adaptation à leur milieu. Au final, l'adaptation acquise apparaît bien comme un élément de l'hérédité.

 
Voir l'article de Jean Staune Mécanismes de l'évolution

La danse de l'ADN : une industrie

Vidéo in English. Regardez les images, c'est beau.

12/10/2007

La méditation augmente les performances de l'esprit et réduit le stress

Une équipe de chercheurs de l'université de Dalian (Chine) et d'Orégon (Etats-Unis) ont expérimentalement mis en évidence l'effet bénéfique de la méditation sur les performances de l'esprit en situation de stress.

 Lire l'article sur futura-sciences.com

l'INREES étudie scientifiquement l'inexplicable et le paranormal

Créé en juin 2007, l’Institut national de recherche sur les expériences extraordinaires - l'INREES - s’intéresse aux témoins de phénomènes étranges qui semblent hors de la science, des Ovnis aux visions au seuil de la mort. Futura-Sciences a interrogé son fondateur, Stéphane Allix. « Ce n’est pas parce que quelqu’un raconte une histoire de fou qu’il est nécessairement fou » nous explique-t-il.

 Lire l'entretien sur futura-sciences.com

 
Site de l'INREES