Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

29/08/2008

Le cerveau est bien plus souple qu'on ne le pensait


Par Jean-Luc Goudet, Futura-Sciences

Une plasticité étonnante du cerveau humain vient d'être mise en évidence : les performances du  sens du toucher augmentent en quelques jours seulement chez des volontaires aux yeux continuellement masqués. Et cette adaptation est réversible en 24 heures.

On sait que les personnes privées du sens de la vue développent leurs sens du toucher et de l'audition. Mais une récente expérience, menée au Beth Israel Deaconess Medical Center (BIDMC) et dont les résultats viennent d'être publiés, montre qu'une telle adaptation peut s'effectuer en quelques jours seulement et qu'elle est réversible. Selon les auteurs de l'étude, cette plasticité aussi élevée implique que les capacités révélées par la perte de la vision devaient préexister, à l'état latent.

Alvaro Pascual-Leone et ses collègues ont fait participer 47 volontaires qui se sont prêtés à une expérience difficile. Durant cinq jours, la moitié d'entre eux ont porté en permanence un masque sur les yeux, les privant de toute vision. Pendant ce temps, tous étaient soumis à d'intenses activités mettant en jeu le sens du toucher, en particulier l'apprentissage du Braille pendant 4 à 6 heures par jour.

Deux séries d'expériences ont été conduites. La première, sur 32 sujets, consistait à observer en imagerie par résonance magnétique fonctionnelle (IRMf) le fonctionnement du cerveau pendant et après la période aveugle. Résultats : les sujets portant le masque apprennent plus vite le Braille que les témoins. A l'examen en IRM, le cortex visuel des personnes aux yeux bandés montre une activation importante aux stimuli tactiles. Autrement dit, une zone du cerveau impliquée dans la vision semble immédiatement réquisitionnée pour analyser les signaux du toucher. Mais 24 heures après que le masque leur ait été retiré, cette capacité disparaît complètement, le cortex visuel n'étant de nouveau plus stimulé que par la vision.


En A, images en IRM montrant, marquées en couleurs, les zones présentant des différences entre les sujets aux yeux bandés et les témoins (couleur orange dans l'image prise au jour 5, bleue dans celle du jour 6). En B, résultats de tests au niveau de la zone colorée en orange, dans lesquels on mesure la réponse de ses neurones à des stimulations tactiles. L'axe vertical indique, en pourcentage, la différence de résultats entre les sujets avec et sans masque. On voit qu'elle maximale au jour 5. © Alvaro Pascual-Leone et al.

Un mécanisme inconnu ?

Lors d'une seconde expérience, 15 personnes ont subi un test plutôt invasif. Elles ont été soumises à une stimulation magnétique transcranial répétée (rTMS), une technique employée en thérapie de troubles psychiatriques et consistant à soumettre le cerveau à un champ magnétique. L'effet recherché dans l'expérience est de provoquer un dysfonctionnement temporaire à l'intérieur du cortex visuel. Les sujets obtiennent alors de moins bons résultats dans l'apprentissage du Braille. Là encore, on peut conclure qu'une partie de l'aire cérébrale de la vision peut aussi servir au sens du toucher.

Selon les auteurs de l'étude, ces résultats remettent en cause l'hypothèse classique selon laquelle des structures indépendantes du cerveau et hautement spécialisées sont engagées dans l'analyse des informations sensorielles d'origine différentes. « Notre étude montre que cette vision est incorrecte, affirme Alvaro Pascual-Leone, et illustre la capacité du cerveau humain à se réorganiser lui-même rapidement et dynamiquement. »

Les chercheurs suggèrent que cette adaptation rapide et réversible ne repose pas sur la mise en place de nouvelles connexions entre neurones mais sur l'activation de structures déjà existantes jusque-là masquées. A l'heure actuelle, aucun mécanisme physiologique connu ne peut expliquer ce phénomène. « Nous pensons que ces principes peuvent aussi s'appliquer à d'autres pertes sensorielles, insiste Alvaro Pascual-Leone, comme la surdité, ou une perte fonctionnelle après une lésion au cerveau. »

Quoiqu'il en soit, il reste la preuve de capacités d'adaptation insoupçonnées...

21/08/2008

Peut-on ressusciter le chat de Schrödinger ?


Source : http://www.futura-sciences.com/fr/sinformer/actualites/ne...

Par Laurent Sacco, Futura-Sciences


Le chat de Schrödinger est l'un des paradoxes bien connus de la mécanique quantique.
Ces dernières années, les progrès expérimentaux et la théorie de la
décohérence ont jeté une vive lueur sur ce problème. Une nouvelle
expérience à l’Université de Santa Barbara vient de compliquer quelque
peu ce dernier.

 

En mécanique quantique, le monde est ordinairement représenté dans une superposition d’états. Ainsi, si l’on considère un électron
enfermé dans une boîte pouvant à volonté se scinder en deux boîtes tout
aussi hermétiquement closes, un paradoxe connu sous le nom de «
paradoxe de De Broglie » est facile à dériver de la théorie.

 

Prenons l’une des boîtes et transportons là à
Pékin, alors que la première est laissée à Paris. Selon la mécanique
quantique, en l’absence d’observation pour vérifier dans quelle boîte
se trouve l’électron, il n’est pas possible de dire qu’il se trouve
soit dans la boîte restée à Paris, soit dans celle de Pékin tant qu’on
n’a pas ouverte l’une d’entre elles.

 

Si on le fait, on prédit d’autres résultats
d’expériences que la réalité ne vérifie pas comme le montre par exemple
celles avec les photons
intriqués (expérience EPR). Il faut imaginer que l’électron est dans
une sorte de superposition de deux états de position, décrits par un
vecteur à deux composantes dans un plan avec des axes
perpendiculaires. Les carrés de ces composantes donnent la probabilité
de trouver ce dernier dans l’une des boîtes.

 

Lors d’une expérience, le vecteur d’état «
s’effondre » alors pour coïncider avec l’un des axes sur lequel il est
projeté. La probabilité de trouver l’électron dans une des boîtes lors
d’une seconde mesure est alors certaine.

 

Aussi étrange que cela paraisse, il faut imaginer
que l’électron est simultanément en deux endroits à la fois avant une
mesure et c'est en cela que consiste le paradoxe de De Broglie.

 

Mais, si l’on n’imagine que sa masse, et donc son
énergie, est répartie d’une certaine façon en deux fragments dans
chaque boîte, alors, lors d’une mesure, il faudrait en déduire que de
l’énergie a circulé plus vite que la lumière pour donner un seul électron entier à Paris ou à Pékin.

 

La relativité restreinte interdit cela et il faut donc en conclure que les objets classiques dans l’espace et le temps
n’existent pas vraiment et que seule une observation fait passer les
objets du monde quantique flou et étrange à la réalité bien tangible et
localisée dans l’espace et le temps de la mécanique classique. Une
situation que le grand John Wheeler exprimait par la phrase suivante : « Aucun phénomène n’est un phénomène réel (entendez par là au sens classique) tant qu’il n’est pas observé » et qui est au coeur de l'interprétation de Copenhague de la mécanique quantique.

 

 

Le prix Nobel Louis de Broglie.

 

La mesure joue donc un rôle particulier en
mécanique quantique. La situation la plus bizarre qui en découle est
celle du paradoxe du chat de Schrödinger où un chat enfermé dans une
boîte avec un atome
radioactif, capable de déclencher par sa désintégration la libération
d’un gaz mortel, est à la fois mort et vivant tant que l’on n'a pas
ouvert la boîte, parfaitement isolée du reste de l'Univers, pour
vérifier si l’atome s’était désintégré ou pas. En effet, à cause de l'intrication quantique,
l'atome et le chat forment un seul objet décrit quantiquement. On
n'observe jamais une telle superposition quantique et l'on est donc
conduit à un paradoxe, à moins de rejeter les lois de la mécanique
quantique.

 

La résolution de ce paradoxe, partiel d’une
certaine façon, est de faire remarquer que, malgré tout, rien dans
l’Univers n’est complètement isolable de toute interaction et qu’une
faible interaction de l’atome avec son environnement existe quand même,
qui va provoquer ou non sa désintégration, et forcer l’état du système
à se projeter en un temps assez bref pour un objet macroscopique dans
le monde réel. Voilà pourquoi on n’observe jamais de chat à la fois
mort et vivant. C'est ce que dit la théorie de la décohérence et les expériences le vérifient.

 

Toutefois, selon une interprétation de la mesure en mécanique quantique proposée il y a quelques années par Yakir Aharonov,
il existerait des mesures dites faibles où l’effondrement du vecteur
d’état n’est pas vraiment complet. Un chat de Schrödinger « mort »
pourrait donc être d’une certaine façon ressuscité dans un état à la
fois mort et vivant si l’on s’y prend bien.

 

Cette théorie viendrait d’être testée avec des qubits
par Nadav Katz de l’Université de Santa Barbara et elle semble
effectivement être correcte. Les résultats des expériences ont été
publiés sur arXiv et la communauté des physiciens va devoir maintenant
se pencher sur ces derniers. Ce résultat surprenant, montrant une fois
de plus le caractère très étrange et défiant notre intuition du monde
quantique, sera donc peut-être confirmé, ou infirmé, dans les mois ou
les années à venir. A suivre donc !

 

08/07/2008

NDE / EMI : documentaire

Voyages dans l'au-delà
Documentaire de Joachim Faulstich sur les NDE à la lumière de la science.
Allemagne, année 2000 - 44 minutes







25/03/2008

Vers une nouvelle physique ?


Les mésons B nous apportent-ils une nouvelle physique ?
Par Laurent Sacco, Futura-Sciences

Une asymétrie dans le comportement de certains intriguent les physiciens. Selon certains, la violation de la symétrie CP observée avec ceux-ci n’est pas compatible avec les équations du modèle standard. Une nouvelle physique devrait intervenir, comme de la supersymétrie ou des dimensions spatiales supplémentaires, et elle serait donc observée pour la première fois en accélérateur.

La large prédominance de la matière sur l’antimatière dans l’Univers est une des grandes énigmes de la cosmologie. Pourtant, les physiciens ont avancé plusieurs réponses possibles dont l’une fait intervenir ce qu’on appelle la violation CP. Observée depuis les années 1960 dans l’oscillation des mésons K, elle est aujourd'hui traquée dans les produits de désintégration des mésons B comportant au moins un quark dit beau.

Selon la théorie de la chromodynamique quantique, les hadrons, comme les protons et les mésons, sont composés de six types de quarks qui peuvent se transformer les uns dans les autres, à cause de l’interaction électrofaible, selon des probabilités données. L’information codant quel quark peut se transformer en tel autre, et selon quelle fréquence, se trouve dans un tableau de nombres à trois lignes et trois colonnes, la matrice de Cabibbo-Kobayashi-Maskawa (CKM).

Cette matrice possède plusieurs paramètres libres qui ne sont pas prédits par le modèle standard des interactions mais celui-ci leur impose tout de même des bornes et leurs valeurs ne sont donc pas totalement arbitraires. En particulier, la matrice CKM autorise certains mésons à se désintégrer en d’autres particules d'une manière légèrement différente de celle de leur anti-méson associé.

Le phénomène est particulièrement net dans le cas de certains mésons qui oscillent à une certaine fréquence pour se transformer en un autre bien défini, qui à son tour redeviendra à nouveau le méson d’origine. Le phénomène a été observé dans l’oscillation des mésons K0-K0barre dont l’un est l’anti-méson de l’autre. Surtout, il est beaucoup plus important dans le cas des mésons B.

Pour cette raison, de véritables usines à mésons B ont été construites car, en étudiant la violation CP, on espérait en apprendre davantage sur une nouvelle physique, au-delà du modèle standard, qui, elle, fixerait les valeurs des paramètres libres de la matrice CKM.

Or, on savait que si le modèle expliquant l’asymétrie matière-anti-matière de notre Univers était bien celui faisant intervenir la violation CP, celle obtenue dans le cadre du modèle standard avec la matrice CKM était bien trop faible pour rendre compte des observations. Voilà pourquoi les résultats qui viennent d'être annoncés par une équipe française, italienne et suisse sont particulièrement intéressants.


Figure 1. Oscillations entre quarks au sein d'un méson Bs. Les anti-particules sont signalées par une barre au-dessus de leur lettre. Par échange de bosons, les quarks s (étranges) deviennent des t (top) puis des b (beaux). Les oscillations des deux quarks étant liées, le méson Bs devient un anti-Bs. Crédit : Fermilab

Une différence trop grande entre matière et anti-matière

Luca Silvestrini et ses collègues ont combiné les résultats obtenus au cours des dernières années par les expériences CDF et DØ du Fermilab. Ils se sont concentrés sur une paire de mésons B neutres bien particulière, les mésons Bs, composés d’un anti-quark beau et d’un quark étrange, noté s (pour strange en anglais). Ceux-ci oscillent en leur anti-particule, composée d’un quark beau et d’un anti-quark étrange, plus de trois mille milliards de fois chaque seconde.

Comme on peut le voir sur la figure 1, l’un des quarks ou anti-quarks peut se transformer en un quark ou un anti-quark top en émettant un boson W (vecteur de l’interaction faible), puis par absorption d'un W, redevenir un quark beau ou étrange.

Ces oscillations entre matière et antimatière sont responsables d’effets violant la symétrie CP dans les produits de désintégration. En clair, un peu plus de matière que d’antimatière (ou vice versa) est produite avec des nombres égaux de méson Bs et d’anti-mésons Bs initiaux. Ce que les analyses de l’équipe montrent, c’est que l’asymétrie obtenue dépasse les bornes autorisées par la matrice CKM !

Les cas enregistrés sont encore trop peu nombreux pour conclure que l’effet observé n’est pas une simple fluctuation statistique due au hasard. Les physiciens restent donc prudents mais, selon eux, le phénomène observé avait seulement 0,3 % de chance d’être un effet du hasard.

L’excitation monte... Nous sommes peut-être en présence d’un effet de violation CP qui, cette fois, aurait contribué de manière importante à la victoire de la matière sur l’anti-matière au début de l’Univers. De surcroît, on tiendrait là le premier signe concret de nouveaux termes dans les équations de la physique des particules qui ne sont pas naturellement contenus dans le modèle standard. En particulier, des particules supersymétriques pourraient jouer le rôle des bosons W et des quarks top en contribuant à modifier ce qui se passe dans les oscillations et les désintégrations des mésons B.

Une équipe japonaise travaillant sur la collaboration Belle vient elle aussi de publier les résultats d’études sur les oscillations des mésons B dans Nature et elle trouve à nouveau une violation CP plus importante que ne le permet le modèle standard. Tout ceci est de bon augure car ces observations signifient que les chances d’aboutir à une nouvelle physique grâce au LHC sont en train d’augmenter !

Vue aérienne du Fermilab montrant le Tevatron et le MI (Main Injector). Crédit : Fermilab
Vue aérienne du Fermilab montrant le Tevatron et le MI (Main Injector). Crédit : Fermilab

13/03/2008

L'évolution sans le dogme du darwinisme


Portrait_D_Duboule.jpgDenis Duboule, né le 17 février 1955, docteur ès sciences (1984), après avoir dirigé un groupe de recherche au Laboratoire de génétique moléculaire des eucaryotes (1986-1988), puis à l'EMBO (1988-1993), est Professeur de biologie à l'université de Genève et y dirige le Département de zoologie et biologie animale. Membre de l'académie des sciences depuis 2005.

Les recherches de Denis Duboule se situent dans le domaine de la biologie du développement en interface avec la génétique humaine et les sciences de l'évolution. Il est de ceux qui brise petit à petit le dogme de la sélection naturelle toute-puissante et le culte voué à Charles Darwin, en restant étranger au créationnisme ou à l'Intelligent Design.

Fervent admirateur du célèbre paléonthologiste Stephen Jay Gould (pour qui évolution rhyme avec diversification, et non progression : les bactéries sont toujours les dominants), Denis Duboule apporte une grande contribution à la théorie de l'évolution en apportant un ferme soutien à la théorie des équilibres ponctués, et un important développement de la macro-évolution, avec son concept d'internalisme (équilibre génétique, théorie de la variation contrainte) reposant entre autres sur la multi-fonctionnalité des gènes (pléiotropie). Si un gène ou une séquence de quelques gènes intervient dans la constitution de parties aussi différentes que les doigts, les intestins et le système nerveux, il est bien évident que des transformations évolutives de grande ampleur doivent survenir en cas de suppression ou de mutation de ce ou ces gènes. Etant donné que pour les êtres vivants complexes (opposés aux virus et bactéries microscopiques) la plupart des gènes sont multi-fonctionnels - donc interdépendants, la possibilité des évolutions graduelles est réduite. L'autre grand coup porté au darwinisme radical est le fait qu'une grande fréquence de mutations (chez les mouches, contre l'être humain par exemple) n'implique pas nécessairement une évolution plus marquée.

Voir la conférence La génétique moléculaire de l'évolution ; une science du XXIe siècle ? (1h36)


Prix et distinctions

Membre de l'European Molecular Biology Organisation (EMBO) (1993)
Prix National de la Fondation Latsis (Suisse, 1994)
Prix Cloetta de Médecine (1997)
Membre de l'Academia Europaea (1997)
Prix Louis Jeantet de médecine (1998)
Membre de la Royal Netherland Academy of Arts and Science (2000)
Prix de la Fondation Marcel Benoist (Suisse, 2003)
Prix Charles Léopold Mayer de l'Académie des sciences (2004)
Membre de l’Académie suisse des sciences médicales (2005)
Chevalier de l’Ordre National du Mérite (2005)

12/03/2008

Les évolutions non-darwiniennes


A la fin de l'article Mécanismes de l’évolution, Jean Staune nous demande de retenir ceci :

1) Que critiquer le darwinisme est radicalement différent du fait de critiquer l’évolution. La première démarche se situant à l’intérieur de la science, la deuxième, à l’extérieur de cette dernière.
2) Qu’il existe de nombreux scientifiques offrant des voies de recherche alternatives au darwinisme.
3) Que parmi celles-ci, la plus prometteuse que l’on retrouve sous des formes différentes chez Conway-Morris, Denton, Fleury, Grassé, est celle d’une évolution par « lois naturelles » dans laquelle les formes possibles des êtres vivants existent en nombre limité et sont inscrites dans les lois de la nature.
4) Qu’une telle théorie de l’évolution, en laissant moins de place à la contingence que le darwinisme, implique que l’existence d’êtres tels que nous n’est pas due au seul hasard, ce qui paraît plus compatible avec la foi chrétienne.
5) Que l’Intelligent Design, dans sa partie évolutionniste (la seule que l’on puisse considérer) ne représente qu’une tendance ultra minoritaire (sur le plan scientifique bien entendu) et extrémiste de la biologie évolutionniste non darwinienne.
6) Que si le Magistère de l’Eglise soutient fermement l’évolution, il n’a jamais soutenu explicitement le darwinisme.
7) La question de savoir dans quelle mesure le darwinisme est compatible avec la foi chrétienne est un débat intéressant… sur lequel, à ma connaissance, il n’existe pas de position tranchée du Magistère.

Résumé :
Cette contribution au prochain colloque du réseau Blaise Pascal a pour objectif de clarifier les débats relatifs à l’évolution et au darwinisme en :

1) Définissant les termes du débat ;
2) Présentant certaines raisons scientifiques de ne pas considérer le darwinisme comme une explication globale de l’évolution ;
3) Présentant des approches alternatives au darwinisme ;
4) Décrivant la nature du mouvement de l’Intelligent Design ;
5) Analysant la position du magistère de l’Eglise sur le sujet.

Nous conclurons sur quelques propos d’ordre théologique à propos des rapports possibles entre darwinisme et foi chrétienne, et d’ordre scientifique, sur les concepts pouvant servir à ébaucher une nouvelle théorie de l’évolution.

1) Définitions des termes du débat

Combien de fois voyons-nous, surtout dans des ouvrages américains, une référence à « l’Évolution darwinienne » ? Il y a là une source sans fin de malentendus dont profitent tous les obscurantistes – qu’ils soient créationnistes ou scientistes.

L’évolution ne signifie rien d’autre (souligné par moi, J.S) que « tous les organismes sont unis par les liens de la descendance. Cette définition ne dit rien au sujet du mécanisme de changement évolutif ». Ces propos de Stephen Jay Gould , grand spécialiste à la fois de l’évolution et du darwinisme, ont le mérite de la clarté. Nous affirmerons ici avec force que l’évolution est un fait et que le darwinisme est l’une des explications possibles de ce fait. Nous ne perdrons pas de temps à démontrer que tous les êtres vivants ont un ancêtre commun et que si l’on remonte la longue suite de nos ancêtres, on trouvera bien un singe, puis un poisson, puis un invertébré et enfin une bactérie. D’où l’absurdité de la seule alternative à l’évolutionnisme, le créationnisme, c’est-à-dire l’idée selon laquelle il y aurait eu des créations séparées des différentes espèces qui peuplent la Terre. Nous dirons également que, contrairement à ce qu’affirment certains (ce qui leur permet d’être « agnostiques » par rapport à l’évolution, c’est-à-dire de réserver leur jugement à propos de son existence), ce n’est pas parce qu’on ne peut expliquer un fait qu’il n’existe pas. Dire, comme Philip Johnson (professeur de droit à Berkeley et l’un des fondateurs du mouvement de l’Intelligent Design qu’il est possible de ne pas considérer l’évolution comme un fait parce qu’on n’a pas d’explication satisfaisante de son mécanisme est aussi absurde qu’aurait été la position consistant à ne pas considérer comme un fait la rotation de la Terre autour du Soleil jusqu’à la mise au point par Einstein de la relativité générale, sous prétexte que la théorie de Newton ne nous disait pas pourquoi la Terre tournait autour du Soleil mais se contentait de postuler l’existence d’une mystérieuse force d’attraction à distance.

Bien entendu, tous les scientifiques chrétiens (même les plus darwiniens) croient en un créateur. Pour éviter les confusions, le terme de créationniste doit donc désigner ceux qui refusent l’idée que nous partageons un ancêtre commun avec les autres êtres vivants. Les néo-créationnistes sont ceux qui, comme Philip Johnson, refusent de prendre position sur la question.

Les darwiniens sont ceux qui affirment que les mutations dues au hasard et la sélection naturelle sont les principaux facteurs de l’évolution.

Les évolutionnistes non darwiniens sont tous ceux qui affirment que d’autres facteurs que les facteurs darwiniens jouent le premier rôle dans l’évolution. On peut les diviser en cinq écoles :
- Les tenants de l’auto-organisation.
- Les défenseurs d’une « évolution par lois naturelles » et non d’une « évolution par sélection naturelle ».
- Les néo-theilhardiens, pour lesquels l’évolution obéit à une logique interne la poussant vers une complexité croissante.
- Les néo-lamarckiens, pour lesquels certaines mutations ne se font pas au hasard mais en réponse à des changements de l’environnement.
- Les défenseurs d’une évolution non graduelle se produisant grâce à des macromutations coordonnées par le biais d’un apport d’information (dont ils postulent, en général, qu’il se produit à un niveau quantique).

 

Bien entendu, les membres de toutes ces écoles sont évolutionnistes. On ne peut en traiter aucun de néo-créationniste sans tomber dans une grave malhonnêteté intellectuelle. Pourrait-on imaginer de traiter un homme s’étant battu toute sa vie pour la reconnaissance de l’évolution tel que Pierre Teilhard de Chardin de néo-créationniste sous prétexte qu’il croyait que l’évolution était dirigée vers une complexité sans cesse croissante et non livrée aux seules lois du hasard et de la sélection naturelle ?


Lire l'intégralité de l'article.
Voir la conférence (realplayer est requis) de Denis Duboule, membre de l'académie des sciences, sur l'internalisme, alternative au darwinisme.

25/02/2008

Les limites de la connaissance physique

Source : Canal-U

Il n'est pas indifférent que dans ce cycle de conférences sur "tous les savoirs", la question des limites de la connaissance n'ait été posée qu'à la physique. C'est sans doute son statut implicite de science modèle qui lui vaut cet honneur. C'est aussi que, depuis le début du vingtième siècle, la physique s'est à elle-même posé la question. " L'homme devrait garder son humilité devant la nature puisque la précision avec laquelle il peut l'observer rencontre des limitations intrinsèques. " Ainsi l'Encyclopædia Britannica conclut-elle son article sur le "principe d'incertitude" de Heisenberg. De fait, la révolution quantique a donné lieu à d'abondantes exégèses sur ce thème : l'impossibilité de mesurer à la fois la position et la vitesse des corpuscules signalerait une limite absolue de nos connaissances. La Nature elle-même refuserait de se laisser dévoiler, et notre science la plus avancée buterait ainsi sur des frontières infranchissables. L'impossibilité de dépasser la vitesse de la lumière, mise en évidence par Einstein, a été interprétée dans la même veine : nous ne pouvons savoir ce qui s'est passé sur le Soleil durant les huit dernières minutes, faute qu'aucun signal ne puisse nous en prévenir. Mais avec un recul de quelques décennies, cette conception résignée, traduite par des vocables qui paraissent aujourd'hui pour le moins inadaptés (relativité, incertitudes), a perdu sa pertinence. Loin d'imposer des bornes à notre savoir, ces découvertes ont au contraire permis à notre compréhension de considérables progrès, en réorientant nos conceptualisations et nos interrogations. Elles ont montré l'inadéquation au réel de nos formulations antérieures. Si certaines questions (" Que se passait-il sur le Soleil il y a deux minutes ? ", " Où est l'électron et à quelle vitesse va-t-il ? ") n'admettent pas de réponses, c'est qu'elles sont dépourvues de pertinence. De même, la question " Qu'y a-t-il sur la Terre à 30.000 kilomètres au Sud de Paris ? " est-elle rendue caduque par la rotondité de la Terre et la connaissance de sa circonférence (40.000 kilomètres) ; dira-t-on pour autant que cette découverte impose une limitation à la géographie ? Les mutations théoriques de la physique du vingtième siècle n'ont nullement découvert des limites intrinsèques à notre connaissance scientifique, mais, bien au contraire, lui ont ouvert de nouveaux espaces. En témoigne l'approfondissement considérable de notre maîtrise, intellectuelle mais aussi matérielle, du monde quantique.





Visitez le site de Canal-U