Du réglage fin cosmique au réglage fin biologique : une cohérence qui pointe vers un dessein
- Harmonie Science et foi
- 21 déc. 2025
- 15 min de lecture
Il existe aujourd’hui deux domaines de la connaissance : la cosmologie et la biologie moléculaire¹. Ceux-ci, bien qu’étudiés séparément², racontent en réalité la même histoire. Une histoire de précision extrême, de fenêtres étroites, de conditions si délicatement ajustées que la moindre déviation suffirait à tout faire s’effondrer³. Une histoire qui pousse la raison à poser la question que beaucoup évitent : peut-on encore attribuer cette précision cumulative au hasard, ou devons-nous y reconnaître l’empreinte d’un dessein⁴ ?
Dans les cinq articles précédents, nous avons examiné en détail la photosynthèse, cette machinerie élégante qui transforme la lumière en vie⁵. Nous avons vu ses chaînes d’électrons, ses complexes protéiques, ses distances ajustées à l’ångström, ses géométries « millimétrées » dans l’espace atomique, et les contraintes combinatoires écrasantes qui interdisent l’idée d’une apparition fortuite⁶.
Dans le présent article, nous élargissons le cadre : du fine-tuning cosmique au fine-tuning cellulaire, en montrant que la même logique traverse les deux niveaux : du cosmos jusqu’à la feuille la plus simple⁷.
1. Le réglage fin du cosmos : une fenêtre d’existence infiniment étroite

Depuis plus d’un demi-siècle, physiciens et cosmologistes, croyants, agnostiques ou athées, reconnaissent que l’Univers repose sur un ensemble de constantes physiques réglées à des valeurs extraordinairement précises⁸ : la constante gravitationnelle, la constante cosmologique, la charge du proton, le rapport proton-électron, la force forte et la force faible, la vitesse de la lumière, et des dizaines d’autres⁹. Dans chaque cas, la fenêtre de viabilité est incroyablement mince¹⁰. Une légère variation, parfois de 1 sur 10⁶⁰, 10⁸⁰ ou 10⁻¹²², transforme un univers habitable en un désert stérile et froid, ou en un chaos instable¹¹.
Ce que montre la cosmologie moderne est simple : l’Univers n’est pas un large plateau de possibilités ; c’est un fil tendu, une trajectoire unique au cœur d’un espace de paramètres où presque toutes les autres valeurs possibles conduiraient à un univers vide et stérile¹². Cette observation a mené à ce qu’on appelle le fine-tuning cosmologique : l’ensemble des paramètres fondamentaux semble avoir été ajusté dans le but de rendre possible l’existence de structures, de chimie et, ultimement, de vie¹³.
2. Le réglage fin biologique : une fenêtre de fonctionnalité encore plus étroite
Le réglage fin biologique : une fenêtre de fonctionnalité encore plus étroite
Ce que l’on découvre en biologie moléculaire est exactement parallèle, mais à une échelle plus intime : l’échelle de l’atome et de la protéine¹⁴. Les articles précédents ont montré que la photosynthèse exige des distances précises à quelques ångströms près entre pigments (la taille d’un atome), une orientation exacte pour que le transfert d’énergie fonctionne (fenêtre angulaire minuscule), un timing ultra-rapide (femto- et picosecondes), des chaînes entières de protéines spécialisées, repliées dans des formes uniques parmi 20^n séquences possibles, et des centres métalliques (comme Mn₄CaO₅) positionnés au dixième d’ångström¹⁵. La moindre déviation stoppe net la fonction. Pas un ralentissement : un effondrement¹⁶.

Autrement dit : la photosynthèse ne fonctionne que dans une fenêtre de précision encore plus étroite que celles observées en cosmologie¹⁷. Dans les deux cas, nous observons le même motif : une viabilité suspendue à un réglage extrêmement précis¹⁸.
Dans de nombreux systèmes biologiques, la fonction dépend d’un réglage structurel extraordinairement précis, souvent à l’échelle de l’atome. Le ribosome, par exemple, ne se contente pas de « lire » l’ARN messager comme une simple machine à traduire du texte. Il doit positionner exactement l’ARNm, les ARNt et ses deux sous-unités (petite et grande) de manière à ce que chaque acide aminé soit ajouté au bon endroit, au bon moment. Un décalage de quelques ångströms dans la zone active suffit à perturber l’alignement, à introduire des erreurs de lecture ou à bloquer complètement la synthèse des protéines¹⁹. De la même manière, l’ADN enroulé autour des histones n’est pas simplement comprimé au hasard : les charges électriques des protéines histones, la longueur et la flexibilité de leurs queues terminales et la façon dont l’ADN s’enroule autour d’elles doivent respecter des contraintes fines. Si ces paramètres varient trop, la fibre de chromatine devient soit trop rigide, soit trop lâche, et la cellule perd l’équilibre entre le degré de condensation, accessibilité et fidélité de la réplication. Ici encore, la marge de manœuvre est étroite : il ne s’agit pas d’un rangement grossier, mais d’une architecture finement ajustée²⁰.
Ce réglage fin se manifeste aussi dans la manière dont la cellule gère l’énergie. L’ATP synthase, par exemple, n’est pas seulement une « turbine » moléculaire capable de produire l’ATP, la principale monnaie énergétique du vivant ; elle ne fonctionne correctement que si le gradient de protons à travers la membrane se situe dans une fenêtre précise. Si ce gradient est trop faible, la turbine ne tourne pas et l’ATP n’est plus produit ; s’il est trop fort, la membrane est en danger de rupture et d’autres processus sont perturbés. De même, la chaîne respiratoire mitochondriale ou photosynthétique doit être exactement couplée : la séquence des transferts d’électrons, la chute progressive des potentiels redox, le pompage des protons et la consommation finale de l’oxygène doivent rester harmonisés. Dès qu’un complexe manque, est mal positionné ou fonctionne à un rythme inadapté, l’ensemble se dérègle, des espèces réactives de l’oxygène apparaissent et la cellule se trouve menacée. Ce n’est donc pas un système où l’on peut changer les paramètres librement : la stabilité tient à des équilibres très serrés²¹.
Le vivant est également marqué par des réglages informationnels délicats, où des ensembles de gènes ne fonctionnent que si tous les éléments de contrôle sont présents et coordonnés. L’exemple classique de l’opéron lactose chez les bactéries illustre bien cela : pour qu’une cellule puisse utiliser le lactose comme source d’énergie, il faut non seulement plusieurs gènes codant pour des enzymes spécifiques, mais aussi un promoteur, un opérateur, un répresseur, un activateur et des sites de liaison précis. Si l’un de ces éléments manque ou est placé trop loin, trop près ou sur le mauvais brin, la régulation se dérègle et le système perd son intérêt adaptatif²². De la même manière, les horloges circadiennes qui synchronisent les organismes avec l’alternance jour-nuit reposent sur des boucles de rétroaction génétique fines : des protéines activent l’expression de leurs propres inhibiteurs avec un décalage bien mesuré. Un simple glissement dans l’intensité ou la durée de ces signaux peut suffire à désynchroniser l’ensemble et à perturber le métabolisme, le sommeil ou la croissance²³.
Au niveau biochimique, de nombreuses molécules illustrent une intolérance frappante à l’approximation. La courbe de dissociation de l’oxygène par l’hémoglobine, par exemple, est extrêmement sensible à des variations apparemment modestes de pH, de température ou de concentration de certains métabolites. Si l’affinité de l’hémoglobine pour l’oxygène est trop élevée, les tissus ne reçoivent plus ce dont ils ont besoin ; si elle est trop faible, le sang ne transporte plus correctement l’oxygène²⁴. De plus, la cascade de coagulation du sang montre une dépendance encore plus évidente à un ordre et à des quantités précises : treize facteurs de coagulation, activés en chaîne, doivent intervenir, chacun prenant le relais du précédent dans une séquence parfaitement ordonnée et pratiquement non permutable, ni trop tôt, ni trop tard, ni en trop grande quantité. Si l’ordre même dans lequel ces facteurs se déclenchent est modifié, la cascade s’effondre et la coagulation ne parvient plus à son terme. Un déficit dans un seul facteur provoque des hémorragies graves ; une activation excessive ou intempestive conduit à des thromboses potentiellement mortelles. Là encore, il n’y a pas de réglage grossier : le système repose sur des seuils étroits, des temporisations strictes et une succession d’étapes finement calibrée²⁵.
Cette exigence de précision dépasse l’individu lui-même et s’étend aux relations entre les espèces, à l’échelle écologique. Par exemple, de nombreuses plantes à fleurs dépendent de pollinisateurs spécifiques, et cette dépendance ne concerne pas seulement la simple présence d’un insecte, mais aussi la synchronisation fine entre la période de floraison, le comportement de vol et les préférences alimentaires. La longueur de la trompe de l’insecte, la forme et la profondeur de la fleur, la composition chimique du nectar et les signaux olfactifs doivent s’accorder. Lorsqu’un de ces paramètres varie trop, la pollinisation diminue, les récoltes s’effondrent et les chaînes trophiques sont perturbées. De manière similaire, le cycle de l’azote sur Terre implique des bactéries différentes pour fixer l’azote atmosphérique, l’oxyder et le renvoyer dans l’air. La production agricole, les écosystèmes et même la composition de l’atmosphère dépendent de cet enchaînement coordonné. Il ne s’agit pas d’un assemblage approximatif d’organismes, mais d’un réseau de fonctions complémentaires étroitement ajustées²⁶.
Au niveau des réseaux internes, certains systèmes ne peuvent fonctionner qu’en tant qu’ensembles intégrés, où la perte d’un seul module compromet tout. Le système immunitaire adaptatif en est un exemple particulièrement saisissant. Pour que le corps reconnaisse et neutralise un agent pathogène, il faut une présentation correcte de fragments antigéniques par des molécules spécialisées (CMH), l’activation des lymphocytes T auxiliaires, l’activation clonale des lymphocytes B, la production d’anticorps spécifiques et l’établissement d’une mémoire immunitaire. Si l’une de ces étapes fait défaut, l’organisme devient soit incapable de se défendre, soit sujet à des réactions auto-immunes destructrices. Dans le système nerveux, les contraintes sont tout aussi serrées : la propagation de l’influx nerveux dépend de gradients d’ions sodium et potassium maintenus dans des limites étroites par des pompes et des canaux hautement spécifiques. Un canal ionique mal conformé, une dynamique de fermeture trop lente ou trop rapide, et la transmission du signal se dérègle, avec des conséquences allant de simples troubles sensoriels à des convulsions sévères²⁷.
La formation du corps lui-même, lors du développement embryonnaire, manifeste une forme de réglage fin qui dépasse l’entendement. L’axe tête-queue, la disposition des membres, la symétrie gauche-droite, la position des organes sont déterminés par des gradients de molécules de signalisation et par l’activation spatio-temporelle de familles de gènes comme les gènes Hox. Une légère modification dans la concentration d’une de ces protéines à un moment clé, ou dans la réponse d’un tissu donné à ce signal, peut entraîner des malformations graves ou la non-viabilité de l’embryon. Là encore, nous ne sommes pas devant un processus flou laissant une grande latitude, mais devant une chorégraphie extrêmement précise : la bonne molécule, au bon endroit, à la bonne concentration, pendant la bonne durée²⁸.
Un autre aspect souvent sous-estimé concerne la compatibilité fine entre les métaux et les sites protéiques qui les coordonnent. Dans la photosynthèse, par exemple, le cluster Mn₄CaO₅ du photosystème II n’est pas un assemblage métallique quelconque ; il faut précisément du manganèse et du calcium, disposés dans une géométrie particulière, avec des atomes d’oxygène pontants à des distances et des angles très précis. Remplacer le manganèse par un autre métal ou décaler un atome de quelques dixièmes d’ångström suffit à détruire la fonction de séparation de l’eau. De même, dans les centres fer-soufre de nombreuses enzymes, les distances entre les atomes de fer et de soufre doivent être strictement respectées, sinon l’électron ne peut plus être transféré efficacement. Ces exemples montrent que la chimie du vivant n’est pas libre de choisir n’importe quel élément ni n’importe quelle configuration : elle exploite un petit sous-ensemble très contraint de possibilités, comme si elle travaillait à l’intérieur d’une fenêtre extrêmement étroite de combinaisons permises²⁹.
Les systèmes de communication cellulaire révèlent eux aussi des seuils très serrés et des couplages délicats. Les récepteurs couplés aux protéines G, présents dans presque tous les tissus, doivent changer de conformation d’une manière très spécifique lorsqu’un ligand se fixe. Cette modification déclenche l’échange d’un nucléotide (GDP → GTP) sur la protéine G, qui à son tour active ou inhibe des enzymes situées en aval. Si la conformation du récepteur est trop souple, il s’active sans signal et crée des perturbations chroniques ; si elle est trop rigide, le signal ne passe plus. Chez les bactéries, le phénomène de quorum sensing illustre un autre type de réglage : les microbes n’activent certaines fonctions (comme la formation de biofilms ou la production de toxines) que lorsque la concentration d’un signal chimique atteint un seuil précisément défini. En dessous de ce seuil, la réponse ne se déclenche pas ; au-dessus, elle se met en marche de façon collective et synchronisée dans toute la population. Autrement dit, le système ne tolère pas l’approximation : tant que le seuil n’est pas atteint, il ne se passe rien, et dès qu’il l’est, tout s’active d’un seul coup³⁰.
Enfin, ce qui donne toute sa force à ces exemples n’est pas seulement la précision de chaque module, mais le fait que tous ces modules sont interconnectés. Le métabolisme dépend d’enzymes spécifiques, qui dépendent de gènes correctement transcrits et traduits ; la transcription et la traduction dépendent du bon état de l’ADN, de la chromatine et des ribosomes ; ces structures dépendent elles-mêmes de protéines préexistantes, qui n’existent que parce que le métabolisme et la traduction fonctionnaient déjà. C’est un cercle de dépendances mutuelles : la vie, telle que nous l’observons, n’est pas un assemblage lâche de pièces interchangeables, mais un réseau serré de fonctions qui se présupposent les unes les autres. À l’image du réglage fin des constantes cosmologiques, qui rend possible l’existence d’un univers stable, l’architecture des biosystèmes montre un réglage fin interne, où chaque niveau de complexité fournit les conditions nécessaires au niveau suivant. Dans un tel cadre, le langage du hasard brut devient de plus en plus difficile à invoquer sans forcer la raison à ignorer la signature de précision que nous contemplons³¹.
3. Le même schéma : du plus grand au plus petit
La convergence n’est pas un hasard. Voici le parallèle central : en cosmologie, une minuscule fenêtre parmi un océan de constantes possibles conduit à un univers stable, structuré, cohérent. En biologie, une minuscule fenêtre dans l’espace des séquences, des conformations et des géométries moléculaires conduit à un système vivant fonctionnel. Dans les deux cas, ce que nous appelons « conditions nécessaires » n’est pas vaste : c’est un corridor très étroit, une cible impossible à atteindre au hasard. Le langage change : constantes cosmologiques d’un côté, distances de Förster de l’autre, mais la logique reste identique³².
4. La limite absolue du hasard : un univers trop petit pour les possibilités requises
Dans l’article précédent (partie 5), nous avons adopté l’hypothèse la plus généreuse en faveur du hasard : 10⁸⁰ particules, 10²⁵ secondes d’histoire, 10⁴⁵ interactions potentielles par seconde. Même en multipliant tout, l’Univers ne peut pas produire plus de 10¹⁵⁰ essais. C’est la ressource probabiliste universelle. En-dessous d’une probabilité de 10⁻¹⁵⁰, un événement est considéré comme pratiquement impossible³³.
Or, la seule chaîne enzymatique conduisant à la chlorophylle ouvre déjà un espace de 20⁷⁵⁶⁰ possibilités, les photosystèmes I et II ajoutent des espaces tout aussi gigantesques, et le cytochrome b₆f s’y ajoute encore. Si l’on ne considère que ces espaces de séquences, sans même réussir à intégrer dans le calcul les géométries atomiques, les distances, les angles et le repliement 3D, qui constituent pourtant des contraintes supplémentaires impossibles à chiffrer précisément, on aboutit déjà à un résultat vertigineux. Résultat final quantifiable : l’exigence totale dépasse 10¹⁹²³¹ conditions, bien au-delà du pouvoir d’essai de l’Univers (dans le scenario le plus favorable au hasard). Et si l’on ajoutait rigoureusement les contraintes géométriques et structurelles non quantifiées, cette barrière probabiliste ne ferait que devenir encore plus infranchissable. Le hasard cosmique ne possède tout simplement pas les ressources pour franchir une telle barrière, exactement comme le hasard biologique ne possède pas les ressources pour franchir la barrière du « système incomplet » ³⁴.
5. Deux réglages fins, une seule conclusion rationnelle
Lorsque deux disciplines indépendantes, travaillant à deux extrêmes de l’échelle (cosmique et moléculaire), aboutissent à la même caractéristique (une dépendance à des conditions extrêmement serrées), d’ici la question devient inévitable : que signifie cette précision cumulative³⁵ ?
Trois réponses sont possibles. Le hasard, mais il manque de ressources (10¹⁵⁰ essais contre 10¹⁹²³¹ combinaisons, ce qui représente un écart trop abyssal). La nécessité aveugle, c’est-à-dire l’idée de lois de la nature qui « imposeraient » ce qui existe, mais les constantes cosmologiques n’ont aucune nécessité interne connue, et les protéines ne possèdent aucune tendance naturelle à s’autoorganiser vers la fonctionnalité. L’intention, enfin : un réglage voulu, une architecture pensée, une cohérence qui précède la matière. La troisième réponse est celle qui fait correspondre les faits, pas les scénarios spéculatifs³⁶.
6. Cohérence du réel : un univers pensé pour être habitable, une cellule pensée pour être vivante
Ce que la cosmologie montre à grande échelle : un Univers calibré avec soin, la biologie le confirme à petite échelle : des systèmes moléculaires calibrés avec une précision extrême. Le parallèle est trop fort pour être ignoré : un Univers réglé pour permettre la chimie, une chimie réglée pour permettre la vie, une vie réglée jusque dans l’ångström pour fonctionner. Le réel n’est pas un chaos heureux : c’est une architecture hiérarchisée, où chaque niveau fournit le cadre nécessaire au niveau suivant³⁷.
Conclusion : du fine-tuning cosmique au fine-tuning biologique, un même auteur
L’Univers aurait pu être stérile. La matière aurait pu n’avoir aucune complexité. La chimie aurait pu être chaotique. La vie aurait pu ne pas exister. Et pourtant, nous observons des constantes calibrées, des lois stables, des structures raffinées, des systèmes intégrés, et des fenêtres si étroites que la raison ne peut que constater : la précision extrême est inscrite dans les fondations du réel et que l’intolérance à l’imprécision est absolue. D’ici, la conclusion la plus cohérente avec les faits est que le cosmos porte la signature d’une intelligence. La cellule aussi. La photosynthèse est l’un des témoins les plus éclatants de cette intention : non pas un bricolage hasardeux, mais un moteur de lumière pensé, voulu, réglé, afin que la vie puisse exister³⁸.
Dans ce cadre, il devient difficile de continuer à parler du hasard comme si ce mot suffisait à tout expliquer. Plus les données s’accumulent, plus l’image qui se dessine est celle d’un réel réglé avec une précision obstinée, à tous les niveaux, du rayon cosmologique jusqu’à la distance entre les atomes de manganèse dans un centre réactionnel. Pourtant, le discours naturaliste contemporain persiste à affirmer que, malgré ces fenêtres de viabilité extrêmement étroites, le hasard et la nécessité aveugle suffisent à produire l’univers, la vie et la pensée. Comme si un processus sans intention, sans projet et sans connaissance pouvait jouer, seul, le rôle d’un architecte silencieux.
Il y a là une forme de glissement discret, mais profond. Le matérialisme prétend avoir chassé toute dimension religieuse du paysage, mais il a simplement changé de vocabulaire. Là où d’anciennes cosmologies invoquaient des dieux ou des forces invisibles pour combler les zones d’ombre, le récit moderne invoque un autre type d’agent invisible, baptisé hasard. On lui attribue le pouvoir de franchir des abîmes de probabilité, de traverser des espaces combinatoires dont l’univers entier ne peut explorer qu’une minuscule fraction, de mettre en place des chaînes enzymatiques gigantesques et des réseaux intégrés, comme si tout cela allait de soi. À ce stade, le hasard n’est plus une notion mathématique, c’est un personnage. Il ne décrit plus une fréquence de résultats, il devient une sorte de démiurge anonyme que l’on appelle à la rescousse lorsque l’explication fait défaut.
Ce déplacement est d’autant plus frappant que, dans le même temps, la science authentique ne cesse de montrer l’intolérance radicale du vivant à l’approximation. La moindre erreur dans la séquence d’un facteur de coagulation fait basculer l’organisme entre hémorragie et thrombose. Un léger décalage dans la courbe d’affinité de l’hémoglobine compromet l’oxygénation des tissus. Un changement minime dans la géométrie d’un centre Mn₄CaO₅ détruit la séparation de l’eau. Le réglage fin n’est pas un slogan, il est inscrit dans les chiffres, les structures et les seuils. Devant ces faits, affirmer que le hasard sans mesure a tout produit revient moins à faire un raisonnement scientifique qu’à réciter un credo métaphysique.
On pourrait alors se demander qui, exactement, est en train de faire de la « mythologie ». Est-ce celui qui, confronté à des constantes cosmologiques finement ajustées et à des systèmes biologiques qui ne tolèrent pas l’imprécision, conclut qu’un dessein et une sagesse sont à l’œuvre dans le réel ? Ou bien celui qui transforme le hasard en principe absolu, capable de franchir des barrières probabilistes inimaginables, sans jamais pouvoir les quantifier réellement, et qui refuse par avance toute autre interprétation possible ? Sous prétexte de protéger la science de toute idée de dessein, le matérialisme finit par lui imposer une philosophie qui ne découle pas des données, mais qui les filtre.
Ce que montrent les deux réglages fins, cosmique et biologique, n’est pas que nous aurions prouvé mathématiquement l’existence de Dieu, comme on démontre un théorème. Ce qu’ils mettent en lumière, c’est que le récit d’un univers auto-suffisant, né sans cause intelligible, réglé sans intention, peuplé de systèmes vivants surgis sans projet, ne correspond plus à ce que nous observons. Plus les mesures se précisent, plus la fenêtre des possibilités s’effondre. Le hasard brut, sans mesure, sans probabilité calculable et sans possibilité de vérification, cesse d’être une explication pour devenir un refuge philosophique. Cela n’a plus grand-chose à voir avec la science, et beaucoup avec une foi implicite dans un récit matérialiste du monde.
Bibliographie
¹ Barrow, J.D. & Tipler, F. The Anthropic Cosmological Principle. Oxford University Press, 1986.² Rees, M. Just Six Numbers: The Deep Forces That Shape the Universe. Basic Books, 2000.³ Davies, P. The Goldilocks Enigma: Why Is the Universe Just Right for Life? Allen Lane, 2006.⁴ Collins, R. « The Teleological Argument », in The Blackwell Companion to Natural Theology, Blackwell, 2009.
⁵ Blankenship, R.E. Molecular Mechanisms of Photosynthesis. Wiley-Blackwell, 2002.⁶ Meyer, S.C. Signature in the Cell: DNA and the Evidence for Intelligent Design. HarperOne, 2009.⁷ Denton, M. Nature’s Destiny: How the Laws of Biology Reveal Purpose in the Universe. Free Press, 1998.
⁸ Susskind, L. The Cosmic Landscape: String Theory and the Illusion of Intelligent Design. Little, Brown, 2005.⁹ Weinberg, S. The First Three Minutes. Basic Books, 1977.¹⁰ Rees, M., op. cit.¹¹ Penrose, R. The Road to Reality. Jonathan Cape, 2004.¹² Barrow & Tipler, op. cit.¹³ Collins, R., op. cit.
¹⁴ Alberts, B. et al. Molecular Biology of the Cell. Garland Science, 6e éd., 2014.¹⁵ Barber, J. « Photosystem II: the engine of life », Quarterly Reviews of Biophysics, 2003.¹⁶ Behe, M.J. The Edge of Evolution. Free Press, 2007.¹⁷ Meyer, S.C., op. cit.¹⁸ Denton, M., op. cit.
¹⁹ Steitz, T., Ramakrishnan, V. travaux sur la structure du ribosome (Prix Nobel de Chimie 2009).²⁰ Kornberg, R.D. « Chromatin Structure », Annual Review of Biochemistry, 1974, et travaux ultérieurs.
²¹ Nicholls, D.G. & Ferguson, S.J. Bioenergetics. Academic Press, 4e éd., 2013.²² Jacob, F. & Monod, J. « Genetic regulatory mechanisms in the synthesis of proteins », Journal of Molecular Biology, 1961.²³ Young, M.W., Hall, J., Rosbash, M. travaux sur les horloges circadiennes (Prix Nobel de Médecine 2017).
²⁴ Nelson, D. & Cox, M. Lehninger Principles of Biochemistry. W.H. Freeman, 6e éd.²⁵ Hoffman, M. & Monroe, D.M. « A cell-based model of hemostasis », Thrombosis and Haemostasis, 2001.
²⁶ Bascompte, J. & Jordano, P. Mutualistic Networks. Princeton University Press, 2013.
²⁷ Kandel, E.R. et al. Principles of Neural Science. McGraw-Hill, 5e éd.²⁸ Carroll, S.B. Endless Forms Most Beautiful: The New Science of Evo Devo. W.W. Norton, 2005.
²⁹ Yano, J. & Yachandra, V.K. « Mn₄Ca Cluster in Photosystem II », Photosynthesis Research, 2014 ; Beinert, H. sur les centres Fe-S.
³⁰ Bassler, B.L. « Small talk: cell-to-cell communication in bacteria », Cell, 2002.
³¹ Kitano, H. Systems Biology: A Brief Overview, Science, 2002.
³² Collins, R., op. cit.
³³ Dembski, W.A. The Design Inference. Cambridge University Press, 1998 (pour la notion de seuil de probabilité universelle).
³⁴ Meyer, S.C., op. cit. ; Behe, M.J., Darwin’s Black Box. Free Press, 1996.
³⁵ Plantinga, A. Where the Conflict Really Lies: Science, Religion and Naturalism. Oxford University Press, 2011.
³⁶ Ibid.
³⁷ Denton, M., op. cit.
³⁸ Meyer, S.C., op. cit.




Commentaires