1. Introduction
Au fil du temps, la recherche en nutrition a suivi les grands défis de santé de chaque époque. D’abord centrée sur la prévention des carences, elle s’est ensuite tournée vers l’équilibre énergétique, puis vers les habitudes alimentaires associées aux maladies chroniques. Aujourd’hui, grâce aux technologies modernes, la nutrition personnalisée émerge comme une approche capable d’adapter l’alimentation aux besoins individuels.
L’entreprise “ZOE” a joué un rôle clé dans la notoriété de la nutrition personnalisée. Leur approche s’appuie sur l’ étude PREDICT (1), qui a analysé la variabilité interindividuelle des réponses métaboliques aux aliments (i.e. glycémie et lipémie postprandiale). Les résultats indiquent que des facteurs tels que la composition du microbiome, l’état de santé métabolique initial, le mode de vie et la génétique, expliquent les différences de réponses métaboliques entre individus. Le microbiome intestinal est apparu comme central : il expliquait une large part de la variabilité interindividuelle.
Sur base de ces résultats, ZOE un protocole de mise en pratique à domicile :
- Collecte des données personnelles.
- Analyse de biomarqueurs (e.g. microbiome dans les selles, glycémie après un repas).
- Comparaison à la base de données issue des études PREDICT.
- Restitution de recommandations (e.g. score pour chaque aliment, proposition de repas pour optimiser la réponse métabolique).
Les promesses de l’approche : optimiser l’énergie, réduire l’inflammation chronique, favoriser la gestion du poids et la santé métabolique sur le long terme.
Le présent article se penchera sur le rationnel de cette approche… et sur ce qu’elle bouscule vraiment, tant sur le plan épistémologique que sociologique et éthique.
2. Approche conventionnelle vs personnalisée
Avant d’évaluer les promesses et limites de la nutrition personnalisée, il est utile de comparer les méthodes classiques de recherche à celles de cette approche émergente (2).
Approche conventionnelle (explicative, guidée par les hypothèses)
- On part d’une hypothèse théorique.
- e.g. le remplacement des acides gras insaturés par des acides gras saturés augmente le cholestérol LDL
- On définit un plan expérimental (design d’étude) et on spécifie un modèle statistique pour tester l’hypothèse.
- e.g. un essai randomisé contrôlé où une alimentation riche en acides gras insaturés est comparée à une alimentation riche en acide gras saturés.
- On cherche à répliquer ces résultats dans d’autres échantillons ou études pour tester leur robustesse.
- On procède à des inférences causales (estimation de l’effet moyen dans la population)
- e.g. le remplacement de 1 % de l’apport calorique d’acides gras insaturés par des acides gras saturés augmente le cholestérol LDL de 2,25 mg/dL.
Si l’on cherche à appliquer l’intervention à l’échelle individuelle, on présume des résultats proches de l’effet moyen si la population étudiée est relativement identique.
Cependant, on peut faire valoir que cette approche est limitée en cas de variabilité individuelle élevée à une intervention, d’où le rationnel de l’approche personnalisée.
Approche personnalisée (prédictive, guidée par les données)
- On part des données disponibles plutôt que d’une hypothèse théorique préalable.
- e.g. l’étude PREDICT a collecté de nombreuses données sur l’alimentation, le microbiote, les biomarqueurs sanguins et la glycémie postprandiale d’individus.
- On définit une stratégie de modélisation prédictive et on spécifie un algorithme ou modèle statistique/machine learning.
- e.g. Dans PREDICT, des modèles de machine learning ont été utilisés pour prédire la réponse métabolique individuelle après un repas.
- On procède à une évaluation de la performance prédictive du modèle sur des données de validation.
- e.g. la capacité du modèle à prédire la glycémie postprandiale est mesurée.
- On cherche à valider le modèle sur des échantillons indépendants pour tester sa robustesse.
À l’échelle individuelle, on applique le modèle pour prédire la réponse attendue selon les caractéristiques propres de chaque personne.
Cependant, anticiper une réponse individuelle ne garantit pas que l’on comprenne les mécanismes qui la sous-tendent, et ce n’est pas sans importance.
3. Prédire… sans comprendre
Dans la nutrition personnalisée, beaucoup de travaux s’appuient sur des corrélations massives (e.g. microbiome ↔ réponse glycémique). Ces modèles prédisent parfois un phénomène, mais n’expliquent pas pourquoi il se produit.
Pour comprendre cette différence, il faut définir ce qu’est la causalité.
La minute science du Père Iliopoulos (cliquer pour ouvrir)

Prenons un exemple concret pour illustrer ces propos : imaginons qu’on constate que les ventes de crème glacée sont associées aux attaques de requins. Si cette relation était causale, supprimer les ventes de glace, toutes choses égales par ailleurs, aurait réellement changé le nombre d’attaques.
Dans les faits, ce n’est pas le cas : la glace n’est qu’un corrélat, sa vente étant liée à la fréquentation de la plage et donc à la baignade provoquée par la chaleur — un facteur confondant qui explique à la fois plus de glaces vendues et plus d’attaques.
Maintenant, changeons le contexte : une part importante des glaces est achetée par des promeneurs qui ne se baignent pas. Dans ce cas, les ventes de glace ne reflètent plus le temps passé dans l’eau, et la corrélation initiale glaces ↔ attaques de requins disparaît.
Cela illustre un point clé : une prédiction basée sur un corrélat ne se généralise pas facilement hors du contexte observé.
C’est exactement le problème en nutrition personnalisée. Un modèle peut prédire correctement la réponse métabolique dans une cohorte donnée, mais échouer dès qu’on change de population ou d’environnement. Le microbiome, en particulier, est un domaine complexe où les méthodes d’inférence causale font encore débat (5).
On peut donc imaginer que des modèles comme PREDICT pourraient perdre tout pouvoir prédictif dans d’autres contextes / populations.
4. Une nutrition personnalisée… aux erreurs de mesure
Nous abordons une limite méthodologique importante des études de nutrition personnalisée.
Chez un même individu, les mesures biologiques changent d’un jour à l’autre, c’est ce qu’on appelle l’erreur aléatoire (6). Un repas identique peut ainsi provoquer une mesure de glycémie plus élevée un jour et plus faible le lendemain. Ces fluctuations proviennent de deux sources :
- La variabilité biologique : niveau de stress, sommeil, alimentation de la veille, etc.
- Les erreurs techniques : variations liées à la précision de l’instrument de mesure.
Ces erreurs aléatoires sont particulièrement importantes pour les capteurs de glucose en continu utilisés dans le cadre de la nutrition personnalisée (7).
Pour réduire l’impact de ces erreurs aléatoires, il faudrait répéter plusieurs jours les mêmes mesures (e.g. microbiome, glycémie), les mêmes repas standardisés et moyenner les résultats. Or, les études comme PREDICT ne le font pas. Pour une utilisation pratique à domicile, on comprend également qu’une telle approche deviendrait très fastidieuse et onéreuse.
En conséquence, le modèle peut interpréter une partie de cette variabilité aléatoire comme une caractéristique stable de l’individu. Ainsi, une prédiction correcte un jour peut devenir fausse le lendemain chez un même individu. Et ce n’est pas la seule faille méthodologique de cette approche.
5. Garbage In, Garbage Out
L’expression “Garbage In, Garbage Out” s’applique parfaitement à la nutrition personnalisée : si les données qu’on met dans un modèle sont biaisées ou non pertinentes, les résultats le seront aussi (8).
Même si les mesures métaboliques postprandiales étaient techniquement correctes, cela ne signifie pas forcément qu’elles constituent une base solide pour ajuster l’alimentation. Tout dépend de la pertinence du critère évalué.
Par exemple, la glycémie postprandiale est un indicateur clinique utile chez les personnes atteintes de diabète de type 2. En revanche, chez les individus sains, elle revient rapidement à la normale et il n’y a pas de preuves que des variations glycémiques postprandiales plus ou moins élevées, dans une gamme physiologique, influencent le risque cardiovasculaire ou métabolique à long terme.
Plus largement, une interprétation prudente est nécessaire pour ce qui est des mesures de biomarqueur aiguës, qui ne sont pas forcément le reflet du résultat chronique. L’activité illustre bien ce point : elle augmente transitoirement la pression artérielle après l’effort (9), mais tend à avoir l’effet inverse à long terme (10).
Mesurer la glycémie postprandiale pour guider la nutrition chez l’individu sain → Le modèle prend en compte un signal qui n’influence pas vraiment la santé → Garbage out
6. “Mais pourtant, ça fonctionne !”
Malgré les limites évoquées, certains avancent que les études comparatives de nutrition personnalisée montrent des améliorations sur des facteurs comme les triglycérides, le poids ou le pourcentage de masse grasse, par rapport à d’autres approches (11).
Comme le souligne Nicola Guess, les études actuelles sur la nutrition personnalisée manquent souvent de groupes témoins appropriés (12). Dans beaucoup de ces études, le groupe assigné à la personnalisation dispose d’un accompagnement plus intensif que le groupe témoin (11,13). Ce niveau de soutien supérieur est susceptible de biaiser les résultats. Par exemple, si le groupe assigné à la nutrition personnalisée dispose d’un accès à une application fournissant conseils et rappels, le groupe témoin devrait bénéficier d’un suivi d’intensité équivalente fondé sur des recommandations nutritionnelles conventionnelles.
Dans ces conditions comparatives inappropriées, on ne peut pas donc faire l’inférence que la nutrition personnalisée a été plus efficace qu’une approche conventionnelle.
7. La méritocratie nutritionnelle face à l’éléphant au milieu du salon
Au-delà des limites méthodologiques et des implications épistémologiques, la personnalisation algorithmique soulève aussi des enjeux sociaux et éthiques qu’il est impossible d’ignorer (14).
La logique de la nutrition personnalisée peut restreindre l’autonomie, poussant les utilisateurs à suivre les recommandations pour se conformer à un algorithme opaque plutôt que pour comprendre et améliorer réellement leur santé (15). Des études expérimentales dans le champ de la prise de décision économique illustrent ce risque de surdépendance, montrant que les participants suivent les recommandations d’un algorithme même lorsque celles-ci mènent à des choix objectivement sous-optimaux (16) .
Par ailleurs, il y a un éléphant au milieu du salon : ces approches négligent complètement les déterminants structurels de la santé, tels que l’environnement alimentaire, les ressources économiques ou les contraintes sociales, qui façonnent profondément les habitudes alimentaires (17,18).
Les outils technologiques de personnalisation instaurent ainsi une forme de méritocratie nutritionnelle, dans laquelle la réussite ou l’échec apparent dépendrait de l’adhésion aux recommandations et de la discipline personnelle, plutôt que des contraintes concrètes liées au coût ou à la disponibilité des aliments prescrits par l’algorithme.
8. Les autres modèles prédictifs : plus robustes, ou tout aussi casse-gueule ?
À ce stade, il est légitime de se demander si tous les modèles prédictifs sont vulnérables aux mêmes critiques. Il est important de souligner qu’ils ne partent pas tous des mêmes fondements ni n’ont la même construction.
Prenons un exemple de modèle prédictif assez robuste comme celui de Framingham (19). Il permet d’estimer le risque absolu de développer une maladie cardiovasculaire sur 10 ans sur base de différentes variables : âge, sexe, cholestérol circulant, pression artérielle, tabagisme, diabète. Le modèle a été construit à partir de l’étude Framingham Heart Study, une cohorte américaine prospective. Il se distingue de manière importante d’un modèle comme PREDICT :
- Il est construit sur base de tests d’hypothèse préalables et de variables causales sélectionnées a priori.
- Il a été validé empiriquement dans de nombreuses cohorte, ce qui le rend généralisable.
- Il est simple et transparent : chaque facteur contribue de façon claire au score, contrairement à certains algorithmes de nutrition personnalisée difficiles à interpréter.
- Il fournit un résultat cliniquement pertinent (i.e. le risque d’événement cardiovasculaire).
Il s’agit donc d’un modèle “hybride”. Il est utilisé de manière prédictive, mais il est construit sur des bases explicatives. Sa robustesse permet aux cliniciens de guider les décisions et d’ajuster l’intensité des recommandations en fonction du risque..
Ainsi, on peut dire que tous les modèles prédictifs ne se valent pas : certains, comme Framingham, combinent explication et prédiction, ce qui renforce leur robustesse et leur transparence. D’autres privilégient la performance prédictive immédiate au prix d’une opacité accrue.
9. Conclusion : la véritable nutrition personnalisée
Dans cet article, les limites de certaines formes de personnalisation nutritionnelle ont été mises en évidence. Cela ne signifie pas que je pense qu’aucune forme de personnalisation ne soit nécessaire, ni que tout le monde doive suivre la même alimentation.
À mon sens, la véritable personnalisation repose sur quatre piliers :
- Les meilleures données scientifiques disponibles : identifier les interventions ayant un effet causal sur des paramètres pertinents pour l’individu.
- Les préférences individuelles : adapter l’alimentation aux habitudes, goûts et valeurs de chacun.
- Le contexte : prendre en compte les variables contextuelles comme les objectifs de la personne, le temps disponible et ses caractéristiques socio‑économiques, ainsi que les facteurs structurels tels que l’accessibilité et la logistique (disponibilité des aliments recommandés, moyens de transport).
- La facilitation active : mettre en place des actions concrètes permettant d’appliquer les recommandations dans l’environnement réel de l’individu, comme l’accompagnement personnalisé, le suivi régulier et les outils pédagogiques.
Cette approche, inspirée des principes du PARiHS framework (20), met l’accent non seulement sur ce qui fonctionne, mais aussi sur comment et dans quelles conditions les recommandations peuvent être réellement appliquées.
Enfin, à mon humble avis, si une méthode de “nutrition personnalisée” recommande de manger une pomme plutôt qu’une banane en raison de ton microbiome, c’est que l’algorithme recherche surtout le pigeon idéal.
Références
- Berry SE, Valdes AM, Drew DA, Asnicar F, Mazidi M, Wolf J, et al. Human postprandial responses to food and potential for precision nutrition. Nat Med. juin 2020;26(6):964‑73.
- Elragal A, Klischewski R. Theory-driven or process-driven prediction? Epistemological challenges of big data analytics. J Big Data. 23 juin 2017;4(1):19.
- Lewis DK. Counterfactuals. Harvard University Press; 1973. 150 p.
- Hernan MA, Robins JM. Causal Inference: What If.
- Relman DA. Thinking about the microbiome as a causal factor in human health and disease: philosophical and experimental considerations. Curr Opin Microbiol. avr 2020;54:119‑26.
- Bland M. An Introduction to Medical Statistics. Oxford University Press; 2015. 447 p.
- Matabuena M, Pazos-Couselo M, Alonso-Sampedro M, Fernández-Merino C, González-Quintela A, Gude F. Reproducibility of continuous glucose monitoring results under real-life conditions in an adult population: a functional data analysis. Sci Rep. 26 août 2023;13(1):13987.
- Teno JM. Garbage in, Garbage out—Words of Caution on Big Data and Machine Learning in Medical Practice. JAMA Health Forum. 16 févr 2023;4(2):e230397.
- Shepherd JT. Circulatory response to exercise in health. Circulation. déc 1987;76(6 Pt 2):VI3-10.
- Fagard RH. Exercise characteristics and the blood pressure response to dynamic physical training. Med Sci Sports Exerc. juin 2001;33(6 Suppl):S484-492; discussion S493-494.
- Bermingham KM, Linenberg I, Polidori L, Asnicar F, Arrè A, Wolf J, et al. Effects of a personalized nutrition program on cardiometabolic health: a randomized controlled trial. Nat Med. juill 2024;30(7):1888‑97.
- Guess N. Big data and personalized nutrition: the key evidence gaps. Nat Metab. août 2024;6(8):1420‑2.
- Popp CJ, Hu L, Kharmats AY, Curran M, Berube L, Wang C, et al. Effect of a Personalized Diet to Reduce Postprandial Glycemic Response vs a Low-fat Diet on Weight Loss in Adults With Abnormal Glucose Metabolism and Obesity. JAMA Netw Open. 28 sept 2022;5(9):e2233760.
- Huneman P. Les sociétés du profilage: Évaluer, optimiser, prédire. Éditions Payot; 2023. 326 p.
- Magalhães JC. Do Algorithms Shape Character? Considering Algorithmic Ethical Subjectivation. Soc Media Soc. 1 avr 2018;4(2):2056305118768301.
- Banker S, Khetani S. Algorithm Overdependence: How the Use of Algorithmic Recommendation Systems Can Increase Risks to Consumer Well-Being. J Public Policy Mark. 1 oct 2019;38(4):500‑15.
- Giskes K, Avendano M, Brug J, Kunst AE. A systematic review of studies on socioeconomic inequalities in dietary intakes associated with weight gain and overweight/obesity conducted among European adults. Obes Rev Off J Int Assoc Study Obes. juin 2010;11(6):413‑29.
- Desbouys L, Méjean C, De Henauw S, Castetbon K. Socio-economic and cultural disparities in diet among adolescents and young adults: a systematic review. Public Health Nutr. avr 2020;23(5):843‑60.
- D’Agostino RB, Pencina MJ, Massaro JM, Coady S. Cardiovascular Disease Risk Assessment: Insights from Framingham. Glob Heart. mars 2013;8(1):11‑23.
- Kitson A, Harvey G, McCormack B. Enabling the implementation of evidence based practice: a conceptual framework. BMJ Qual Saf. 1 sept 1998;7(3):149‑58.