Die frühkindliche Ernährung – und die der Mutter – ist wichtig, das wird immer klarer. Wie sie die Entwicklung von Adipositas, Typ-2-Diabetes und psychischen Erkrankungen beeinflusst, zeigen zwei Analysen aus Kriegszeiten.
Für Eilige gibt’s am Ende eine Zusammenfassung.
Eine quantitativ und/oder qualitativ mangelhafte Ernährung während der Schwangerschaft und frühen irdischen Entwicklungsphase gibt dem Nachwuchs einen Rucksack an gesteigerten Risiken für spätere Herzkreislauf-, metabolische und psychiatrische Erkrankungen mit auf den Lebensweg. Studienergebnisse sprechen für frühe epigenetische Prägungen.
Seit die Epigenetik die Erkenntnisse über die generationsübergreifende Weitergabe erworbener Eigenschaften revolutioniert hat, haben die Lebensgewohnheiten zeugungswilliger Paare einen anderen Stellenwert bekommen. Dass die Genregulationsmuster (Epigenome) von Samen- und Eizellen nachhaltig von der Lebensweise – insbesondere von Rauchverhalten, Alkoholkonsum, Ernährung und körperlicher Aktivität – geprägt werden, ist mittlerweile wissenschaftlich evident. Eine US-amerikanische Arbeitsgruppe hat die Auswirkungen einer zuckerlastigen Nährstoffversorgung während der ersten 1.000 Lebenstage – gemessen ab der Empfängnis – ins Visier genommen. Wie prägt die Ernährung in utero und der ersten Phase der irdischen Existenz die gesundheitliche Entwicklung während des weiteren Lebensweges?
Ohne detaillierte Kenntnis der heute bekannten epigenetischen Mechanismen fanden der britische Epidemiologe David J. P. Barker und der deutsche Endokrinologe Günter Dörner unabhängig voneinander Belege dafür, dass die Lebensbedingungen in der perinatalen Phase über Jahrzehnte hinaus die Gesundheit des neuen Erdenbürgers beeinflussen können. Die von Barker formulierte „Hypothese des fetalen Ursprungs von Erwachsenenkrankheiten“ (Barker-Hypothese) belegte er mit Daten, die eine direkte Verbindung zwischen pränataler Ernährung und der Entwicklung einer koronaren Herzkrankheit im Erwachsenenalter aufzeigten (hier). In der Folge mehrten sich die Hinweise, dass die sensible Organentwicklungsphase zwischen Konzeption und Ende des zweiten Lebensjahres – also die ersten etwa 1.000 Tage – besonders empfänglich für Signale ist, die die Expression der Erbinformation nachhaltig beeinflussen.
Die Ernährung ist dabei einer der bedeutendsten Signalgeber für – wie wir heute wissen – epigenetische Prägungen (ablesbar an DNA-/Histon-Methylierungsmustern und weiteren Modifikationen). Diese epigenetischen Schaltpläne sind prinzipiell über den eigenen Lebensstil veränderbar, was jedoch ein langwieriger, Disziplin erfordernder Prozess ist. Dass pränatale Unter- und Überernährung sowie der gewichtsunabhängige Mangel entwicklungsrelevanter Nährstoffe die adulte Gesundheitsentwicklung, insbesondere in Bezug auf Herz-Kreislauf-Erkrankungen sowie die Entwicklung von Adipositas und Diabetes Typ 2 (DT2) maßgeblich beeinflussen, ist heute wissenschaftlicher Konsens. Das wohl einprägsamste Beispiel einer durch pränatale und frühe postnatale Unterernährung induzierten Erhöhung der Krankheitslast im Erwachsenenalter sind die Folgen des „Niederländischen Hungerwinters“ am Ende des Zweiten Weltkriegs.
Die ersten nachdrücklichen Belege, welche langwierigen Folgen eine während der fetalen und ersten frühkindlichen Phase durchlebte Malnutrition auf bestimmte Erkrankungsrisken haben kann, liefern die Ergebnisse zahlreicher Studien unter dem Dach der Dutch famine birth cohort study. Dabei handelt es sich um die langfristige gesundheitsbezogene Nachbeobachtung von fast 2.500 Personen, die zwischen 1943 und 1947 in einer Klinik im Westen der Niederlande geborenen wurden, deren Mütter im zeitlichen Umfeld des „Niederländischen Hungerwinters“ 1944/45 unter den Bedingungen stark hypokalorischer Mangelernährung schwanger waren. Die seit dieser Zeit gesammelten, ab 1994 in zahlreichen Einzelstudien ausgewerteten und mittlerweile um epigenetische Befunde erweiterten Gesundheitsdaten belegen eindrücklich, wie pränataler Energie- und Nährstoffmangel zeitlebens die Risiken für Adipositas, DT2, kardiovaskuläre und psychiatrische Erkrankungen erhöht (hier, hier und hier).
Epigenetische Analysen von Mitgliedern der Hungerkohorten zeigten, dass noch 60 Jahre nach dem Hungerwinter bei den damals Geborenen sowie bei deren Kindern eine reduzierte Methylierung des den Insulin like Growth Faktor 2 kodierenden IGF2-Gens vorliegt (hier). Ein niedrigerer Methylierungsgrad bedeutet verstärkte IGF2-Produktion mit der Folge erhöhter Tendenz zur Fetteinlagerung, gesteigerten Risiken für die Entwicklung von Adipositas und anhängigen kardiovaskulären und metabolischen Erkrankungen (insbesondere DT2). Die innerhalb der niederländischen Hungerwinter-Kohorte gemessenen Erkrankungszahlen untermauern diese Zusammenhänge. Auch erhöhte Prävalenzen für depressive und epileptische Erkrankungen wurden bei den pränatal Hungerleidenden mittlerweile eruiert (hier und hier).
Analysen am Boumann Zentrum für psychische Gesundheit in Rotterdam ergaben zudem, dass die Nachkommen der Frauen, die im Hungerwinter im ersten Schwangerschaftstrimester waren, vermehrt an Suchterkrankungen litten (hier). Studienleiter Ernst Franzek sieht die Ursache in epigenetischen Fehlprogrammierungen im Belohnungssystem des Gehirns, das in der frühen Schwangerschaft entwickelt wird und zentral in die Suchtentwicklung involviert ist. Dies ist nur ein Befund, der zeigt, dass auch der Abschnitt der Schwangerschaft, in dem es zur Unterversorgung kommt, einen starken Einfluss auf Art und Schwere der gesundheitlichen Folgen im Erwachsenenleben hat. Die Mangelernährung in der frühen Schwangerschaft, in der sich die Organe und Gewebe des Fötus besonders schnell entwickeln, hatte insgesamt die stärksten Auswirkungen.
„Tempora mutantur, nos et mutamur in illis“ („Die Zeiten ändern sich, und wir ändern uns in ihnen“) – trotz der schrecklichen Hungersnöte, die auch heute in einigen Teilen der Welt zu beklagen sind, gibt es laut Child Nutrition Report 2025 der UNICEF weltweit erstmals mehr übergewichtige als untergewichtige Kinder. Leider ist dafür nicht die Reduzierung von Hungersnöten ausschlaggebend. Die moderne Lebensweise mit wenig körperlicher Aktivität bei energiedichter Ernährung, die von einem Überangebot zuckerhaltiger Softdrinks und anderen mikronährstoffarmen Kalorienbomben geprägt ist, lässt Kinder bereits in den so wichtigen Wachstumsphasen aus allen Nähten platzen. Dabei geht es nicht um Schuldzuweisungen – sondern um frühe Ursachensuche und erfolgversprechende Gegenmaßnahmen.
Eine 2024 in Science publizierte US-amerikanische Studie hat den Einfluss hoher pränataler und frühkindlicher Zuckerexposition auf die Entwicklung von DT2 und Hypertonie (HT) im weiteren Lebensverlauf untersucht. Vergleichbar der niederländischen Hungersituation nutzte das Forschungsteam eine besondere realhistorische Ernährungslage: Während des Zweiten Weltkriegs gab es im Vereinigten Königreich ab Mai 1940 eine staatlich angeordnete Zuckerrationierung. Als diese im September 1953 beendet wurde, kam es zum schlagartigen Anstieg des Zuckerkonsums. In der UK-Biobank gesammelte Lebensstil- und Gesundheitsdaten von Personen, die während dieser Umstiegsphase von niedrigem auf hohen Zuckerkonsum gezeugt wurden, lieferten das Material für die Analyse der gesundheitlichen Entwicklung in Abhängigkeit von der Zuckerversorgung während der fetalen und frühkindlichen Lebensphase.
Während der fast eineinhalb Jahrzehnte andauernden Rationierung lag die durchschnittliche Pro-Kopf-Zuckeraufnahme mit < 40 g pro Tag für Erwachsene und < 15 g für Kinder im Bereich der heute von Fachgesellschaften gegebenen Empfehlung. Demnach sollten weniger als 10 Prozent des täglichen Gesamtenergiebedarfs durch freien Zucker gedeckt werden (40 g Zucker: ca. 160 kcal). Unmittelbar nach Beendigung der Rationierung stieg die tägliche Pro-Kopf-Aufnahme sehr schnell auf etwa das Doppelte an, was in etwa auch dem aktuellen Konsum in Deutschland entspricht (lt. Statista > 30 kg/Jahr entsprechend > 82 g/Tag). Bedingt durch die mütterliche Ernährungsweise, überzuckerte Babynahrung und Beikost sind heute viele Kinder bereits im Mutterleib, während der Stillzeit und zu Beginn der festen Nahrungsaufnahme (inklusive gesüßter Getränke) einer exzessiven Aufnahme von freiem Zucker ausgesetzt.
Die Studienautoren um Tadea Gracner von der University of Southern California verfolgten das Ziel, die Auswirkungen eines deutlich überhöhten Zuckerkonsums während der ersten 1.000 Tage des Lebens (von Empfängnis bis Ende des zweiten Lebensjahres) auf die Entwicklung von DT2 und HT im Erwachsenenalter zu eruieren. Dazu verglichen sie die gesundheitlichen Langzeitdaten von insgesamt gut 60.000 Personen mit unterschiedlicher frühkindlicher Zuckerhistorie.
Etwa 22.000 dieser Personen wurden kurz nach Ende der Zuckerrationierung (nach September 1953) gezeugt und daher der „Niemals-rationiert-Kohorte“ zugeordnet, die ab dem Zeitpunkt der Empfängnis einer „Zuckerflut“ ausgesetzt war. Die anderen etwa 38.000 Teilnehmer durchlebten alle ihre gesamte intrauterine Entwicklungsphase sowie je nach Geburtsdatum unterschiedlich lange Zeiträume ihrer ersten beiden irdischen Lebensjahre unter den Bedingungen reduzierter Zuckeraufnahme. Diese „Rationiert-Kohorte“ wurde je nach Dauer der erfahrenen Zuckerreduktionsphase in fünf Subkohorten unterteilt.
Dauer der frühkindlichen Zuckerrationierung [Monate]:
Berücksichtigt wurde in der Analyse der ab den 1950er Jahren erfolgte Anstieg der Gesamtenergieaufnahme, die aber datenbasiert zu durchschnittlich 77 Prozent dem erhöhten Zuckerverzehr zuzurechnen ist. Obwohl es während der Kriegs- und Nachkriegszeit eine allgemeine Lebensmittelknappheit mit diversen Rationierungen gab, explodierte für keine andere Nährstoffgruppe der Konsum so drastisch wie für Zucker. Dies stärke – so die Studienautoren – die Wahrscheinlichkeit, dass die ermittelten Daten für die DT2- und HT-Risiken zu großen Teilen dem Anstieg des Zuckerverzehrs zuzuschreiben sind und weniger der vermehrten Energieaufnahme durch andere Lebensmittel ohne zugesetzten Zucker.
In allen Kohorten stiegen (erwartungsgemäß) die HT- und DT2-Erkrankungraten mit dem Lebensalter. Doch obwohl die Gesamternährungslage während der Zeit der Zuckerrationierung schlechter war als nach ihrer Beendigung, stiegen beide Erkrankungsraten umso langsamer an, je mehr der ersten 1.000 Tage in die Mangelzeit der Zuckerrationierung fielen. Jene Teilnehmer, die von der Befruchtung bis zum Abschluss ihres zweiten Lebensjahres durchgehend „unterzuckert“ heranwuchsen, entwickelten später am seltensten DT2 oder HT. Je früher die Konfrontation mit hohen Zuckermengen erfolgte, desto stärker stiegen trotz verbesserter Gesamternährungssituation die Lebenszeitrisiken für beide Erkrankungen. Ab Mitte des sechsten Lebensjahrzehnts und mit Beginn des siebten Lebensjahrzehnts verstärkte sich diese Divergenz.
Nach der Analyse der Erkrankungsraten mit der Kaplan Meier Methode lag die Wahrscheinlichkeit bis zum Alter von 60 Jahren keinen DT2 bzw. HT zu entwickeln für die gesamte Rationiert-Kohorte mit intrauteriner plus unterschiedlich langer nachgeburtlicher Rationierungserfahrung bei 92,2 % bzw. 64,4 %. In der Gruppe der Nie-Rationierten lagen die Werte bei 89,1 (DT2) und 61,4 %. Bei einem p-Wert von < 0,001 waren diese Unterschiede hoch signifikant.
Wie stark die Länge der postnatal durchlebten Niedrigzuckerphase die Gesundheit beeinflusst, zeigte der Vergleich zwischen den Subkohorten. Für die Gruppe der nur im Mutterleib von der Rationierung Betroffenen lag die Risikominimierung gegenüber der Nie-rationiert-Kohorte bei 13 ±3 % (DT2) bzw. 8 ±2 % (HT). Die zusätzliche postnatale Rationierung bis zu 12 Monaten senkte die Risiken um 25 ±4 % (DT2) und 15 ±2 % (HT). Die höchsten Risikominderungen wurde nach 19 Monaten postnataler Zuckerrationierung mit 36 ±2 % (DT2) und 19 ±2 % (HT) erreicht. Weitere fünf Monate mit reduzierter Zuckeraufnahme brachten keine weitere Risikominderung. P-Werte von durchweg < 0,001 wiesen auch diese Unterschiede als hoch signifikant aus.
Rationierungsdauer [Monate]
Risikominimierung gegenüber „Nie-Rationiert“ [%]
DT2
HT
Nur in-Utero
13 (±3)
8 (±2)
In-Utero + 1 bis 12
25 (±4)
15 (±2)
In-Utero + 12 bis 24
36 (±2)
19 (±2)
Innerhalb der Nie-rationiert-Kohorte traten keine großen Schwankungen der Risiken für beide Erkrankungen auf. Das stärkt die Annahme, dass die signifikant niedrigeren Erkrankungsraten aller Rationiert-Subkohorten der reduzierten frühkindlichen Zuckerzufuhr zuzuschreiben sind, was zumindest einen Hinweis auf eine Kausalitätsbeziehung liefert.
Personen mit frühkindlicher Zuckerrationierung erkrankten nicht nur seltener an DT2 und HT, der Krankheitsausbruch (Erstdiagnose) erfolgte durchschnittlich auch später. In Abhängigkeit von der Länge der rationierten Phase lag die Verzögerung gegenüber Erkrankten der Nie-rationiert-Kohorte zwischen rund 1,5 (DT2) bzw. 0,5 (HT) und 4,2 (DT2) bzw. 2,1 (HT) Jahren.
Verzögerung Krankheitsausbruch [Jahre]
1,46 (±0,52)
0,53 (±0,24)
2,80 (±0,61)
1,47 (±0,28)
4,17 (±0,55)
2,12 (±0,24)
Insgesamt scheint die Erkenntnis erhöhter kardiovaskulärer und metabolischer Risiken durch hohen Zuckerverzehr nicht besonders spektakulär oder neu zu sein. Tatsächlich aber wurden die meisten in diese Richtung laufenden Befunde bis dato aus tierexperimentellen Laborstudien gewonnen. Real-historische In-Vivo-Studien mit Menschen, wie sie durch die britische Zuckerrationierung und auch durch den niederländischen Hungerwinter gegeben waren, sind selten und auch aufgrund der hohen Personenzahlen von stärkerer menschenbezogener Aussagekraft.
Obwohl im seit einigen Jahren zuckerbesteuerten UK und – in geringerem Ausmaß – auch in Deutschland ein Rückgang des Zuckerkonsum verzeichnet wurde, ist es noch ein langer Weg bis zu einer vernünftigen Dosis. Die Frage nach der erfolgversprechendsten Strategie bleibt offen. Deutlich mehr Aufklärungsarbeit, besser durchschaubare Kennzeichnungen als sie der aktuelle Nutriscore liefert und verpflichtende Zuckerlimits für Lebensmittelproduzenten gehören wohl dazu. Die Verantwortung für den Zuckerkonsum allein auf die Konsumenten abzuwälzen, wird auch weiterhin nicht funktionieren und auf rigide staatliche Eingriffe reagiert der Bürger allergisch. Überzeugung ist allemal wirksamer als „par-ordre-du-mufti“-Strategien.
Zusammenfassung:
Quellen:
Barker et al.: Infant mortality, childhood nutrition, and ischaemic heart disease in England and Wales. Lancet, 1986. doi: 10.1016/s0140-6736(86)91340-1
Bleker et al.: Cohort profile: the Dutch famine birth cohort (DFBC) — a prospective birth cohort study in the Netherlands. BMJ Open, 2021. doi: 10.1136/bmjopen-2020-042078
Painter et al.: Prenatal exposure to the Dutch famine and disease in later life: an overview. Reprod Toxicol, 2005. doi: 10.1016/j.reprotox.2005.04.005
Lumey et al.: Overweight and obesity at age 19 after pre‑natal famine exposure. Int J Obes (Lond), 2021. doi: 10.1038/s41366-021-00824-3
Roseboom et al.: Coronary heart disease after prenatal exposure to the Dutch famine, 1944‑45. Heart, 2000. doi: 10.1136/heart.84.6.595
Painter et al.: Early onset of coronary artery disease after prenatal exposure to the Dutch famine. Am J Clin Nutr, 2006. doi: 10.1093/ajcn/84.1.322
Susser et al.: Schizophrenia after prenatal famine. Further evidence. Arch Gen Psychiatry, 1996. doi: 10.1001/archpsyc.1996.01830010027005
Van den Broek et al.: Prenatal famine exposure and mental health in later midlife. Aging Ment Health, 2019. doi: 10.1080/13607863.2017.1402293
Heijmans et al.: Persistent epigenetic differences associated with prenatal exposure to famine in humans. Proc Natl Acad Sci USA, 2008. doi: 10.1073/pnas.0806560105
Franzek et al.: Prenatal exposure to the 1944‑45 Dutch ‘hunger winter’ and addiction later in life. Addiction, 2008. doi: 10.1111/j.1360-0443.2007.02084.x
Painter et al.: Transgenerational effects of prenatal exposure to the Dutch famine on neonatal adiposity and health in later life. BJOG, 2008. doi: 10.1111/j.1471-0528.2008.01822.x
Gracner et al.: Exposure to sugar rationing in the first 1000 days of life protected against chronic disease. Science, 2024. doi: 10.1126/science.adn5421
Bildquelle: Elena Leya, Unsplash