Historia witamin: od tajemniczych czynników X do syntetycznych suplementów

0
40
Rate this post

Z tego artykuły dowiesz się:

Od „czynników niezbędnych do życia” do pojęcia witaminy

Pierwsze obserwacje chorób z niedoboru

Historia witamin zaczyna się na długo przed pojawieniem się chemii organicznej. Pierwsi lekarze i praktycy medycyny posługiwali się opisami objawów i intuicją dietetyczną, nie mając pojęcia o istnieniu konkretnych cząsteczek. Zauważali jedynie, że pewne pokarmy „wzmacniają”, inne zaś chronią przed specyficznymi chorobami. W starożytnych tekstach medycznych – od Hipokratesa po medycynę chińską i ajurwedyjską – przewija się myśl, że długotrwałe monotonne żywienie sprzyja chorobom, a świeże produkty pochodzenia roślinnego i zwierzęcego pełnią funkcję ochronną.

W średniowieczu oraz w czasach nowożytnych pojawiają się pierwsze opisy chorób, które dziś klasyfikujemy jako choroby niedoborowe. Wówczas były one jednak traktowane jako odrębne jednostki o niejasnej przyczynie. Szczególnie często dotykały one grupy narażone na długotrwałe przebywanie w warunkach ograniczonego dostępu do świeżej żywności: żeglarzy, więźniów, mieszkańców ubogich dzielnic, żołnierzy na frontach.

Klasycznym przykładem jest szkorbut, czyli ciężka choroba objawiająca się m.in. krwawieniem dziąseł, wypadaniem zębów, łatwym siniaczeniem i ogólnym wyniszczeniem organizmu. Już w XVI i XVII wieku kapitanowie i lekarze okrętowi obserwowali, że wprowadzenie do diety żeglarzy świeżych owoców cytrusowych lub kiszonej kapusty zatrzymuje rozwój choroby. Nie używano jeszcze pojęcia „witamina C”, mówiono raczej o „świeżości” czy „kwasocie” pożywienia.

W innych regionach świata opisywano choroby, które dziś wiążemy z niedoborami witamin z grupy B oraz witaminy A. W Azji Południowo-Wschodniej powszechna była choroba beri-beri, powodująca osłabienie, zaburzenia neurologiczne i niewydolność serca. Na obszarach żywiących się głównie kukurydzą w Europie Południowej i w południowych stanach USA szerzyła się pelagra, związana z niedoborem niacyny (witamina B3). Z kolei w regionach, gdzie długotrwale brakowało produktów bogatych w karotenoidy i retinol, pojawiała się tzw. „sucha rybia”, czyli kseroftalmia – poważne uszkodzenie spojówek i rogówki oka.

Wspólnym mianownikiem tych obserwacji była zależność między jakością diety a konkretnymi objawami. Nie znano jeszcze mechanizmu, ale praktycy medycyny – szczególnie lekarze wojskowi i okrętowi – krok po kroku dokumentowali, że choroby te pojawiają się tam, gdzie dieta jest monotonna, oparta na jednym rodzaju zboża, solonym mięsie lub suszonych produktach, a zanikają po wprowadzeniu świeżych warzyw, owoców, mleka czy jaj.

Rola lekarzy wojskowych i okrętowych

To właśnie lekarze pracujący w warunkach polowych i morskich odegrali kluczową rolę w identyfikacji związków między odżywianiem a zdrowiem. Na okrętach wojennych i statkach handlowych szkorbut dziesiątkował załogi, co miało wymiar nie tylko medyczny, lecz także strategiczny i gospodarczy. Straty w ludziach oznaczały przegrane bitwy, opóźnione dostawy, a w konsekwencji – osłabienie państw.

James Lind, szkocki lekarz okrętowy, w połowie XVIII wieku przeprowadził jedno z pierwszych systematycznych badań interwencyjnych w historii medycyny. Podzielił marynarzy chorych na szkorbut na kilka grup i każdej podał inne uzupełnienie diety: ocet, cydr, wodę morską, pastę z czosnku i musztardy, a jednej grupie – cytryny i pomarańcze. Wyniki były jednoznaczne: to ostatnia grupa wyzdrowiała najszybciej. Lind nie znał jeszcze kwasu askorbinowego, mówił o „kwaśnych owocach”, ale jego eksperyment pokazał, że coś w świeżych cytrusach ma moc zapobiegania chorobie.

Podobne obserwacje prowadzono w armiach lądowych. Dieta żołnierza w epoce rewolucji przemysłowej składała się głównie z chleba, kaszy, solonego mięsa i suszonych produktów. Kiedy tylko pojawiała się możliwość uzupełnienia racji o świeże warzywa i owoce, stany zdrowia populacji żołnierskiej ulegały poprawie. To skłaniało lekarzy wojskowych do formułowania hipotez, że w „pełnowartościowej” żywności muszą występować czynniki niezbędne do życia, których brak szybko prowadzi do chorób niedoborowych.

Na tle tej praktycznej wiedzy zaczyna dojrzewać myśl, że poza białkami, tłuszczami i węglowodanami istnieje jeszcze inna kategoria związków – nie dostarczają one energii, ale warunkują prawidłowe funkcjonowanie tkanek. Ta intuicja stała się punktem wyjścia do koncepcji „czynników akcesoryjnych”.

Narodziny koncepcji „czynników dodatkowych” i „akcesoryjnych”

W XIX wieku chemia żywności rozwijała się dynamicznie. Ustalono, że podstawowymi składnikami odżywczymi są białka, tłuszcze i węglowodany. Udało się je wyizolować, opisać ich składy elementarne i oszacować wartość energetyczną. Wśród wielu badaczy panowało przekonanie, że jeśli organizm otrzyma odpowiednią ilość tych trzech grup, będzie funkcjonował prawidłowo. Praktyka kliniczna i żywieniowa pokazywała jednak, że to założenie jest niepełne.

Pojawiały się eksperymenty żywieniowe na zwierzętach, w których karmiono je „oczyszczonymi” składnikami: rafinowanym cukrem, oczyszczonym tłuszczem i izolowanymi białkami. Okazywało się, że takie diety, mimo dostarczania wystarczającej ilości energii i azotu, prowadzą do zahamowania wzrostu, zaburzeń odporności i w skrajnych przypadkach – do śmierci zwierząt. Dodanie niewielkiej ilości pełnego mleka, drożdży lub ekstraktów roślinnych przywracało prawidłowy rozwój.

Na tej podstawie zaczęto mówić o „czynnikach akcesoryjnych” lub „dodatkowych substancjach pokarmowych”. Nie potrafiono jeszcze wskazać ich struktury chemicznej, ale ich obecność była wnioskowana z efektu: pokarmy „pełne”, minimalnie przetworzone, działały korzystnie, podczas gdy te same składniki oczyszczone – nie. Przełom polegał na uznaniu, że w żywności istnieją składniki nieenergetyczne, których brak wywołuje precyzyjnie określone zespoły objawów.

Jednocześnie badacze zaczęli systematycznie wiązać poszczególne choroby niedoborowe z konkretnymi elementami diety. Szkorbut – z brakiem świeżych warzyw i owoców, beri-beri – z dietą opartą na białym, polerowanym ryżu, pelagra – z przewagą kukurydzy pozbawionej tradycyjnej obróbki alkalicznej. W tle tej pracy rodzi się pojęcie awitaminozy (całkowity brak) i hipowitaminozy (częściowy niedobór) – choć same witaminy nie zostały jeszcze wyodrębnione i nazwane.

Etymologia i definicja witaminy

Przełom semantyczny nastąpił dzięki polskiemu biochemikowi Kazimierzowi Funkowi. Pracując w Londynie na początku XX wieku nad problemem beri-beri, Funk izolował z otrąb ryżowych substancję, która zapobiegała objawom choroby u ptaków karmionych polerowanym ryżem. Uważał, że jest to związek zawierający grupę aminową, a jednocześnie niezbędny do życia. Zaproponował więc nazwę „vitamine” – od łacińskiego vita (życie) i „amina”.

Początkowo sądzono, że wszystkie takie czynniki są aminami, stąd końcówka „-amine”. Z czasem okazało się, że część z nich, jak kwas askorbinowy (witamina C) czy witamina D, nie zawiera grupy aminowej. Zmieniono więc zapis z „vitamine” na „vitamin”, a w języku polskim – na „witamina”. Historyczny człon „amina” pozostał jedynie śladem po pierwszej hipotezie strukturalnej.

Definicja witaminy ulegała doprecyzowaniu. Obecnie przyjmuje się, że witaminy to niskocząsteczkowe związki organiczne, niezbędne w małych ilościach do prawidłowego funkcjonowania organizmu, których organizm nie potrafi (lub potrafi jedynie w bardzo ograniczonym stopniu) syntetyzować samodzielnie, i które muszą być dostarczane z dietą. Od tej zasady są pewne wyjątki, jak witamina D syntetyzowana w skórze pod wpływem promieniowania UV czy witamina K częściowo wytwarzana przez florę jelitową, ale właśnie te wyjątki odsłaniają złożoność problemu.

W miarę jak izolowano kolejne czynniki, dokonano ich klasyfikacji literowej: A, B, C, D, E, K i dalsze, a w obrębie niektórych (zwłaszcza kompleksu witaminy B) wyodrębniono wiele osobnych związków. Nazewnictwo literowe historycznie nie zawsze było w pełni spójne, część liter „wypadła” w trakcie odkryć, ale ogólna struktura przetrwała do dziś i nadal funkcjonuje w medycynie oraz farmacji.

Różnokolorowe tabletki i kapsułki rozsypane na czerwonym tle
Źródło: Pexels | Autor: Anna Shvets

Kamienie milowe w odkrywaniu poszczególnych witamin

Szkorbut i witamina C – od cytrusów do kwasu askorbinowego

Szkorbut to prawdopodobnie najbardziej znany przykład choroby niedoborowej związanej z witaminą. Towarzyszył wyprawom morskimi od epoki wielkich odkryć geograficznych aż do XIX wieku. W skrajnych przypadkach potrafił zabić kilkudziesięciu procent załogi podczas jednego rejsu. Tymczasem skuteczna, choć prymitywnie opisana terapia istniała od dawna: świeże lub kiszone produkty roślinne.

Marynarze niekiedy intuicyjnie zatrzymywali się na wyspach, by uzupełnić zapasy świeżych owoców i warzyw, co poprawiało stan zdrowia. W różnych flotach stosowano od czasu do czasu cytryny, limonki, kapustę kiszoną, a nawet igły sosnowe w formie naparu. Problemem była jednak niespójność zaleceń i brak wiedzy, że obróbka cieplna niszczy „czynnik przeciwszkorbutowy”. W rezultacie gotowane sok lub dżem były znacznie mniej skuteczne niż świeże owoce.

Po ustaleniu skuteczności cytrusów, Brytyjczycy wprowadzili cytrynę, a potem limonkę (tańszą, ale uboższą w witaminę C) do racji żołnierskich i żeglarskich. Marynarzy zaczęto przezywać „limeys” od limes – limonki. Szkorbut w marynarce brytyjskiej praktycznie zniknął, co dało ogromną przewagę w długotrwałych rejsach. Nie oznaczało to jednak pełnego zrozumienia mechanizmu. Nadal mówiono o „czynniku w świeżych owocach”, bez wskazania konkretnego związku chemicznego.

Dopiero na początku XX wieku Albert Szent-Györgyi oraz inni badacze zidentyfikowali i wyizolowali kwas askorbinowy. Początkowo nazywany był „heksuroson” i „kwasem heksuronowym”, a właściwości przeciwszkorbutowe potwierdzono w eksperymentach na zwierzętach i w obserwacjach klinicznych. Ustalono, że kwas askorbinowy:

  • jest wrażliwy na wysoką temperaturę i tlen,
  • występuje w wysokim stężeniu w świeżych owocach cytrusowych, warzywach liściastych, kapuście kiszonej,
  • pełni rolę kofaktora w syntezie kolagenu oraz działa jako przeciwutleniacz.

Po wyizolowaniu witaminy C i opracowaniu metod jej syntezy chemicznej możliwe stało się tworzenie standardowych preparatów farmaceutycznych. Z punktu widzenia praktyki zdrowia publicznego szczególne znaczenie miało zastosowanie witaminy C w racjach żywnościowych armii i marynarki wojennej oraz w polityce fort yfikacji żywności w regionach o ograniczonym dostępie do świeżych produktów.

Krzywica, witamina D i „słoneczna terapia”

W okresie rewolucji przemysłowej w Europie Północnej gwałtownie wzrosła zapadalność dzieci na krzywicę. Choroba ta przejawiała się deformacjami kości, opóźnionym wzrostem, osłabieniem mięśni i zwiększoną podatnością na złamania. Dzieci spędzały większość czasu w zanieczyszczonych, gęsto zabudowanych miastach, bez dostępu do światła słonecznego i świeżego powietrza. Diety były ubogie w produkty pochodzenia zwierzęcego, zwłaszcza mleko i tłuste ryby.

Lekarze obserwowali, że dzieci wychowywane na wsi, mające kontakt ze słońcem i dietę bogatszą w nabiał, znacznie rzadziej chorowały na krzywicę. Z kolei u dzieci miejskich poprawę przynosiły wyjazdy do sanatoriów nadmorskich oraz suplementacja tranu – oleju z wątroby dorsza, tradycyjnie stosowanego jako środek „wzmacniający”. Pojawiła się hipoteza, że tran zawiera substancję wspomagającą mineralizację kości, a światło słoneczne działa podobnie.

Od promieni słonecznych do hormonu – ustalenie natury witaminy D

Eksperymenty z początku XX wieku potwierdziły, że tran rzeczywiście zapobiega krzywicy u zwierząt doświadczalnych. Wykazano też, że naświetlanie pożywienia promieniowaniem ultrafioletowym nadaje mu działanie przeciwkrzywicze. To był kluczowy trop: pojawiła się koncepcja, że w skórze znajduje się związek, który pod wpływem UV przekształca się w formę aktywną metabolicznie, pełniącą rolę „witaminy D”.

Stopniowo zrozumiano, że witamina D działa raczej jak hormon niż klasyczny składnik odżywczy. Jest syntetyzowana w skórze z 7-dehydrocholesterolu, potem w wątrobie i nerkach przekształca się do aktywnej postaci regulującej gospodarkę wapniowo-fosforanową. To przesunięcie – od „tajemniczej substancji w tranie” do precyzyjnie opisanego szlaku metabolicznego – dobrze pokazuje, jak zmieniało się rozumienie witamin: z prostych „czynników brakujących w diecie” do związków o złożonej, wielopoziomowej regulacji.

W praktyce klinicznej przełożyło się to na standaryzację dawek tranu, a później na upowszechnienie kropli i kapsułek z witaminą D dla dzieci, zwłaszcza w krajach o ograniczonym nasłonecznieniu. Równolegle wprowadzono fortyfikację margaryn i niektórych produktów mlecznych. Ujednolicenie zawartości witaminy D w środkach spożywczych pozwoliło istotnie zmniejszyć częstość ciężkich postaci krzywicy, choć łagodniejsze niedobory nadal są w wielu populacjach realnym problemem zdrowia publicznego.

Beri-beri, witaminy z grupy B i „odczarowanie” białego ryżu

Choroba beri-beri przez długi czas dezorganizowała życie społeczne i wojskowe w Azji Południowo-Wschodniej. Objawiała się osłabieniem, zaburzeniami czucia, niewydolnością serca i obrzękami. Co do zasady dotykała osoby, których dieta opierała się prawie wyłącznie na polerowanym ryżu. Ryż brązowy, niepozbawiony okrywy nasiennej, takiego efektu nie wywoływał.

Kluczowe były obserwacje Christiaana Eijkmana, który badał chorobę kur w wojskowych kuchniach na Jawie. Kury karmione resztkami ryżu polerowanego chorowały podobnie jak ludzie, natomiast przy zmianie karmy na ryż niełuskany – zdrowiały. Wykazano, że zewnętrzne warstwy ziarna zawierają substancję chroniącą przed beri-beri. Właśnie z tych otrąb Kazimierz Funk izolował wspomniany czynnik – dziś wiemy, że był to głównie tiamina (witamina B1).

Stopniowo okazało się, że „witamina B” nie jest pojedynczym związkiem, lecz całym zespołem różnych substancji o odmiennych funkcjach. Zidentyfikowano m.in.:

  • tiaminę (B1) – kluczową dla metabolizmu węglowodanów i pracy układu nerwowego,
  • ryboflawinę (B2) – niezbędną dla licznych enzymów oksydoredukcyjnych,
  • niacynę (B3) – powiązaną z synchronicznym występowaniem pelagry,
  • pirydoksynę (B6) – uczestniczącą w przemianach aminokwasów,
  • kobalaminę (B12) – niezbędną do prawidłowej hematopoezy i funkcjonowania układu nerwowego.

Rozszyfrowanie zespołu witamin B miało bezpośrednie konsekwencje dla technologii żywności. Producentom mąki i ryżu zaczęto stawiać pytania o cenę „oczyszczania” zbóż. Polerowanie poprawiało wygląd i trwałość produktu, ale usuwało kluczowe składniki odżywcze. Rozwiązaniem stała się fortyfikacja mąki i ryżu wybranymi witaminami i minerałami, co do dziś jest jednym z podstawowych narzędzi zapobiegania niedoborom w skali populacji.

Pelagra, niacyna i rola tradycyjnych technologii żywności

Pelagra – określana niekiedy triadą „dermatitis, diarrhea, dementia” – szerzyła się głównie w regionach, gdzie podstawą diety była kukurydza. Chorobę długo wiązano z infekcją lub toksyną, dopiero później zwrócono uwagę na związek z ubogą, monotoną dietą. W tradycyjnych społecznościach Ameryki Środkowej kukurydzę poddawano nixtamalizacji – obróbce w roztworze alkalicznym (wapiennym). W tej formie nie wywoływała pelagry.

Analiza biochemiczna wykazała, że w kukurydzy niacyna jest związana w formach słabo przyswajalnych, a obróbka alkaliczna zwiększa jej biodostępność. Gdy kukurydza trafiła do Europy i Ameryki bez towarzyszącej jej tradycyjnej technologii, niacyna pozostawała „uwięziona” w ziarnie, a pelagra stała się chorobą masową. Po wyizolowaniu niacyny i określeniu jej roli jako składnika koenzymów NAD i NADP możliwe było nie tylko leczenie, lecz także prewencja poprzez wzbogacanie mąki i zróżnicowanie diety.

Ta historia dobrze pokazuje, że witaminy nie funkcjonują w próżni. Ich dostępność zależy nie tylko od samej zawartości w produkcie, lecz także od technologii uprawy, przetwarzania i przygotowania żywności. W praktyce przekłada się to na ostrożność przy wprowadzaniu radykalnych zmian technologicznych bez analizy skutków żywieniowych.

Witamina A, „kurza ślepota” i oleje wątrobowe

Problemy z widzeniem o zmierzchu, tzw. „kurza ślepota”, były opisywane już w starożytności. W tekstach medycznych pojawiają się wzmianki o podawaniu wątroby zwierzęcej osobom z zaburzeniami widzenia nocnego. Długo jednak nie łączono tego faktu z konkretnym, trwałym składnikiem chemicznym.

Na przełomie XIX i XX wieku badacze żywienia zwrócili uwagę, że niektóre tłuszcze zwierzęce, szczególnie masło i oleje z wątroby ryb, poprawiają stan skóry, błon śluzowych i wzroku. Wykazano, że w diecie zwierząt doświadczalnych pozbawionej tych tłuszczów dochodzi do zahamowania wzrostu, zmian skórnych i ślepoty zmierzchowej. Zidentyfikowany związek nazwano „witaminą A”.

Witamina A okazała się związkiem rozpuszczalnym w tłuszczach, magazynowanym w wątrobie, odgrywającym kluczową rolę w:

  • tworzeniu rodopsyny w pręcikach siatkówki (a więc w widzeniu przy słabym oświetleniu),
  • utrzymaniu ciągłości i prawidłowej struktury nabłonków,
  • prawidłowym rozwoju zarodkowym i odporności.

Istotnym krokiem było odróżnienie retinolu (aktywnej witaminy A pochodzenia zwierzęcego) od prowitamin A w postaci karotenoidów obecnych w warzywach i owocach. Organizm człowieka zwykle potrafi przekształcić beta-karoten do retinolu, ale wydajność tego procesu zależy m.in. od stanu odżywienia, tłuszczu w posiłku i indywidualnych różnic metabolicznych. To jeden z powodów, dla których w medycynie nadal rozróżnia się źródła zwierzęce i roślinne witaminy A, mimo że w tabelach żywieniowych często są ujmowane łącznie.

Witamina K i „tajemnica krwawień noworodków”

Nieprawidłowe krzepnięcie krwi u noworodków było przez długi czas traktowane jako nieuchronne ryzyko pierwszych dni życia. Zdarzały się ciężkie, nagłe krwotoki, których nie umiano wyjaśnić. Sytuację zmieniły badania nad tzw. czynnikiem przeciwkrwotocznym w diecie.

Ustalono, że u dorosłych część witaminy K pochodzi z produkcji przez florę bakteryjną jelit, natomiast u noworodków ten mechanizm jeszcze nie funkcjonuje. Jednocześnie mleko matki dostarcza stosunkowo niewielkich ilości witaminy K, a wątroba noworodka ma ograniczone możliwości jej magazynowania. To połączenie okazało się istotnym czynnikiem ryzyka krwawień.

Po zidentyfikowaniu filochinonu (K1) i menachinonów (K2) oraz ich roli w karboksylacji białek biorących udział w krzepnięciu, wprowadzono profilaktyczne podawanie witaminy K po urodzeniu. Z medycznego punktu widzenia jest to przykład, jak znajomość biochemii konkretnej witaminy doprowadziła do ściśle zdefiniowanej, jednorazowej interwencji, która radykalnie zmniejszyła liczbę ciężkich powikłań.

Witamina E i „czynnik przeciwjałowy”

Witamina E została początkowo opisana jako „czynnik przeciwjałowy” w diecie zwierząt. U szczurów karmionych paszą pozbawioną tego składnika dochodziło do poronień i niepłodności. Później wykazano, że u ludzi deficyt witaminy E jest rzadki i zwykle wiąże się z ciężkimi zaburzeniami wchłaniania tłuszczów, natomiast jej główną funkcją jest działanie przeciwutleniające w błonach komórkowych.

Wyizolowanie tokoferoli i tokotrienoli, określenie ich struktury chemicznej oraz roli w ochronie lipidów przed peroksydacją doprowadziło do upowszechnienia preparatów witaminy E, często w połączeniu z innymi antyoksydantami. Praktyka pokazała jednak, że wysokie dawki syntetycznej witaminy E nie są uniwersalnym „lekiem na starzenie”. W licznych badaniach interwencyjnych efekty były co najwyżej zróżnicowane, co skłania do bardziej powściągliwego podejścia do suplementacji u osób bez jawnych niedoborów.

Izolacja, oczyszczanie i synteza chemiczna witamin

Od ekstraktu do krystalicznej substancji – rewolucja metod analitycznych

Pierwsze badania nad witaminami opierały się na ekstraktach z żywności: wywarach z drożdży, wyciągach z wątroby, olejach z ryb czy koncentratach z otrąb. Substancje te były mieszaninami setek związków, a ich aktywność oceniano głównie na podstawie efektu biologicznego u zwierząt doświadczalnych. Dopiero rozwój chromatografii, krystalizacji frakcyjnej i spektroskopii umożliwił wyizolowanie pojedynczych, chemicznie zdefiniowanych witamin.

Proces zwykle przebiegał etapami:

  1. Przygotowanie surowca – wybór materiału bogatego w daną witaminę (np. papryka dla witaminy C, wątroba dla witaminy A, drożdże dla witamin z grupy B).
  2. Ekstrakcja – zastosowanie odpowiednich rozpuszczalników (wodnych dla witamin rozpuszczalnych w wodzie, organicznych dla witamin rozpuszczalnych w tłuszczach).
  3. Oczyszczanie frakcyjne – wielokrotne wytrącanie, filtracja, wymiana jonowa, chromatografia kolumnowa.
  4. Krystalizacja – uzyskanie jednorodnej substancji o stałym składzie, topnieniu i aktywności biologicznej.
  5. Identyfikacja struktury – analizy elementarne, reakcje chemiczne, a później spektroskopia UV, IR, NMR i krystalografia rentgenowska.

Uzyskanie krystalicznej formy witaminy C przez Szent-Györgyiego, a następnie ustalenie jej struktury przez Waltera Hawortha pokazuje, jak silnie odkrycia w dziedzinie witamin wspierały rozwój chemii organicznej. Podobnie wyizolowanie i opisanie struktury witaminy B12 było jednym z najbardziej złożonych zadań strukturalnych XX wieku i zaowocowało Nagrodą Nobla dla Dorothy Hodgkin.

Pionierska synteza witamin – od laboratoriów do fabryk

Kiedy struktura danej witaminy została już określona, kolejnym krokiem była synteza chemiczna. Miało to znaczenie zarówno poznawcze (potwierdzenie poprawności struktury), jak i praktyczne (możliwość produkcji na większą skalę, niezależnie od surowców naturalnych).

Synteza witaminy C opracowana przez Tadeusza Reichsteina (tzw. proces Reichsteina) łączyła reakcje biochemiczne i chemiczne. Wykorzystano glukozę jako surowiec, modyfikując ją etapami do kwasu askorbinowego. Proces okazał się na tyle efektywny, że przez dziesięciolecia stanowił podstawę przemysłowej produkcji tej witaminy.

W przypadku witamin rozpuszczalnych w tłuszczach (A, D, E, K) synteza była zwykle bardziej skomplikowana. Konieczne było odtworzenie długich łańcuchów izoprenoidowych, pierścieni aromatycznych i specyficznych konfiguracji geometrycznych (np. trans/cis). W praktyce przemysłowej często stosowano półsyntezę, czyli przekształcanie łatwo dostępnych związków naturalnych (np. steroli roślinnych) w docelową witaminę.

Upowszechnienie syntezy witamin miało kilka konsekwencji:

Standaryzacja, stabilność i formy farmaceutyczne

Przejście od ekstraktów do syntetycznych witamin otworzyło drogę do precyzyjnego dawkowania. Zamiast łyżki „tranu o nieokreślonej zawartości witaminy A i D” pojawiły się kapsułki o deklarowanej liczbie jednostek międzynarodowych. To pozornie techniczna zmiana, ale w praktyce umożliwiła prowadzenie badań klinicznych, porównywanie dawek oraz tworzenie norm żywieniowych opartych na konkretnych ilościach, a nie przybliżonych porcjach produktu.

Kluczowym zagadnieniem stała się stabilność witamin. Wiele z nich łatwo ulega rozkładowi pod wpływem:

  • światła (np. ryboflawina, witamina A),
  • tlenu i temperatury (np. witamina C, kwas foliowy),
  • pH i obecności jonów metali (np. żelazo katalizujące rozkład witaminy C).

Aby ograniczyć straty, opracowano różne formy farmaceutyczne i technologiczne. W praktyce stosuje się m.in.:

  • mikrokapsułkowanie – zamykanie witamin w otoczce polimerowej lub tłuszczowej, co poprawia stabilność podczas przechowywania i obróbki termicznej,
  • postaci proszkowe „spray-dried” (suszone rozpyłowo) – wygodne do mieszania z mąką, mlekiem w proszku, paszami,
  • estry i pochodne (np. octan tokoferylu dla witaminy E, palmitynian retinylu dla witaminy A), które są bardziej odporne na utlenianie niż wolne alkohole.

Te rozwiązania wpłynęły nie tylko na przemysł farmaceutyczny, lecz także na przetwórstwo żywności. Wzbogacanie margaryn w witaminy A i D, dodawanie stabilnej niacyny do mąki czy wprowadzanie kompleksów witamin w odżywkach dla niemowląt stało się logistycznie wykonalne dopiero wtedy, gdy istniały standaryzowane, stabilne koncentraty witaminowe.

Naturalne a syntetyczne – chemiczna tożsamość czy funkcjonalne różnice?

Gdy syntetyczne witaminy trafiły do masowej produkcji, powstało pytanie, czy związek uzyskany w laboratorium jest „tym samym”, co jego odpowiednik w żywności. Z chemicznego punktu widzenia cząsteczka o określonej budowie jest identyczna niezależnie od źródła. Kwas askorbinowy z papryki i ten z reakcji chemicznej mają ten sam wzór i tę samą konfigurację przestrzenną, jeśli chodzi o formę L.

W praktyce różnice mogą wynikać z kilku czynników:

  • mieszanka izomerów – niektóre syntetyczne witaminy występują jako mieszanina form optycznych lub geometrycznych (np. all-rac-α-tokoferol vs naturalny RRR-α-tokoferol), co może przekładać się na różną aktywność biologiczną i tempo metabolizmu,
  • matryca żywności – w naturalnym produkcie witamina współwystępuje z innymi składnikami (błonnikiem, polifenolami, tłuszczami), które modyfikują jej wchłanianie i działanie,
  • dawka i tempo podaży – w żywności przyjmujemy zwykle mniejsze, rozproszone dawki, natomiast tabletka może dostarczać nagłą, wysoką ilość związku.

Przykładowo, syntetyczny kwas foliowy (pteroiloglutaminowy) jest bardziej stabilny i lepiej wchłaniany niż wiele naturalnych folianów z żywności, co ma znaczenie przy wzbogacaniu mąki i suplementacji kobiet planujących ciążę. Z kolei w przypadku witaminy E naturalna mieszanina tokoferoli i tokotrienoli częściej postrzegana jest jako „pełniejsza” niż pojedynczy syntetyczny izomer, choć badania nad praktycznymi różnicami nadal trwają.

W ujęciu regulacyjnym przyjęto kompromis: istotna jest struktura biologicznie aktywnej formy. Dla części witamin dopuszcza się różne prekursory (np. prowitaminy A w postaci karotenoidów), a różnice w aktywności próbuje się oddać za pomocą przeliczników (np. ekwiwalentów retinolu, ekwiwalentów niacyny).

Fortyfikacja żywności – od walki z niedoborami do dyskusji o „przefortyfikowaniu”

Możliwość taniej produkcji witamin syntetycznych umożliwiła szeroko zakrojone programy fortyfikacji, czyli wzbogacania żywności. Historycznie miało to głównie charakter działań zdrowia publicznego, nastawionych na ograniczenie najcięższych niedoborów.

Klasyczne przykłady to:

  • jodowanie soli (choć jod nie jest witaminą, przykład dobrze ilustruje logikę podejścia),
  • wzbogacanie mąki w niacynę, tiaminę, ryboflawinę i żelazo w odpowiedzi na pelagrę i beri-beri,
  • dodawanie witaminy D do mleka i margaryn w krajach o małym nasłonecznieniu, żeby przeciwdziałać krzywicy,
  • wzbogacanie mąki w kwas foliowy w celu zmniejszenia ryzyka wad cewy nerwowej u noworodków.

W wielu państwach takie programy są obowiązkowe i uregulowane prawnie – określa się minimalne i maksymalne poziomy dodawanych witamin, a także rodzaje produktów objętych fortyfikacją. W innych krajach wzbogacanie żywności ma charakter dobrowolny, ale i tak szeroko stosowany przez producentów (np. napoje roślinne „naśladające” mleko krowie).

Wraz z rozwojem rynku suplementów i żywności funkcjonalnej pojawiła się nowa kwestia: ryzyko nadmiernego spożycia konkretnych witamin u części populacji. Osoba jedząca produkty wzbogacane, biorąca wieloskładnikowy suplement i sięgająca po „energetyki z witaminami z grupy B” może w praktyce wielokrotnie przekraczać zalecane dzienne spożycie. Dla większości witamin wodnorozpuszczalnych konsekwencje są ograniczone, ale w przypadku witamin A, D czy B6 długotrwałe, wysokie dawki mogą prowadzić do działań niepożądanych.

Rozwiązaniem regulacyjnym stało się wprowadzenie pojęcia górnego tolerowanego poziomu spożycia (UL). Producenci, deklarując dodatek witamin do żywności, muszą uwzględniać nie tylko minimalną skuteczną dawkę, lecz także pulę, jaką przeciętny konsument może otrzymać z innych źródeł. W praktyce bywa to wyzwaniem, bo nawyki żywieniowe są bardzo zróżnicowane.

Suplementy witaminowe – między medycyną a rynkiem konsumenckim

Historia syntetycznych witamin to również historia przesunięcia akcentu z leczenia niedoborów na obietnicę „optymalizacji zdrowia”. Początkowo preparaty witaminowe były stosowane głównie w lecznictwie: w szkorbutcie, krzywicy, pelagrze, chorobie beri-beri czy anemii megaloblastycznej. Z czasem, gdy ciężkie niedobory w wielu krajach stały się rzadsze, suplementy trafiły na rynek apteczny i supermarketowy jako produkty „dla każdego”.

W praktyce medycznej można wyróżnić kilka głównych sposobów użycia witamin syntetycznych:

  • leczenie niedoboru potwierdzonego klinicznie lub laboratoryjnie – tu dawki są zwykle wyższe niż w suplementach dostępnych bez recepty, a czas terapii ograniczony (np. wysokie dawki witaminy D w ciężkim niedoborze, witamina B12 w postaci zastrzyków przy zaburzeniach wchłaniania),
  • profilaktyka w grupach ryzyka – kobiety w ciąży (kwas foliowy, jod, witamina D), osoby starsze z małą ekspozycją na słońce (witamina D, czasem B12), pacjenci z chorobami jelit i zaburzeniami wchłaniania,
  • uzupełnianie diety o znanym deficycie – np. witamina B12 i D u osób stosujących dietę wegańską, gdy trudno je dostarczyć w wystarczającej ilości z pożywienia.

Równolegle rozwijał się segment suplementów „prozdrowotnych”, często łączących mnogie witaminy, składniki mineralne i ekstrakty roślinne. Z punktu widzenia historii witamin interesujące jest to, że ten sam związek chemiczny może funkcjonować zarówno jako lek (przy dawkowaniu medycznym, pod kontrolą), jak i jako suplement diety (w niższych dawkach, z innym reżimem regulacyjnym i inną logiką marketingową).

Przykładowo, osoba po operacji bariatrycznej otrzymuje precyzyjnie dobrany schemat suplementacji witaminowo–mineralnej, monitorowany badaniami krwi. Ten sam składnik – np. witamina B1 – może równocześnie występować w popularnym preparacie „na zmęczenie” reklamowanym w telewizji. Różnica dotyczy nie chemii związku, lecz celu, dawki i nadzoru.

Nowe formy: biofortyfikacja, inżynieria genetyczna i nośniki „inteligentne”

Kolejnym etapem rozwoju jest próba łączenia wiedzy o witaminach z biotechnologią i inżynierią żywności. Zamiast wyłącznie dodawać syntetyczne witaminy do produktu, podejmuje się próby zwiększenia ich zawartości w samej roślinie lub mikroorganizmie.

Biofortyfikacja może przebiegać kilkoma drogami:

  • selekcja i hodowla odmian bogatszych w dany składnik (np. odmiany kukurydzy o wyższej zawartości prowitaminy A, ryżu o zwiększonej zawartości żelaza i kwasu foliowego),
  • modyfikacje agrotechniczne – nawożenie lub warunki uprawy poprawiające syntezę wybranych witamin w roślinie,
  • inżynieria genetyczna – wprowadzenie lub modyfikacja szlaków biosyntezy (najbardziej znany medialnie przykład to „złoty ryż” o podwyższonej zawartości beta-karotenu).

Te rozwiązania budzą dyskusje nie tylko naukowe, ale też społeczne i etyczne. Z jednej strony mogą znacząco poprawiać status żywieniowy populacji w regionach, gdzie dostęp do zróżnicowanej diety jest ograniczony. Z drugiej – pojawiają się pytania o bezpieczeństwo długoterminowe, wpływ na lokalne rolnictwo i zależność od dostawców materiału siewnego.

Równolegle rozwijają się nowe nośniki witamin, ukierunkowane na poprawę biodostępności i wygody stosowania. Obejmują one m.in.:

  • liposomy i nanoemulsje – szczególnie dla witamin rozpuszczalnych w tłuszczach, ułatwiające ich wchłanianie u osób z problemami trawiennymi,
  • systemy o przedłużonym uwalnianiu – uwalniające witaminę stopniowo w przewodzie pokarmowym, aby uniknąć gwałtownego wzrostu i spadku stężenia we krwi,
  • matryce żywieniowe „szyte na miarę” – np. batony wysokobiałkowe z określoną kombinacją witamin dla sportowców, żywność specjalnego przeznaczenia medycznego dla pacjentów onkologicznych czy z ciężkimi chorobami przewlekłymi.

W tych nowych rozwiązaniach widać powrót do wątku, który pojawiał się już przy odkrywaniu pierwszych witamin: zależności między formą podania, kontekstem żywieniowym a efektem biologicznym. Sama obecność witaminy w produkcie nie przesądza o jej rzeczywistej dostępności i skuteczności w organizmie.

Od „czynnika X” do złożonej sieci powiązań metabolicznych

Początkowo witaminy były postrzegane jako pojedyncze brakujące ogniwa w diecie. Zidentyfikowanie brakującej substancji prowadziło do spektakularnego ustąpienia choroby – jak w przypadku szkorbutu czy krzywicy. Rozwój biochemii pokazał jednak, że każda witamina uczestniczy w sieci powiązanych szlaków metabolicznych, a niedobór jednej może ujawniać się różnie w zależności od całego kontekstu żywieniowego i zdrowotnego.

Przykładowo, witaminy z grupy B pełnią funkcje koenzymów w licznych reakcjach przemian węglowodanów, tłuszczów i białek. Niedobór tiaminy będzie miał inny obraz kliniczny u osoby nadużywającej alkoholu, inny u pacjenta żywionego pozajelitowo, a jeszcze inny u dziecka w regionie o ograniczonym dostępie do białka zwierzęcego. Z kolei metabolizm kwasu foliowego i witaminy B12 jest tak ściśle powiązany, że podanie jednego z tych składników w izolacji może poprawić obraz krwi, a jednocześnie maskować brak drugiego.

Na tym tle syntetyczne suplementy są narzędziem, które ułatwia precyzyjne korygowanie niedoborów, ale równocześnie wymaga uwzględnienia całego „otoczenia metabolicznego” pacjenta. Prosty przykład z praktyki: osoba starsza, przyjmująca przeciwzakrzepowy antagonista witaminy K, otrzymuje jednocześnie zalecenie stabilnej zawartości witaminy K w diecie i unikania samodzielnej suplementacji. Nie dlatego, że witamina K jest „zła”, lecz dlatego, że w konkretnym schemacie leczenia jej poziom staje się elementem starannie wyważonej równowagi.

Najczęściej zadawane pytania (FAQ)

Skąd wzięło się pojęcie „witamina” i co dokładnie oznacza?

Pojęcie „witamina” zaproponował polski biochemik Kazimierz Funk na początku XX wieku. Badając chorobę beri-beri, wyizolował z otrąb ryżowych substancję niezbędną do życia i sądził, że ma ona grupę aminową. Stąd powstała nazwa „vitamine” – od łacińskiego vita (życie) i „amina”.

Później okazało się, że nie wszystkie witaminy są aminami, więc nazwę skrócono do „vitamin”, a w języku polskim utrwaliła się forma „witamina”. Dziś pod tym pojęciem rozumie się niskocząsteczkowe związki organiczne, konieczne w małych ilościach do prawidłowego funkcjonowania organizmu, których człowiek z reguły nie syntetyzuje w wystarczającej ilości i musi je dostarczać z pożywieniem.

Jakie choroby doprowadziły do odkrycia witamin?

Kluczową rolę odegrały tzw. choroby niedoborowe, obserwowane u grup żywionych monotonnie i pozbawionych świeżej żywności. Najczęściej przytacza się kilka klasycznych przykładów:

  • szkorbut – związany z niedoborem witaminy C, częsty u żeglarzy pozbawionych świeżych warzyw i owoców,
  • beri-beri – wynikający głównie z niedoboru tiaminy (witamina B1), szerzący się tam, gdzie podstawą diety był polerowany ryż,
  • pelagra – powiązana z niedoborem niacyny (witamina B3), typowa dla populacji żywiących się niemal wyłącznie kukurydzą bez specjalnej obróbki,
  • kseroftalmia („sucha rybia”) – związana z niedoborem witaminy A lub karotenoidów.

To właśnie obserwacja, że określone objawy znikają po wprowadzeniu do diety konkretnych grup produktów (np. cytrusów, pełnego ziarna, produktów bogatych w karotenoidy), doprowadziła krok po kroku do koncepcji witamin.

Jak lekarze odkryli związek między dietą a szkorbutem u żeglarzy?

Najpierw były to proste obserwacje: załogi długo pozbawione świeżej żywności masowo chorowały na szkorbut, a gdy tylko pojawiały się cytrusy czy kiszona kapusta, stan marynarzy się poprawiał. Kapitanowie i lekarze okrętowi widzieli zależność, choć nie znali jeszcze jej mechanizmu.

Przełomem był eksperyment Jamesa Linda w XVIII wieku. Podzielił on marynarzy ze szkorbutem na grupy i każdej podał inne uzupełnienie diety (m.in. ocet, cydr, wodę morską, pastę z czosnku i musztardy oraz cytrusy). Zdecydowaną poprawę uzyskała wyłącznie grupa otrzymująca pomarańcze i cytryny. Lind mówił jeszcze o „kwaśnych owocach”, nie o witaminie C, ale naukowo potwierdził, że w świeżych cytrusach znajduje się czynnik zapobiegający szkorbutowi.

Czym były „czynniki akcesoryjne” w historii badań nad odżywianiem?

„Czynniki akcesoryjne” to dawna nazwa substancji, które dziś zaliczamy głównie do witamin. Gdy w XIX wieku zidentyfikowano białka, tłuszcze i węglowodany jako podstawowe składniki odżywcze, początkowo sądzono, że one w pełni wystarczą do utrzymania zdrowia.

Eksperymenty na zwierzętach pokazały jednak, że dieta oparta wyłącznie na oczyszczonych składnikach (rafinowany cukier, oczyszczony tłuszcz, izolowane białka) prowadzi do zahamowania wzrostu i chorób, mimo dostatecznej ilości kalorii. Dodanie niewielkiej ilości pełnego mleka, drożdży czy ekstraktów roślinnych przywracało zdrowie. Na tej podstawie zaczęto mówić właśnie o „dodatkowych” lub „akcesoryjnych” czynnikach w żywności, niezbędnych do życia, choć nieenergetycznych – były to w istocie witaminy.

Jaka jest różnica między awitaminozą a hipowitaminozą?

Awitaminoza oznacza co do zasady całkowity lub prawie całkowity brak danej witaminy w organizmie, prowadzący do pełnoobjawowej choroby niedoborowej. Klasyczne przykłady to szkorbut przy skrajnym niedoborze witaminy C czy pełnoobjawowa beri-beri przy braku tiaminy.

Hipowitaminoza to stan częściowego niedoboru – poziom witaminy jest obniżony, ale nie do zera. Objawy bywają wtedy mniej specyficzne: przewlekłe zmęczenie, gorsza odporność, problemy skórne, pogorszenie widzenia po zmroku. W praktyce klinicznej częściej spotyka się właśnie hipowitaminozy niż skrajne awitaminozy, bo dieta rzadko jest całkowicie pozbawiona danej witaminy, ale bywa niewystarczająca.

Czy syntetyczne witaminy działają tak samo jak te z pożywienia?

Z chemicznego punktu widzenia wiele syntetycznych witamin ma identyczną strukturę jak ich odpowiedniki naturalne i zwykle działa podobnie na poziomie podstawowym (np. uzupełnia niedobór, zapobiega awitaminozie). To dlatego w historii medycyny udało się zastąpić brak świeżej żywności preparatami syntetycznymi w określonych sytuacjach, np. w wojsku czy szpitalach.

Różnica polega na tym, że żywność zawiera cały „pakiet” współdziałających związków – inne witaminy, minerały, błonnik, fitozwiązki – których pojedyncza tabletka nie odtworzy. Z tego powodu w codziennej profilaktyce punktem wyjścia powinna być zróżnicowana dieta, a suplementy traktuje się raczej jako uzupełnienie w szczególnych sytuacjach (określone choroby, ciąża, ścisłe diety, okresy zwiększonego zapotrzebowania), po ocenie indywidualnej sytuacji zdrowotnej.

Dlaczego kiedyś wierzono, że wystarczą tylko białka, tłuszcze i węglowodany?

W XIX wieku możliwość izolowania i mierzenia białek, tłuszczów i węglowodanów była dużym osiągnięciem. Ustalono ich składy, wartość energetyczną i zapotrzebowanie organizmu. Wydawało się logiczne, że skoro dostarczamy kalorie i azot, to organizm poradzi sobie ze wszystkim innym.

Dopiero obserwacje z praktyki – choroby niedoborowe u osób karmionych „pełnowartościowo” pod względem kalorii, ale monotonnie, oraz doświadczenia na zwierzętach z oczyszczoną dietą – wymusiły zmianę tego poglądu. Stopniowo zaczęto przyjmować, że poza trzema podstawowymi grupami składników istnieje jeszcze kategoria związków nieenergetycznych, bez których organizm nie jest w stanie prawidłowo funkcjonować. Z tego myślenia narodziła się nowoczesna koncepcja witamin.

Najważniejsze wnioski

  • Choroby niedoborowe obserwowano na długo przed odkryciem witamin; lekarze widzieli związek między monotonną dietą a konkretnymi schorzeniami, choć nie znali jeszcze ich chemicznej przyczyny.
  • Szkorbut, beri-beri, pelagra czy kseroftalmia stanowiły typowe przykłady chorób wynikających z braku określonych składników pokarmowych, pojawiających się zwłaszcza tam, gdzie dieta była uboga w świeże produkty.
  • W praktyce okrętowej i wojskowej dostrzeżono, że dodanie do racji żywnościowych świeżych warzyw, owoców, mleka czy jaj wyraźnie zmniejsza zachorowalność i poprawia stan zdrowia żołnierzy oraz marynarzy.
  • Eksperyment Jamesa Linda ze „świeżymi cytrusami” pokazał, że określone produkty mogą skutecznie leczyć szkorbut, co dobitnie wskazywało na istnienie konkretnego, choć jeszcze nieopisanego związku w żywności.
  • Wraz z rozwojem chemii żywności stało się jasne, że białka, tłuszcze i węglowodany nie wyczerpują listy niezbędnych składników; praktyka kliniczna podważała wcześniejsze, uproszczone założenie o wystarczalności „trzech podstawowych grup”.
  • Badania na zwierzętach karmionych wyłącznie „oczyszczonymi” składnikami wykazały, że taka dieta prowadzi do zahamowania wzrostu i chorób, a niewielki dodatek pełnych produktów (np. mleka, drożdży) przywraca prawidłowe funkcjonowanie organizmu.
  • Bibliografia

  • The Discovery and Characterization of Vitamins. Journal of Nutrition (1993) – Przegląd historyczny odkrycia i klasyfikacji witamin
  • Vitamin History: The Early Years. American Journal of Clinical Nutrition (1998) – Rozwój koncepcji czynników akcesoryjnych i witamin
  • Scurvy and Vitamin C. British Medical Journal (2003) – Historia szkorbutu, eksperyment Linde’a i rola cytrusów

Poprzedni artykułPierwsze leki przeciwwirusowe: Historia sukcesu
Następny artykułRetinol w pielęgnacji twarzy – jak bezpiecznie stosować i łączyć z innymi kosmetykami
Magdalena Kozłowski
Doktorka nauk farmaceutycznych, specjalizuje się w historii technologii postaci leku. Bada, jak zmieniały się metody wytwarzania tabletek, maści czy kropli i jaki wpływ miało to na skuteczność terapii. W pracy naukowej łączy analizę dawnych podręczników z eksperymentami rekonstrukcyjnymi w warunkach laboratoryjnych, odtwarzając historyczne receptury w bezpiecznej, kontrolowanej formie. Każdy artykuł opiera na recenzowanych publikacjach i dokumentach archiwalnych, a wnioski konfrontuje z praktyką współczesnych technologów. Szczególną wagę przywiązuje do przejrzystego opisywania ograniczeń źródeł.