Strona główna Blog Strona 96

Zaparcie czynnościowe – problem współczesnych czasów

Artykuł został zaktualizowany 10.02.2025 r.

Spis treści

  1. Czym jest zaparcie?
  2. Skala bristolska – narzędzie pomocne w ocenie prawidłowości wypróżnień
  3. Zaparcie – jak sobie radzić? Dlaczego należy unikać leków przeczyszczających o działaniu drażniącym?
  4. Profilaktyka zaparć czynnościowych
  5. Inne przyczyny zaparć

Czym jest zaparcie?

Zaparcie jest objawem, który jest najczęściej rozumiany jako rzadkie oddawanie stolca. Może również łączyć się ze zwiększoną potrzebą parcia na stolec, poczuciem niepełnego wypróżnienia, zmniejszoną objętością lub masą stolca, problemem w zapoczątkowaniu defekacji (oddawaniu stolca).

Częstotliwość defekacji jest przedmiotem nieporozumień. Wiele osób sądzi, iż wypróżnienie musi występować co najmniej raz dziennie, dlatego nadużywają środków przeczyszczających. Tymczasem dla większości ludzi normą jest oddawanie stolca od trzech razy w ciągu dnia do trzech razy na tydzień. Tym samym zaparcie możemy rozpoznać, jeśli częstość wypróżnień jest rzadsza niż trzy razy w tygodniu, czyli ≤2 na tydzień.  Zaparcie ciężkie występuje, gdy liczba wypróżnień wynosi ≤2 miesięcznie.

Przyczyną zaparcia może być choroba organiczna lub zaburzenia czynnościowe. Zaparcie czynnościowe, czyli stan, w którym u pacjenta mającego problemy z wypróżnieniem nie stwierdza się żadnej choroby organicznej, jest najczęstszym źródłem problemu – 90% zaparć wywołana jest przyczynami czynnościowymi.

Przyczyny zaparć czynnościowych:

  • dieta – najważniejszym czynnikiem odpowiadającym za prawidłowe wypróżnianie jest dieta z odpowiednią ilością błonnika i płynów. Przeciętny Polak zjada 12-15 g błonnika dziennie, tymczasem wartości zalecane dla prawidłowej funkcji jelit to 25-30 g dziennie i 1,5-2 l płynów dziennie;
  • brak aktywności fizycznej – siedzący tryb życia sprzyja powstawaniu zaparć, regularne ćwiczenia również warunkują prawidłowe funkcje jelit;
  • stres, zmiana rytmu dobowego, hamowanie potrzeby wypróżnienia.

Zbyt małe spożycie błonnika i brak aktywności fizycznej przyczyniają się do zwolnienia motoryki jelit i wydłużenia pasażu jelitowego. Są to bardzo dobre warunki do zwiększenia ilości wchłanianej zwrotnie wody i tworzenia twardych, trudnych do wydalenia mas kałowych. W warunkach fizjologicznych rozciąganie ścian jelit i odbytnicy przez masy kałowe jest czynnikiem wywołującym parcie. Jeśli pacjent wstrzymuje odruch wypróżnienia (np. w podróży), następuje zmniejszenie wrażliwości na ten bodziec i wypróżnienie jest jeszcze trudniejsze. Wstrzymywanie defekacji przez dłuższy czas utrwala taki nieprawidłowy wzorzec.

Na zaparcia czynnościowe częściej cierpią kobiety i osoby po 65 r.ż., chociaż z powodu siedzącego trybu życia oraz nieprawidłowej diety, jest to objaw bardzo powszechny i występuje w każdym wieku.

pakiet zdrowe jelita baner

Skala bristolska – narzędzie pomocne w ocenie prawidłowości wypróżnień 

Wygląd i konsystencja kału jest ważną wskazówką diagnostyczną. Dlatego w roku 1997 została stworzona tzw. bristolska skala uformowania stolca, będąca naukową klasyfikacją ułatwiającą ocenę prawidłowości wypróżnień, czasu pasażu przez przewód pokarmowy, a w efekcie diagnostykę zaburzeń czynnościowych. Skala jest używana przez lekarzy, ale – dzięki użyciu dostępnego języka – jest pomocna również w kontakcie z pacjentami.

Bristolska skala uformowania stolca

Zaparcie

Typ I – stolec w formie trudnych do wydalenia grudek

Typ II – stolec o kształcie wydłużonym, grudkowaty

Prawidłowy stolec

Typ III – stolec wydłużony, o popękanej powierzchni

Typ IV – stolec wydłużony, powierzchnia gładka, konsystencja miękka

Prawidłowy stolec/biegunka

Typ V – miękkie, łatwo wydalane, oddzielone od siebie fragmenty stolca o gładkich krawędziach

Biegunka

Typ VI – stolec papkowaty, oddzielone od siebie fragmenty stolca o postrzępionych krawędziach

Typ VII – stolec o konsystencji wodnistej, bez elementów stałych

Zaparcie – jak sobie radzić? Dlaczego należy unikać leków przeczyszczających o działaniu drażniącym?

W przypadku wystąpienia zaparcia zazwyczaj pierwszą myślą pacjenta, a często również lekarza, jest zażycie leków przeczyszczających. Również farmaceuta w aptece takie leki często poleca jako działanie pierwszego rzutu. Nie jest to jednak postępowanie optymalne, może być szkodliwe dla pacjenta. Szeroko stosowane środki – kora kruszyny, korzeń lukrecji, korzeń rzewienia, aloes, olej rycynowy, bisakodyl, czopki glicerynowe – często postrzegane jako nieszkodliwe środki ziołowe, mają działanie drażniące, zwiększają wydalanie wody i elektrolitów z organizmu i wzmagają perystaltykę jelit. Ich długotrwałe stosowanie prowadzi do atonii jelit, czyli zjawiska polegającego na utracie zdolności mięśniówki gładkiej przewodu pokarmowego do prawidłowego skurczu. Efektem takiego działania może być niedrożność jelit.

Lekiem pierwszego wyboru w przypadku zaparć powinien być glikol polietylenowy (PEG), lek z grupy makrogoli. Są to polimery tlenku etylenu, które wiążą wodę i nie wchłaniają się w przewodzie pokarmowym. Mechanizm działania makrogoli związany jest z ich aktywnością osmotyczną. Powodują napływ wody do jelita, a w efekcie upłynnienie lub rozluźnienie mas kałowych. Glikol polietylenowy cechuje skuteczność i bezpieczeństwo stosowania.

Profilaktyka zaparć czynnościowych

W przypadku zaparć czynnościowych elementem kluczowym jest dieta oraz aktywność fizyczna.

Prawidłowa dieta:

  • płyny – woda, kompoty, soki owocowe niesłodzone;
  • błonnik – babka płesznik, warzywa, owoce, ciemne pieczywo – zatrzymuje wodę w świetle jelita, formuje masy kałowe, poprzez wypełnienie jelita pobudza perystaltykę. Przeciętna dieta zawiera ok. 10 – 15 g błonnika dziennie, a powinna zawierać 25-30 g;
  • suszone śliwki, morele, rodzynki, daktyle, figi, nasiona lnu – zatrzymywanie wody;
  • jogurty, kefiry, maślanki.

Podkreślić należy, iż w przypadku błonnika efekt terapeutyczny pojawia się w ciągu kilku dni, lub nawet tygodniu. Dlatego nie należy się zniechęcać, jeśli rezultatu nie będzie od razu. W profilaktyce zaparć zastosowanie znajduje tylko błonnik rozpuszczalny, np. babka płesznik, babka jajowata, arabinogalaktan. Spożywanie błonnika ma sens tylko wówczas, gdy pijemy dostateczną ilość płynów, dlatego lepszym rozwiązaniem jest błonnik w postaci proszku dodawany do wody, niż błonnik w postaci tabletek.

błonnik na zaparcia

Rekomendowana aktywność fizyczna to umiarkowany ruch, nawet codzienne spacery są profilaktyką zaparć czynnościowych.

>>> Przeczytaj też: Błonnik pokarmowy – co to jest, jakie pełni funkcje? Źródła błonnika w diecie

Inne przyczyny zaparć

Zaparcie jest objawem, który może również wynikać z istnienia przyczyny organicznej lub z powodu zespołu jelita drażliwego. Jak diagnozować ZJD piszemy szerzej TUTAJ.

Pozostałe przyczyny:

  • dysbioza – IMO;
  • choroby powodujące przewężenia jelit i utrudniające pasaż – uchyłkowatość jelit, nowotwory jelit, nieswoiste choroby zapalne jelit, choroby odbytu, guzy jajnika, guzy macicy;
  • choroby obwodowego i ośrodkowego układu nerwowego utrudniające motorykę jelit – stwardnienie rozsiane, choroba Parkinsona, choroba Hirschprunga, neuropatia (np. cukrzycowa);
  • endometrioza;
  • zaburzenia endokrynologiczne i metaboliczne – cukrzyca, niedoczynność tarczycy, niedoczynność przysadki, nadczynność przytarczyc, hiperkalcemia, hipokaliemia;
  • choroby tkanki łącznej – twardzina układowa.
sibo test wodorowo-metanowy baner

Przyczyną zaparć mogą być również zażywane przewlekle leki:

  • niesteroidowe leki przeciwzapalne,
  • preparaty żelaza i wapnia,
  • przeciwnadciśnieniowe – moczopędne, blokery kanału wapniowego, β-blokery,
  • stosowane w chorobie Parkinsona i padaczkach.

Piśmiennictwo

  1. https://www.mp.pl/interna/image/B16.016_7974.
  2. Wykład prof. Grażyny Rydzewskiej, XVI Kongres Top Medical Trends 2023, Poznań.

Paracetamol – najbezpieczniejszy lek świata?

0

Spis treści

  1. Co to jest paracetamol?
  2. Rekomendowane dawki paracetamolu
  3. Najbezpieczniejszy lek świata – paracetamol?
  4. Grupy pacjentów, dla których paracetamol może być szczególnie niebezpieczny
  5. Paracetamol a alkohol – szczególnie niebezpieczne połączenie

Paracetamol, czyli inaczej N-acetylo-p-aminofenon to znany i powszechnie stosowany lek o działaniu przeciwbólowym i przeciwgorączkowym. W odróżnieniu od leków z grupy niesteroidowych leków przeciwzapalnych (jak np. ibuprofen czy aspiryna) nie wykazuje praktycznie żadnego działania przeciwzapalnego, a także nie wpływa na krzepnięcie krwi.

Utarło się przekonanie, że paracetamol jest lekiem niezwykle bezpiecznym, niewywołującym działań niepożądanych i niewchodzącym w interakcje. Czy rzeczywiście jest to prawda?

Co to jest paracetamol?

Paracetamol to najczęściej stosowany lek o działaniu przeciwbólowym i przeciwgorączkowym. Na szeroką skalę wykorzystywany do leczenia bólu o różnym stopniu nasilenia i różnym pochodzeniu. Stosowany również w preparatach złożony łagodzących objawy grypy czy przeziębienia, łączony wówczas z fenylefryną, pseudoefedryną, kofeiną, dekstrometorfanem, kodeiną, fenyraminą czy witaminą C. Wszystkie te połączenia dostępne są jako preparaty OTC, czyli bez recepty.

Rekomendowane dawki paracetamolu

Za maksymalną dawkę dobową paracetamolu uważa się 4000 mg w przypadku pacjentów stosujących lek okazjonalnie i 2500 mg u pacjentów stosujących lek przewlekle.

Należy jednak pamiętać, że pacjenci dorośli nie powinni stosować więcej niż 1000 mg jednorazowo – 1000 mg, czyli nie więcej niż dwie standardowe tabletki paracetamolu na raz.

Istnieje wiele schematów stosowania leków zawierających paracetamol np.:

  • 300 – 500 mg co 3h,
  • 300 – 600 mg co 4h,
  • 500 – 1000 mg co 6h.

Najbezpieczniejszy lek świata – paracetamol?

Paracetamol uznawany jest za jeden z najbezpieczniejszych leków świata. Zalecany między innym jako środek bezpieczny do doraźnego stosowania w bólach różnego pochodzenia u kobiet w ciąży i karmiących, u niemowląt od 3 miesiąca życia (w syropach dostępnych bez recepty). Bezpiecznie mogą go stosować również astmatycy (w odróżnieniu od aspiryny), pacjenci z chorobą wrzodową, zaburzeniami krzepnięcia krwi, uczuleniem na leki z grupy niesteroidowych leków przeciwzapalnych.

Bardzo rzadko wywołuje skutki uboczne, do najczęściej opisywanych należą:

  • alergia objawiająca się pokrzywką, wysypką, świądem,
  • nudności i wymioty,
  • uszkodzenia wątroby,
  • zaburzenia układu krwiotwórczego.

Należy jednak pamiętać, że każdy kij ma dwa końce a sformułowanie „tylko dawka czyni truciznę” w przypadku paracetamolu wydaje się niezwykle adekwatne.

paracetamol skutki uboczne infografika

Bardzo dobrze poznany jest hepatotoksyczny mechanizm działania paracetamolu.

Co to dokładnie znaczy?

Jak każdy lek również paracetamol powinien być stosowany w dawkach terapeutycznych, przekroczenie zalecanej dawki nawet jednorazowe może prowadzić do nieodwracalnych zmian – przede wszystkim trwałego uszkodzenia wątroby (wspomniana hepatotoksyczność).

Przy przyjęciu 2-krotnie większej dawki prawdopodobieństwo uszkodzenia wątroby wynosi 50%. Dawka 500 mg/kg (30 g lub 60 tabletek u osoby o masie ciała 60 kg) niemal na pewno będzie powodowało zagrażające życiu uszkodzenie wątroby.

Dlaczego tak się dzieje? Hepatotoksyczność paracetamolu wynika z toksycznego działania jego metabolitu, N-acetylo-p-benzochinonu (NAPQI). Standardowo podlega on zmetabolizowaniu poprzez sprzężenie z glutationem, jednak przedawkowanie paracetamolu prowadzi do wyczerpania ustrojowych zapasów glutationu, a co za tym idzie, toksycznego działania NAPQI na komórki miąższu wątroby, a tym samym śmierci hepatocytów.

Tzw. odtrutką na przedawkowanie paracetamolu jest prekursor glutationu, N-acetylocysteina.

Grupy pacjentów, dla których paracetamol może być szczególnie niebezpieczny

Przez wiele lat paracetamol był uznawany za lek odpowiedzialny za ostrą niewydolność wątrobową. Aktualnie szacuje się, że ok. 9% ostrej niewydolności wątroby spowodowane jest  przedawkowaniem paracetamolu. Odwracając jednak sytuację. Istniejąca choroba wątroby zwiększa ryzyko uszkodzenia wątroby związanego ze stosowaniem paracetamolu. Stąd też pacjenci z chorobami wątroby, w tym niewydolnością wątroby przed zastosowaniem paracetamolu powinni skonsultować się z lekarzem i monitorować czynność tego narządu wykonując niezbędne badania laboratoryjne.

Podobną grupą pacjentów, u których stosowanie paracetamolu zalecane powinno być po konsultacji z lekarzem, są osoby z niewydolnością nerek.

pakiet wątrobowy baner

Przeczytaj też: Wybrane markery uszkodzenia wątroby i dróg żółciowych

Paracetamol a alkohol – szczególnie niebezpieczne połączenie

U osób przewlekle nadużywających alkoholu oraz z chorobą alkoholową, które jednocześnie stosują wysokie dawki paracetamolu, dochodzi do aktywacja enzymów przekształcających lek do hepatotoksycznych metabolitów.

Dlaczego? Regularne spożywanie alkoholu podnosi poziom aktywnego enzymu, powodując tym samym wzrost stężenia NAPQI ponad poziom, z którym grupy sulfhydrylowe glutationu wątrobowego są w stanie sobie poradzić. W kolejnych etapach aktywny NAPQI łącząc się z hepatocytami, powoduje ich martwicę. Jak duża ona będzie, zależy od dawki paracetamolu oraz czasu spożycia etanolu.

paracetamol we krwi baner

Warte ponownego powtórzenia jest sformułowanie, że tylko dawka czyni truciznę. Każdy lek, nawet ten pozornie najbezpieczniejszy, może stanowić dla nas realne zagrożenie, jeśli stosujemy go w nieadekwatnej dawce czy nie zgodnie ze wskazaniami. Dlatego pamiętajmy o mądrym stosowaniu naszych leków, zwracajmy uwagę na to jak, kiedy i z czym je stosować – w końcu chodzi o nasze zdrowie.


Piśmiennictwo

  1. TWYCROSS, Robert, et al. Nowości terapeutyczne Międzynarodowego Centrum Opieki Paliatywnej w Oksfordzie, Seminarium Terapeutyczne Eynsham Hall, Oxfordshire, czerwiec 1999. Polska Medycyna Paliatywna, 2002, 1.1.
  2. STOPIŃSKI, Marek; MROZIŃSKA, Maria. Paracetamol (acetaminofen)-dawki skuteczne i bezpieczne. Przewodnik Lekarza/Guide for GPs, 2003, 6.2: 88-95.
  3. SŁABY, Mateusz, et al. „Tylko dawka czyni truciznę”–czyli bezpieczeństwo stosowania paracetamolu. Farm Pol, 2019, 75.7: 389-395.
  4. KORZENIOWSKA, Katarzyna, et al. Bezpieczeństwo stosowania paracetamolu The safety of paracetamol use.
  5. ŻUKOWSKI, Maciej; KOTFIS, Katarzyna. Bezpieczeństwo stosowania metamizolu i paracetamolu w leczeniu bólu ostrego. Anestezjologia i Intensywna Terapia, 2009, 3.
  6. SKIBIŃSKI, Przemysław. Paracetamol–wilk w owczej skórze?. Postępy farmacji, 2011, 1: 9-14.
  7. Owsianik D, Mach-Lichota E, Wojtaszek M. Toksyczne uszkodzenia wątroby u pacjenta zatrutego paracetamolem i nadużywającego alkohol etylowy. Prz Med Uniw Rzesz Inst Leków 2014, 1: 107-114.
  8. JOŚKO-OCHOJSKA, Jadwiga; SPANDEL, Leszek; BRUS, Ryszard. Interakcje alkoholu i dymu Tytoniowego z lekami–wiedza potrzebna na co dzień. Hygeia Public Health, 2015, 50.3: 474-481.
  9. KUJAWSKA, MAŁGORZATA; MURIAS, MAREK. Paracetamol–etanol–złożona interakcja. Adv Clin Exp Med, 2004, 13.3: 497-501.

Nadciśnienie tętnicze – nowe rekomendacje (cz.2). Ciśnienie tętnicze a styl życia

Spis treści

  1. Wpływ hałasu i zanieczyszczenia powietrza na wzrost ciśnienia tętniczego
  2. Redukcja stresu a ciśnienie tętnicze
  3. Redukcja masy ciała a ciśnienie tętnicze
  4. Ograniczenie spożycia soli i sodu a ciśnienie tętnicze
  5. Zwiększenie spożycia potasu w diecie a ciśnienie tętnicze
  6. Zwiększenie poziomu aktywności fizycznej a ciśnienie tętnicze
  7. Zmniejszenie spożycia alkoholu a ciśnienie tętnicze
  8. Pozostałe czynniki dietetyczne a ciśnienie tętnicze

W roku 2023 Europejskie Towarzystwo Nadciśnienia Tętniczego znowelizowało rekomendacje dotyczące wykrywania, leczenia i postępowania z pacjentami chorymi na nadciśnienie tętnicze. Ważnym elementem tego dokumentu są informacje dotyczące stylu życia osób z NT. Wpływ niektórych elementów stylu życia na chorych na NT poruszany jest po raz pierwszy. Dotyczy to np. hałasu i zanieczyszczenia powietrza.

Wpływ hałasu i zanieczyszczenia powietrza na wzrost ciśnienia tętniczego

W obszarach miejskich hałas środowiskowy (głównie drogowy) oraz zanieczyszczenie powietrza są istotnymi czynnikami, wpływającymi na układ sercowo-naczyniowy i wzrost ciśnienia tętniczego. Mechanizmem odpowiedzialnym za udział obydwu czynników w zwiększaniu ciśnienia tętniczego jest prawdopodobnie ich wpływ na powstawania stanu zapalnego i dysfunkcji śródbłonka naczyniowego. Badania wskazują, iż zmiana środowiska na czystsze oraz zmniejszenie poziomu hałasu obniża poziom ciśnienia tętniczego.

Pacjenci z NT, w planowaniu aktywności na świeżym powietrzu, powinni zatem brać pod uwagę potencjalne narażenie na te dwa czynniki.

Redukcja stresu a ciśnienie tętnicze

Stres jest nieodłącznym towarzyszem naszego życia codziennego i nie można go uniknąć. Jedynym sposobem na redukcję poziomu stresu jest opanowanie technik, które pomogą nam w jego zmniejszeniu. Wytyczne podkreślają, iż jest to ważne, ponieważ stres wiąże się ze zwiększonym ryzykiem wystąpienia nadciśnienia i zdarzeń sercowo-naczyniowych. Metaanalizy badań wskazują, iż techniki pracy ze stresem obniżają jego poziom, wpływają także na ciśnienie skurczowe i rozkurczowe. W wytycznych wskazano, że medytacja i kontrola oddechu m.in. dzięki praktykowaniu jogi, są skutecznymi narzędziami redukcji stresu w celu obniżenia ciśnienia tętniczego.

Redukcja masy ciała a ciśnienie tętnicze

Związek prawidłowej masy ciała, nadwagi i otyłości z wysokością ciśnienia tętniczego jest bardzo dobrze udokumentowany. Utrzymanie prawidłowej masy ciała lub jej redukcja, jest najważniejszym elementem związanym ze stylem życia u pacjentów z NT. Każdy kilogram utraconej masy ciała oznacza spadek ciśnienia skurczowego, jak i rozkurczowego o ok. 1 mmHg. Korzyścią dodatkową jest osłabienie aktywacji układu współczulnego oraz zmniejszenie stanu zapalnego.

Najlepszym sposobem redukcji masy ciała jest niskokaloryczna dieta oraz aktywność fizyczna. Niskokaloryczna dieta jest niedoborowa, co oznacza, że nie zawiera optymalnej ilość składników odżywczych. Dlatego, aby ograniczyć niebezpieczeństwo niedoborów składników pokarmowych, musi być prowadzona pod kontrolą dietetyka. Dietetyk będzie również pomocny w ograniczeniu efektu jo-jo.

U pacjentów z otyłością, którzy nie osiągają celu utraty wagi przy pomocy zmiany stylu życia, należy rozważyć farmakoterapię. Grupą leków, która korzystnie oddziałuje na poziom ciśnienia tętniczego i daje efekty w redukcji otyłości, są GLP-1 agoniści receptora glukagonopodobnego peptydu-1. O doborze odpowiednich leków zawsze decyduje lekarz.

Alternatywnym rozwiązaniem jest chirurgia bariatryczna. Wskazaniem do chirurgicznego zmniejszenia żołądka jest BMI > 40 kg/m2. U pacjentów z chorobami towarzyszącymi (np. choroby sercowo-naczyniowe), którzy odniosą istotne korzyści zdrowotne z takiej operacji, operację bariatryczną przeprowadza się przy BMI > 35 kg/m2.

Ograniczenie spożycia soli i sodu a ciśnienie tętnicze

Związek pomiędzy zawartością sodu w diecie a wysokością ciśnienia tętniczego jest dobrze udokumentowany. Zmiana stylu życia ograniczająca spożycie sodu do mniej niż 100 mmol dziennie, co odpowiada ok. 5,8 g soli, powoduje zmniejszenie skurczowego ciśnienia krwi o 5 mmHg, a rozkurczowego o 2 mmHg u osób z nadciśnieniem. Istnieją również dowody na związek pomiędzy wysokim spożyciem sodu a podwyższonym ciśnieniem tętniczym w całej populacji, nie tylko u pacjentów z nadciśnieniem. Szczególne korzyści z obniżenia zawartości sodu odnoszą pacjenci starsi, osoby z cukrzycą, zespołem metabolicznym i przewlekłymi chorobami nerek.

Od pewnego czasu toczy się dyskusja, do jakiego stopnia można ograniczać spożycie sodu, ponieważ istnieją badania obserwacyjne wskazujące, iż spożycie sodu poniżej 3,5 g/dzień może wiązać się z większą śmiertelnością. Z drugiej strony istnieją dane epidemiologiczne, które nie wykazują żadnych skutków ubocznych diety niskosodowej. W tej kwestii potrzebne są dokładniejsze i lepiej kontrolowane badania, niż te, którymi obecnie dysponujemy.

Badanie stężenia sodu banerek

Zalecenie ograniczenia spożycia soli do mniej niż 5 g/dzień, również dzięki używaniu zamienników soli o niskiej zawartości sodu (chlorek potasu zamiast chlorku sodu), jest na dziś zaleceniem dla wszystkich pacjentów z nadciśnieniem, jako zmiana stylu życia o charakterze niefarmakologicznym, a przynosząca wymierne korzyści.

Zwiększenie spożycia potasu w diecie a ciśnienie tętnicze

Zawartość potasu w diecie jest powiązana z wysokością ciśnienia tętniczego, jednak dane sugerują, iż zależność ma kształt litery U. Oznacza to, że zarówno zbyt mało potasu w diecie, jak i jego zbyt wysoka podaż, nie jest korzystna z punktu widzenia korzyści zdrowotnych.

Efekt obniżenia ciśnienia po zażyciu 60 mmol (1380 mg) chlorku potasu wynosił 2 mmHg u osób z prawidłowym ciśnieniem tętniczym, a 4-5 mmHg u pacjentów z nadciśnieniem. Szczególne korzyści odnoszą osoby spożywające na co dzień duże ilości sodu, u nich odpowiedź na zwiększenie podaży potasu może być nawet dwukrotnie większa, a zastąpienie 25% spożywanego chlorku sodu chlorkiem potasu zmniejsza ryzyko udaru oraz chorób i śmierci u pacjentów ze zwiększonym ryzykiem sercowo-naczyniowym.

Docelowy poziom spożycia potasu powinien wynosić 3 500 mg/dziennie, a potas powinien pochodzić ze zróżnicowanej diety. Dobrym źródłem potasu są warzywa i owoce, niskotłuszczowe produkty mleczne, orzechy, produkty sojowe oraz wybrane mięsa i ryby. Jeśli pacjent spożywa cztery – pięć porcji warzyw i owoców, zazwyczaj dostarcza od 1 500 – 3 000 mg potasu dziennie. Dlatego należy polecać diety z wysoką zawartością tego pierwiastka jak np. dieta DASH.

Badanie potasu banerek

Zwiększenie poziomu aktywności fizycznej a ciśnienie tętnicze

Aktywność fizyczna ma również dobrze udokumentowany związek z wysokością ciśnienia tętniczego, nawet u osób z niską aktywnością fizyczną (6 minut co godzinę), prowadzących siedzący tryb życia obserwuje się korzyść w postaci obniżenia ciśnienia i poprawy parametrów kardiometabolicznych.

Optymalne korzyści zdrowotne przynosi 2,5 – 5 godzin ćwiczeń aerobowych (40 – 60% rezerwy tętna) tygodniowo o umiarkowanej intensywności, lub 1,15 – 2,5 godziny ćwiczeń o intensywności wysokiej. Należy jednak zaznaczyć, że jeśli pacjenci mają choroby współistniejące, lub nie mogą podejmować zalecanej aktywności fizycznej z powodu podeszłego wieku, powinni być zachęcani do codziennego wysiłku fizycznego. Nawet spacery powodują bowiem obniżenie ciśnienia tętniczego.

Aktywność fizyczna jest dobrym sposobem na zapobieganie rozwojowi chorób układu sercowo-naczyniowego niezależnie od poziomu ciśnienia tętniczego krwi, dlatego należy ją zalecać wszystkim pacjentom.

Zmniejszenie spożycia alkoholu a ciśnienie tętnicze

Wiele badań obserwacyjnych wskazuje silną zależność pomiędzy spożyciem alkoholu i ciśnieniem tętniczym. Przy codziennym spożyciu alkoholu (jeden do dwóch drinków, 10-20 g czystego alkoholu) ryzyko nadciśnienia wzrasta, natomiast redukcja spożycia bliska abstynencji wiąże się ze zmniejszeniem ciśnienia skurczowego o 3,3 mmHg i rozkurczowego o 2 mmHg. Niestety górne limity spożycia alkoholu różnią się w poszczególnych rekomendacjach, natomiast niewątpliwie należy zachęcać do umiaru w spożyciu tej substancji. Jest to ważne nie tylko ze względu na wysokość ciśnienia tętniczego, ale również ze względu na fakt, iż nadmierne spożycie alkoholu jest ważnym czynnikiem ryzyka krwotoku śródczaszkowego.

W przeszłości opublikowano badania obserwacyjne, które sugerowały zmniejszenie częstości występowania chorób sercowo-naczyniowych u osób pijących niewielkie ilości alkoholu, w porównaniu z abstynentami. Wydaje się jednak, iż ten potencjalnie kardioprotekcyjny wpływ wynika jednak ze zdrowszego stylu życia badanych osób, a efekt jest osłabiony, jeśli uwzględni się pełną mozaikę czynników, które mają na to wpływ.

Zaprzestanie palenia tytoniu a ciśnienie tętnicze

Paleniu tytoniu towarzyszy przedłużony wzrost ciśnienia tętniczego (ok. 30 minut), dodatkowo aktywuje ono układ współczulny. Ponadto papierosy mogą osłabiać działanie niektórych leków przeciwnadciśnieniowych. Dlatego należy zachęcać do całkowitego zaprzestania palenia oraz zwracać uwagę na fakt, iż także bierne palenie wiąże się ze zwiększonym ryzykiem chorób sercowo-naczyniowych.

W ostatnich latach rozwinęło się palenie e-papierosów, a w niektórych krajach fajki wodnej, jako alternatywy dla palenia papierosów. Postrzegane jako bezpieczniejsze, przyciągnęło rzesze nowych osób. Należy jednak podkreślić, że te formy tytoniu gwałtownie podwyższają ciśnienie tętnicze i częstość akcji serca oraz mogą być związane ze zwiększonym ryzykiem zachorowania na choroby sercowo-naczyniowe, dlatego nie należy ich uważać za bezpieczniejsze z punktu widzenia układu krążenia.

Pozostałe czynniki dietetyczne a ciśnienie tętnicze

Ważnym elementem stylu życia dla osób z nadciśnieniem tętniczym jest ukierunkowanie na odpowiednią dietę. Największą skuteczność w redukcji ciśnienia tętniczego zapewnia dieta DASH, zawierająca pełne ziarna, owoce, warzywa oraz niskotłuszczowe produkty mleczne. Jest to dieta bogata w potas, magnez, wapń i błonnik, nawet umiarkowane jej przestrzeganie wiąże się ze zdrowotnymi korzyściami.

Drugim typem diety, która przynosi korzyści osobom z nadciśnieniem jest dieta śródziemnomorska. Jej przestrzeganie wiąże się z 10% redukcją ryzyka śmiertelności i występowania chorób sercowo-naczyniowych.

Są również doniesienia mówiące, iż inne diety (wegetariańska, paleo, niskowęglowodanowa lub o niskim indeksie glikemicznym) są korzystne, podobnie jak wysokobiałkowa lub niskotłuszczowa. W przypadku pozostałych diet jakość dowodów jest jednak różna, a wyniki niespójne.

kontrola wysokiego ci śnienia krwi infografika

Ciekawe doniesienia pojawiają się na temat kawy. Tradycyjnie uważa się, iż wywiera ona efekt presyjny, ale ostatnie dane wskazują, iż jest on umiarkowany, a regularne picie kawy nie wpływa negatywnie na wysokość ciśnienia tętniczego i układ sercowo-naczyniowy (więcej na ten temat przeczytasz TUTAJ). Badania obserwacyjne wskazują na pewien wpływ profilu genetycznego CYP1A2, gdzie spożycie kofeiny może chronić osoby niepalące, ale palacze nie są chronieni przed nadciśnieniem.

>> Przeczytaj też, czym jest i skąd się bierze nadciśnienie oraz jak prawidłowo mierzyć ciśnienie w domu


Piśmiennictwo

  1. 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension; Journal of Hypertension 2023, 41:000–000

Mangan – pierwiastek śladowy. Rola w organizmie, nadmiar i niedobór manganu

Spis treści

  1. Mangan – rola w organizmie
  2. Spożycie i źródła manganu w organizmie
  3. Mechanizm wchłaniania i transport manganu w organizmie
  4. Niedobór i nadmiar manganu w organizmie

Mangan to metal, zaliczany do najbardziej rozpowszechnionych w skorupie ziemskiej pierwiastków. W organizmie człowieka jest mikroelementem – pierwiastkiem śladowym, niezbędnym dla jego prawidłowego funkcjonowania. Przy nadmiernej ekspozycji jego nadmiar jest toksyczny.

Mangan – rola w organizmie

Mangan występuje w wątrobie, trzustce, mózgu, nerkach, płucach i innych tkankach.

Jest kofaktorem wielu enzymów biorących udział w syntezie białek, kwasów nukleinowych, kwasów tłuszczowych. Należą do nich fosfatazy, karboksylazy, deoksyrybonukleazy, arginazy, Mn-zależnej dysmutazy ponadtlenkowej. Bierze udział w procesach reprodukcyjnych, wpływając na funkcje układu rozrodczego. Poza tym jest konieczny do budowy kości oraz odgrywa ważną rolę w prawidłowym funkcjonowaniu układu nerwowego.

Spożycie i źródła manganu w organizmie

Dzienne spożycie manganu szacowane jest w dosyć szerokich granicach, od 2,0 mg do 9,0 mg. Ponieważ nadmiar manganu jest toksyczny, US EPA (U.S. Environmental Protection Agency) ustanowiło następujące wytyczne dotyczące ekspozycji na ten pierwiastek.

Stężenie manganu we wdychanym powietrzu nie powinno być większe niż 0,05g/m3, natomiast dawka doustna nie powinna przekraczać 0,14 mg/kg/d, czyli 10 mg/dzień dla osoby ważącej 70 kg. Poziom manganu w wodzie pitnej nie powinien przekraczać 1,63 mg/l dla dorosłej osoby, czyli 2 litry wody dziennie dla człowieka o masie ciała 70 kg.

Na podobnym poziomie określa dawkę wolną od szkodliwego wpływu na zdrowie US Institute of Medicine, Food and Nutrition Board, ustalając, iż nie powinna ona być wyższa niż 11 mg/dzień.

Głównym źródłem manganu dla człowieka jest pokarm, 80% przyjmowanego dziennie Mn pochodzi z diety. Największe ilości tego pierwiastka zawierają produkty pochodzenia roślinnego: orzechy, zboża, warzywa korzeniowe i liściaste, owoce. Zawartość manganu w tych produktach zależy od jego zawartości w glebie i określana jest w szerokich granicach:

  • orzechy – 18-46 mg/kg
  • produkty zbożowe – 0,4 – 41 mg/kg
  • warzywa – 2,2 – 6,7 mg/kg
  • owoce – 0,2 – 11 mg/kg

Mangan zawarty jest również w niektórych gatunkach mięsa i ryb w ilościach 0,1- 4 mg/kg.

Z punktu widzenia zawartości manganu ciekawym przypadkiem jest herbata. Szacuje się, iż jedna szklanka tego napoju zawiera od 0,4 do 1,3 mg manganu, a jest to zależne od gatunku herbaty, miejsca pochodzenia (zawartość manganu w glebie), sposobu produkcji i przyrządzania napoju. Jednak należy pamiętać, iż u osób pijących dużo herbaty, spożywane w ten sposób ilości manganu mogą być znaczne i – biorąc pod uwagę pozostałe źródła tego pierwiastka w diecie – sięgać dawek granicznych.

Większe spożycie manganu może być również udziałem osób, które zażywają suplementy diety, zwłaszcza te, które zawierają w swoim składzie wiele składników. W szeregu z nich zawarta jest stosunkowo wysoka dawka manganu, od 0,3 mg do nawet 1 mg.

80% dziennej dawki manganu pochodzi z żywności, w tym źródłem aż 20% jest woda pitna. W obszarach narażonych na podwyższoną zawartość manganu w wodzie może to być znacznie więcej. U tych osób woda pitna może być drogą narażenia na toksyczne działanie tego pierwiastka.

Wysoka zawartość manganu notowana jest w mieszankach dla niemowląt i wynosi 50-300 μg/l, podczas gdy w mleku kobiecym stężenie manganu określane jest jako 3 – 15 μg/l. Stąd dzieci karmione sztucznie do 6 m.ż. (do czasu wprowadzenia do diety pokarmów stałych) mają wyższe stężenie manganu w organizmie niż niemowlęta karmione naturalnie.

badanie poziomu manganu baner

Mechanizm wchłaniania i transport manganu w organizmie

Przyswajalność manganu z diety zależy od jego postaci chemicznej i stopnia utleniania, ale ocenia się, że wynosi 3-7%. Lepsza jest przyswajalność chlorku manganu niż siarczanu lub octanu manganu. Zaabsorbowany w jelicie mikropierwiastek, po połączeniu z albuminami, transportowany jest do wątroby, w której odbywa się większość przemian metabolicznych manganu. Pierwiastek kumuluje się również w innych narządach miąższowych (trzustce, mózgu, nerkach, płucach). Wydalanie manganu odbywa się głównie z kałem (40-70%), niewielki ilości wydalają się z moczem (w warunkach prawidłowych do 0,3%).

Wchłanianie manganu z dietą ograniczana jest przez wysoką zawartość żelaza (jest to kolejny powód, aby unikać suplementacji, zwłaszcza preparatami wieloskładnikowymi), natomiast dieta uboga w żelazo przyczynia się do zwiększenia wchłaniania zarówno manganu, jak i żelaza. Poza tym wchłanianie manganu ulega zahamowaniu pod wpływem wapnia, szczawianów i fitynianów. Jest również zmniejszone przy większym spożyciu błonnika.

Niedobór i nadmiar manganu w organizmie

Niedobór manganu spotykany jest rzadko, może wiązać się z zaburzeniami płodności, zaburzeniami neurologicznymi czy nieprawidłową mineralizacją kości. Organizm człowieka jest bardziej narażony na kumulowanie manganu, zwłaszcza jeśli dociera on do organizmu drogą wziewną. Po podaniu z dietą część dawki wchłoniętego manganu eliminowana jest z żółcią i tym samym wyłączana z dalszego metabolizmu. Natomiast przy wchłanianiu manganu drogą inhalacji, krążenie wrotne jest pomijane, nadmiar dawki nie może być wydalany, co prowadzi do przenikania większych ilości manganu do krwiobiegu.

Obraz nadmiaru manganu w organizmie człowieka zdominowany jest przez objawy neurologiczne. Dzieje się tak dlatego, iż pierwiastek ma zdolność do przenikania bariery krew-mózg i gromadzenia się w ośrodkowym układzie nerwowym. Transport manganu do komórek odbywa się przy udziale mechanizmów aktywnych, natomiast przepływ w kierunku z komórki to powolna dyfuzja bierna. Takie warunki sprzyjają gromadzeniu się manganu we wnętrzu komórek i nasilaniu jego niekorzystnego działania.

Środowiskowe narażenie na mangan (czy to drogą wziewną, czy z dietą, np. wodą) skutkuje akumulacją manganu w strukturach OUN (zwojach podstawy mózgu, gałce bladej (globus pallidus), jądrze soczewkowatym, jądrze ogoniastym, substancji czarnej i elementach układu dopaminergicznego. Te same struktury mózgu są atakowane w przebiegu choroby Parkinsona, stąd obraz kliniczny zatrucia tym metalem przypomina objawy choroby Parkinsona. Przy przewlekłym narażeniu na działanie manganu obserwowane zmiany mogą być subtelne i występować przez dłuższy czas.

W NEJM opisywano przypadek 55-letniego pacjenta, który zgłosił się do neurologa z objawami zaburzeń mowy oraz kłopotami w pisaniu ręcznym. Symptomy pojawiły się ok. 10 lat przed wizytą u lekarza. Dodatkowo pacjent miał zmniejszoną ekspresję twarzy, kurcz powiek, nieznacznie upośledzone odruchy. Przeprowadzona diagnostyka wykazała, iż objawy przypominające chorobę Parkinsona spowodowane były przez toksyczne działanie manganu, na które pacjent narażony był, gdy pracował jako spawacz dwadzieścia lat wcześniej.

Podobne objawy obserwuje się u pacjentów narażonych na wysokie dawki manganu w wodzie pitnej. U dzieci toksyczne działanie manganu może objawiać się problemami z nauką i zachowaniem.

Eliminacja nadmiaru manganu z organizmu umożliwia wycofanie się objawów. Należy wówczas zadbać o to, aby nie narażać się powtórnie na toksyczne działanie.


Piśmiennictwo

  1. Otto, D A. AND H. K. Hudnell. ENVIRONMENTAL MANGANESE: GUIDELINE EXPOSURE LEVELS, EVIDENCE OF HEALTH EFFECTS AND RESEARCH NEEDS. Presented at 8th International Symposium on Neurobehavioral Methods and Effects in Occupational and Environmental Health, Brescia, Italy, 6/23-26/2002.
  2. Mangan  w wodzie przeznaczonej  do spożycia przez ludzi. Znaczenie i zagrożenia dla bezpieczeństwa zdrowotnego. Postępowanie w przypadku podwyższonych wartości stężeń. Opracowano na zlecenie  Głównego Inspektoratu Sanitarnego: Dorota Maziarka, Bożena Krogulska – Zakład Bezpieczeństwa Zdrowotnego Środowiska Narodowego Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny. © Główny Inspektorat Sanitarny, Warszawa 2018.
  3. Roy Dayan, M.D., David Arkadir, M.D., Ph.D.. Manganese Accumulation in the Brain. N Engl J Med 2023; 389:1320
  4. Ciborowska H., Rudnicka A., Dietetyka. Żywienie zdrowego i chorego człowieka. Wydawnictwo Lekarskie PZWL, Warszawa 2015.
  5. Gertig H., Przysławski J., Bromatologia. Zarys nauki o żywności i żywieniu. Wydawnictwo Lekarskie PZWL, Warszawa 2015.

Choroby przenoszone drogą płciową

0

Spis treści

  1. Czym są choroby przenoszone drogą płciową i jak do nich dochodzi?
  2. Czynniki ryzyka chorób przenoszonych drogą płciową
  3. Wywiad epidemiologiczny
  4. Objawy chorób przenoszonych drogą płciową
  5. Etiologia chorób przenoszonych drogą płciową
  6. Wybrane choroby przenoszone drogą płciową – diagnostyka laboratoryjna
  7. Profilaktyka zakażeń przenoszonych drogą płciową

Zgodnie z danymi WHO codziennie, u ponad miliona osób na świecie, dochodzi do zakażeń przenoszonych drogą płciową. Większość z nich przebiega bezobjawowo, ale i taka postać infekcji może mieć bezpośredni wpływ na życie i zdrowie człowieka. Choroby przenoszone drogą płciową mogą być przyczyną stygmatyzacji, niepłodności, nowotworów, powikłań ciąży oraz mogą zwiększać ryzyko zakażenia wirusem HIV.

Czym są choroby przenoszone drogą płciową i jak do nich dochodzi?

Choroby przenoszone drogą płciową (ang. sexually transmitted infections (STI)) do niedawna określane były mianem chorób wenerycznych. Nazwa nawiązywała do imienia Wenery – rzymskiej bogini płodności i miłości, jednak budziła w społeczeństwie negatywne skojarzenia. W 1999 r. Światowa Organizacja Zdrowia (ang. World Health Organization (WHO)), dla przełamania bariery wstydu oraz zachęcenia do badań i leczenia, wprowadziła nowe nazewnictwo.

Choroby przenoszone drogą płciową obejmują grupę chorób zakaźnych, których przyczyną są głównie kontakty seksualne bez zabezpieczenia, w tym kontakt waginalny, analny i oralny. Do zakażenia może dojść również podczas ciąży, porodu, karmienia piersią, a także poprzez zakażoną krew lub produkty krwiopochodne. Rozpoznanie choroby i podjęcie terapii opiera się na prawidłowo przeprowadzonym wywiadzie epidemiologicznym, obrazie klinicznym i diagnostyce laboratoryjnej.

Czynniki ryzyka chorób przenoszonych drogą płciową

Choroby przenoszone drogą płciową najczęściej dotyczą ludzi młodych (15 – 24 r.ż.), o dużej aktywności seksualnej, mieszkających w dużych miastach.

Zakażeniu sprzyjają:

  • duża liczba i częsta zmiana partnerów seksualnych,
  • przygodne kontakty seksualne,
  • brak stosowania zabezpieczeń (prezerwatyw),
  • ryzykowne techniki seksualne,
  • substancje psychoaktywne.

Wywiad epidemiologiczny

Wywiad epidemiologiczny ma na celu ustalenie prawdopodobnego źródła choroby przenoszonej drogą płciową oraz możliwości przeniesienia zakażenia na partnera/partnerów. Informacje przekazane przez pacjenta mogą ułatwić lekarzowi ukierunkowanie diagnostyki i rozpoznanie choroby oraz podjęcie działań prowadzących do ograniczenia rozprzestrzeniania zakażenia. 

 O co może zapytać lekarz:

  • czy mamy stałego partnera/partnerkę (od kiedy),
  • kiedy miał miejsce ostatni kontakt seksualny i czy był w zabezpieczeniu,
  • czy partner/partnerka ma jakieś dolegliwości, zmiany w okolicach genitaliów,
  • czy oprócz stałego partnera/partnerki mieliśmy kontakt seksualny (w zabezpieczeniu/bez zabezpieczenia) z inną osobą i co wiemy o jej stanie zdrowia,
  • do jakiego rodzaju kontaktu seksualnego doszło (waginalny, analny, oralny).

Objawy chorób przenoszonych drogą płciową

Choroby przenoszone drogą płciową mogą przebiegać bezobjawowo lub dawać mniej, lub bardziej charakterystyczny obraz kliniczny. Mogą przypominać inne infekcje intymne w obrębie dróg moczowo-płciowych lub inne choroby, ponieważ zmiany mogą dotyczyć również obszarów poza genitaliami.

Do najczęstszych objawów należą:

  • upławy, często o nieprzyjemnym zapachu,
  • świąd narządów płciowych i okolic odbytu,
  • bóle w podbrzuszu,
  • ból w trakcie współżycia płciowego,
  • parcie na pęcherz i bolesne oddawanie moczu (pieczenie),
  • owrzodzenia i grudki na narządach płciowych,
  • powiększenie węzłów chłonnych.

Etiologia chorób przenoszonych drogą płciową

Zidentyfikowano ponad 30 drobnoustrojów (bakterie, wirusy, pasożyty), które mogą być przenoszone drogą płciową. Za największą liczbę zachorowań odpowiada 8 patogenów, które wywołują: kiłę, rzeżączkę, chlamydiozę, rzęsistkowicę oraz zakażenia wirusowe (wirusy WZW B, HSV, HIV i HPV).

Według danych WHO szacuje się, że na świecie:

  • corocznie 374 mln osób zapada na jedną z czterech chorób: kiłę, rzeżączkę, chlamydiozę, i/lub rzęsistkowicę
  • ponad 500 milionów osób w wieku 15–49 lat ma zakażenie narządów płciowych wirusem opryszczki pospolitej (HSV),
  • ponad 311 tys. osób umiera każdego roku z powodu raka szyjki macicy spowodowanego zakażeniem wirusem brodawczaka ludzkiego (HPV),

Liczba przypadków zachorowań w Polsce w 2022 r. (choroby ujęte w meldunkach epidemiologicznych Narodowego Instytutu Zdrowia Publicznego PZH):

  • kiła – 1990
  • rzeżączka – 601
  • chlamydioza – 551
  • HIV (nowe przypadki) – 2380
  • WZW B (przewlekłe) – 2457

Wybrane choroby przenoszone drogą płciową – diagnostyka laboratoryjna

Kiła (Syfilis)

Choroba wywoływana przez bakterię – krętka bladego (Treponema pallidum). Do zakażenia dochodzi głównie na drodze kontaktów płciowych, może dojść również poprzez pocałunki lub od matki w trakcie ciąży/porodu. Mężczyźni chorują dwukrotnie częściej niż kobiety. Okres wylęgania kiły wynosi 10-40 dni, średnio 21 dni. W I okresie kiły wczesnej pojawia się zmiana pierwotna  (grudka przechodząca we wrzut), później (okres II) pojawiają się zmiany skórne. Kiła późna rozpoczyna się po upływie 1 roku od zakażenia, a jej objawy (kiła sercowo-naczyniowa, kilaki) mogą ujawnić się nawet po 15 latach okresu utajenia. Zarówno w kile wczesnej, jak i późnej może dojść do zajęcia ośrodkowego układu nerwowego. Należy pamiętać, że bezobjawowy przebieg zakażenia jest również groźny i brak leczenia może skutkować poważnymi następstwami dla zdrowia.

Diagnostyka serologiczna w kierunku kiły

Nieswoiste odczyny kardiolipinowe (badania przesiewowe):

  • VDRL (Veneral Diseases Research Laboratory),
  • USR (ang. unheated serum reagin test),
  • RPR (ang. rapid plasma reagin).

Testy nieswoiste stają się dodatnie od 5-6 tyg. od zakażenia. Po leczeniu dochodzi do ich negatywizacji.

Swoiste odczyny krętkowe (badania weryfikujące):

  • FTA, FTA-ABS,
  • TPHA (najczulszy),
  • EIA.

Testy swoiste są dodatnie od 2-4 tyg. od zakażenia.

Rzeżączka

Choroba wywoływana przez bakterie – dwoinki rzeżączki (Neisseria gonorrhoeae). Do zakażenia dochodzi drogą seksualną, rzadziej przez kontakt bezpośredni ze skażonymi przedmiotami (ręczniki, gąbki, muszle sedesowe). Okres wylęgania choroby i jej zakaźność trwa od 2-7 dni do 14 dni. U kobiet w większości przypadków zakażenie jest bezobjawowe lub skąpoobjawowe. Najczęstszą postacią objawową jest zapalenie kanału szyjki macicy. U mężczyzn do zakażenia dochodzi rzadziej, ale choroba ma zazwyczaj przebieg objawowy pod postacią zapalenia cewki moczowej. Wdrożenie antybiotykoterapii we wczesnym okresie choroby zapobiega jej groźnym następstwom.

Diagnostyka laboratoryjna w kierunku rzeżączki obejmuje mikroskopię, posiewy i testy molekularne. Materiałem do badania jest wymaz pobrany z pochwy, szyjki macicy, cewki moczowej, rzadziej z innych miejsc.

Osoby z rozpoznaniem rzeżączki i ich partnerzy powinni być poddani również badaniom w kierunku innych chorób przenoszonych drogą płciową, w tym w kierunku kiły i zakażeń wirusowych (HIV, WZW B i WZW C).

Chlamydioza

Choroba wywoływana przez bakterie należące do gatunku Chlamydia trachomatis. Do zakażenia dochodzi drogą seksualną i podczas porodu. Okres wylęgania wynosi 7–21 dni (zazwyczaj 10–12 dni). U 50% kobiet i 75% mężczyzn zakażenie przebiega bezobjawowo. Najczęstszą postacią kliniczną chlamydiozy u mężczyzn jest zapalenie cewki moczowej, u kobiet zapalenie szyjki macicy. Terapia wymaga podania antybiotyku.

W diagnostyce laboratoryjnej chlamydiozy rekomendowane są testy molekularne ze względu na ich wysoką czułość, swoistość oraz krótki czas oczekiwania na wynik. Materiałem do badania są: wymaz z szyjki macicy, cewki moczowej, gardła, spojówek, sperma lub próbka moczu („mocz poranny”).

Zakażenie wywołane przez Chlamydia trachomatis często współistnieje z innymi chorobami przenoszonymi drogą płciową, dlatego wskazane jest wykonanie badań przesiewowych w kierunku innych chorób przenoszonych drogą płciową: rzeżączki, kiły, WZW B, WZW C oraz HIV.

wykrywanie DNA Chlamydia trachomatis RT-PCR baner

Rzęsistkowica

Choroba wywoływana przez pierwotniaka – rzęsistka pochwowego (Trichomonas vaginalis). Do zarażenia dochodzi drogą seksualną i poprzez bezpośredni kontakt ze skażonymi przedmiotami (ręczniki, gąbki). Okres wylęgania rzęsistkowicy wynosi od 4 dni do 4 tygodni. Choroba u mężczyzn jest zazwyczaj bezobjawowa, czasami występuje zapalenie cewki moczowej. U większości kobiet przy rzęsistkowicy pojawiają się charakterystyczne pieniste upławy o barwie zielonożółtej. W leczeniu skuteczne są doustne leki przeciwpierwotniakowe, terapią powinni być objęci również partnerzy.

Diagnostyka laboratoryjna w kierunku Trichomonas vaginalis obejmuje:

  • badania mikroskopowe wydzieliny z dróg rodnych, moczowych lub osadu moczu,
  • hodowlę na specjalnych pożywkach mikrobiologicznych (materiałem jest wymaz z pochwy i/lub cewki moczowej).

Opryszczka narządów płciowych

Choroba zakaźna wywoływana przez wirus HSV (Herpes simplex virus), głównie typ 2. Do zakażenia dochodzi drogą kontaktów seksualnych, rzadziej w trakcie porodu. Okres wylęgania wynosi 1–21 dni (zazwyczaj 3–7 dni). Choroba może mieć przebieg bezobjawowy, skąpoobjawowy lub mogą pojawić się na genitaliach grudki i pęcherzyki, które po 2-3 tygodniach przekształcają się we wrzody i nadżerki. Zakażenie pierwotne ma cięższy przebieg niż zakażenia nawrotowe, które pojawia się w okresach obniżonej odporności. W zakażeniu pierwotnym wirusy są wydalane przez 10-12 dni, we wtórnym przez 5 dni.

Diagnostyka opryszczki narządów płciowych odbywa się na podstawie charakterystycznych objawów klinicznych. Pomocne są też molekularne badania laboratoryjne wykrywające materiał genetyczny wirusa.

wykrywanie dna i różnicowanie typów I i II wirusa HSV baner

Zakażenie wirusem brodawczaka ludzkiego (HPV)

Do zakażenia wirusem HPV (ang. Human papillomavirus) dochodzi drogą stosunku seksualnego, przez kontakt bezpośredni ze zmianami na błonie śluzowej lub skórze, rzadziej w czasie porodu. Okres wylęgania wynosi zazwyczaj 2-3 miesiące, sporadycznie kilka lat. Zakażenia HPV mogą być bezobjawowe, skąpoobjawowe, mogą przebiegać również pod postacią charakterystycznych brodawek (najczęściej kłykcin kończystych). Większość zakażeń (do 80%) ustępuje samoistnie w czasie kilku miesięcy do dwóch lat. Typy wysokoonkogenne wirusa mogą być przyczyną kilku rodzajów nowotworów, w tym raka szyjki macicy, odbytu, pochwy, sromu.

Diagnostyka zakażeń HPV opiera się na podstawie obrazu klinicznego. Badanie laboratoryjne wykonywane są profilaktycznie lub przy podejrzeniu nowotworu. Należą do nich badania cytologiczne, histopatologiczne i molekularne wykrywające materiał genetyczny z określeniem typu wirusa.

wykrywanie DNA wirusa HPV baner

Zakażenie wirusem HIV  

Wirus ludzkiego niedoboru odporności (ang. Human Immunodeficiency Virus, HIV) przenosi się przez krew, wydzieliny dróg płciowych oraz z matki na dziecko w trakcie ciąży, porodu i karmienia piersią. Początkowo zakażenie przebiega bezobjawowo, co u osób nieleczonych trwa zazwyczaj 8-10 lat (1,5 – 15 lat). Osoby HIV (+) są od momentu zakażenia zakaźne. Ostatnim stadium choroby jest wystąpienie AIDS (nabytego niedoboru odporności). Pacjenci AIDS (+) są narażeni na choroby oportunistyczne oraz znajdują się w grupie podwyższonego ryzyka wystąpienia nowotworów. Zastosowanie w odpowiednim momencie leczenia antyretrowirusowego znacznie wydłuża okres od zakażenia do wystąpienia AIDS.

Diagnostyka laboratoryjna w kierunku zakażenia HIV obejmuje:

  • badania serologiczne (diagnostyka przesiewowa),
  • testy molekularne (jakościowe i ilościowe),
  • oznaczenie liczby limfocytów T CD4+.

Wirusowe zapalenie wątroby typu B i C (WZW B i C)

Wirusy zapalenia wątroby typu B i C przenoszą się drogą krwi i preparatów krwiopochodnych, drogą kontaktów seksualnych oraz okołoporodowo. Ryzyko zakażenia na drodze kontaktów płciowych wirusem typu B jest znacznie wyższe niż wirusem typu C. Większość zainfekowanych nie  odczuwa żadnych dolegliwości, a do wykrycia choroby dochodzi przypadkowo w trakcie badań wykonywanych z innej przyczyny (badania okresowe, przed przyjęciem do szpitala itp.). Przewlekłe wirusowe zapalenie wątroby może prowadzić do  marskości wątroby i raka wątrobowokomórkowego.

Diagnostyka laboratoryjna WZW B obejmuje:

Diagnostyka laboratoryjna WZW C obejmuje:

antygen HBs WZW typu B baner

Profilaktyka zakażeń przenoszonych drogą płciową

Do działań skutecznie ograniczających prawdopodobieństwo infekcji w wyniku kontaktu seksualnego należą:

  • współżycie ze stałym partnerem (uważne dobieranie partnerów),
  • unikanie przygodnych kontaktów seksualnych,
  • stosowanie ochrony barierowej (prezerwatywy),
  • szczepienia ochronne (szczepionka przeciwko WZW B, HPV),
  • diagnostyka laboratoryjna/leczenie celem ograniczenia rozprzestrzeniania zakażeń.

Piśmiennictwo

  1. Patric R. Murray, K.S. Rozenthal, M.A.Pfaller –  Mikrobiologia wyd.VI Wrocław 2011
  2. https://www.who.int/news-room/fact-sheets/detail/sexually-transmitted-infections-(stis)
  3. Rekomendacje Polskiego Towarzystwa Ginekologicznego dotyczące zakażeń Chlamydia trachomatis w położnictwie i ginekologii; Ginekol Pol. 2007, 78, 574-575
  4. Informacje o zachorowaniach na choroby zakaźne i zatruciach w Polsce w 2022 roku; Meldunki o zachorowaniach na choroby zakaźne, zakażeniach i zatruciach w Polsce Narodowy Instytut Zdrowia Publicznego PZH
  5. https://www.mp.pl/interna/chapter/B16.II.18

Nadciśnienie tętnicze – nowe rekomendacje – część 1

Spis treści

  1. Patofizjologia nadciśnienia tętniczego – pierwotne i wtórne nadciśnienie tętnicze
  2. Definicja i klasyfikacja nadciśnienia tętniczego
  3. Jak prawidłowo mierzyć ciśnienie tętnicze?

W roku 2023 Europejskie Towarzystwo Nadciśnienia Tętniczego wydało nowe rekomendacje dotyczące postępowania z chorymi na nadciśnienie tętnicze. Dokument zawiera aktualizację niektórych zasad, zawiera również nowe elementy. Wytyczne ESH (European Society of Hypertension) to dokument bardzo istotny, ponieważ nadciśnienie tętnicze to najczęstsza choroba układu sercowo-naczyniowego na świecie. Wg danych WHO dotyka 1,28 miliarda dorosłych osób. W wieku < 50 lat częściej chorują mężczyźni, natomiast po 65 r.ż. częściej kobiety (obserwuje się silniejszy wzrost NT u kobiet od trzeciej dekady życia, ze szczególnym wzrostem zachorowań po menopauzie).

Poniższy artykuł omawia:

  • patofizjologię nadciśnienia tętniczego,
  • definicję nadciśnienia tętniczego,
  • jak prawidłowo mierzyć nadciśnienie tętnicze.

Patofizjologia nadciśnienia tętniczego – pierwotne i wtórne nadciśnienie tętnicze

Nadciśnienie tętnicze dzieli się na nadciśnienie tętnicze pierwotne (tzw. nadciśnienie samoistne) oraz nadciśnienie tętnicze wtórne.

Nadciśnienie tętnicze wtórne występuje u niewielkiej części pacjentów z nadciśnieniem, jednakże jest częstą przyczyną ciężkiej postaci nadciśnienia oraz postaci opornej na leczenie. Jest one szczególnie częste u pacjentów poniżej 40 r.ż., chociaż niektóre jego postacie (spowodowane chorobami nerek lub miażdżycą) występują częściej w wieku starszym.

najważniejsze przyczyny nadciśnienia tętniczego wtórnego

Nadciśnienie tętnicze pierwotne obejmuje pozostałą część populacji z nadciśnieniem, do jego powstania przyczynia się oddziaływanie czynników środowiskowych, predyspozycji genetycznych oraz procesu starzenia się. Ostanie kilka lat przyniosło wiele informacji i dowodów na temat genetycznych uwarunkowań nadciśnienia tętniczego, zidentyfikowano ponad 1 000 czynników genetycznych.

Jeśli chodzi o czynniki środowiskowe, sprzyjające powstawaniu NT, dokument po raz pierwszy uwzględnia nowe, niedocenianie w codziennej praktyce elementy, do których należy hałas oraz zanieczyszczenie środowiska. Oba czynniki mają wpływ na aktywację układu immunologicznego, powstania stanu zapalnego i przyczyniają się do zaburzeń regulacji ciśnienia tętniczego.  Obydwa procesy łączy zwiększony stres oksydacyjny i nadmierna produkcja reaktywnych form tlenu – wolnych rodników. Podkreślono również rolę dysbiozy jelitowej i zaburzeń mikrobioty w regulacji ciśnienia tętniczego.

Do czynników zależnych od stylu życia, które mają wpływ na rozwój nadciśnienia tętniczego, należą:

  • nadwaga lub otyłość – u dorosłych chorych na NT rekomendacją jest redukcja masy ciała, w celu zmniejszenia ciśnienia tętniczego krwi oraz zmniejszenia ryzyka powikłań sercowo-naczyniowych;
  • dieta ograniczająca produkty pochodzenia zwierzęcego (tłuste mięso), pełnotłusty nabiał, cukier, napoje słodzone i słodycze. Preferowane składniki jadłospisu to warzywa, owoce, rośliny strączkowe, orzechy, nasiona, oleje roślinne. Z produktów mięsnych drób i ryby;
  • ograniczenie spożycia sodu w diecie do ok. 2 g dziennie, m.in. dzięki ograniczeniu spożycia soli do < 5 g dziennie oraz używania zamienników soli (zamiast NaCl używanie KCl);
  • zwiększone spożycie potasu poprzez modyfikację diety (z wyjątkiem osób z przewlekłymi chorobami nerek);
  • zaleca się dążenie do 150-300 minut ćwiczeń aerobowych o umiarkowanej intensywności tygodniowo lub 75-150 minut ćwiczeń o wysokiej intensywności;
  • ograniczenie spożycia alkoholu – osoby z podwyższonym ciśnieniem tętniczym wypijające trzy i więcej drinków w tygodniu powinny ograniczyć ilość wypijanego alkoholu do abstynencji włącznie. Alkohol nie powinien być rekomendowany w prewencji chorób sercowo-naczyniowych, poprzednie badania wiążące umiarkowane spożycie alkoholu z mniejszym ryzykiem chorób układu krążenia wprowadzały w błąd;
  • zaprzestanie palenia;
  • redukcja stresu poprzez medytację, jogę, ćwiczenia oddechowe oraz techniki mindfullnes (uważność).
Badanie potasu banerek

Definicja i klasyfikacja nadciśnienia tętniczego

W nowych wytycznych definicja nadciśnienia tętniczego pozostała niezmieniona, nadal określa się je jako skurczowe ciśnienie tętnicze wynoszące 140 mmHg i/lub rozkurczowe 90 mmHg.

Również klasyfikacja stopni NT pozostaje niezmieniona i obejmuje następujące grupy:

nadciśnienie tętnicze kategorie tabela

Nowością w dokumencie z roku 2023 jest fakt, iż – pomimo niezmienionej definicji NT – wartości docelowe ciśnienia tętniczego są mocniej zróznicowane w zależności od wieku. U osób młodych i w wieku średnim, od 18 do 65 r.ż, ciśnienie powinno być docelowo obniżane poniżej 130/80 mmHg. U pacjentów od 65 do 79 r.ż. wartością docelową powinna być ciśnienie niższe niż 140/80 mmHg. Natomiast u osób po 80 r.ż dążymy do wartości niższych niż 150/80 mmHg.

Jak prawidłowo mierzyć ciśnienie tętnicze?

Nowe wytyczne po raz pierwszy podkreślają rolę pozagabinetowych pomiarów ciśnienia tętniczego. Wiarygodnie rozpoznanie NT nie może się opierać tylko na oznaczeniach wykonywanych w przychodni lub w gabinecie lekarskim. Ocena ciśnienia powinna być dokonywana w warunkach codziennej aktywności osoby badanej, czyli za pomocą całodobowego jego pomiaru (tzw. holter ciśnieniowy) i/lub pomiarów dokonywanych przez pacjenta samodzielnie w domu. Dzięki temu można uniknąć fałszywie dodatnich rozpoznań, spowodowanych efektem białego fartucha. Poza tym można wykryć nadciśnienie tętnicze ukryte lub oporne.

Duże znaczenie ma prawidłowy pomiar ciśnienia, na co nie zawsze zwraca się uwagę. Ważne są trzy grupy elementów. Pierwsza grupa to warunki, w których pomiar jest przeprowadzany, druga grupa to prawidłowa postawa, trzecia to prawidłowe wykonanie samego pomiaru.

Warunki pomiaru – jak się przygotować do badania?

  1. Zadbaj o komfort cieplny
  2. 30 minut przed pomiarem nie pal papierosów, nie pij kawy, nie spożywaj żadnych posiłków, nie zażywaj leków.
  3. 30 minut przed pomiarem nie wykonuj żadnych ćwiczeń fizycznych.
  4. 3-5 minut przed pomiarem pozostań w pozycji siedzącej.
  5. W czasie pomiaru oraz pomiędzy pomiarami nie rozmawiaj.

Prawidłowa postawa

  1. Usiądź na krześle, plecy powinny być swobodne.
  2. Stopy spoczywają płasko na podłodze, nie krzyżuj nóg.
  3. Ramię oparte o stół, środek ramienia jest na poziomie serca.
mierzenie ciśnienia prawidłowa postawa infografika

Prawidłowy pomiar ciśnienia

  1. Pomiar domowy – zmierz ciśnienie dwukrotnie, w odstępie 1 minuty. Wyciągnij średnią z obydwu pomiarów.
  2. Pomiar w gabinecie lekarza – zmierz ciśnienie trzykrotnie w odstępie 1 minuty. Wynik powinien być średnią z dwóch ostatnich pomiarów.

Trzykrotny pomiar ciśnienia w gabinecie lekarskim podyktowany jest faktem, iż pacjent w takiej sytuacji odczuwa stres i oznaczenie jest obarczone efektem białego fartucha. W warunkach domowych wystarczy ciśnienie zmierzyć dwa razy.


Piśmiennictwo

  1. 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension; Journal of Hypertension 2023, 41:000–000

Rola przeciwciał w cukrzycy typu 1: związek między autoimmunizacją a postępem choroby

Spis treści

  1. Jaką rolę odgrywają przeciwciała w cukrzycy typu 1?
  2. Kluczowe przeciwciała zaangażowane w rozwój cukrzycy typu 1
  3. Związek między autoimmunizacją a postępem cukrzycy typu 1
  4. Potencjalne terapie ukierunkowane na przeciwciała

W świecie badań medycznych dążenie do zrozumienia i zwalczania chorób stanowi stały priorytet. Jedną z chorób od lat przyciągających uwagę naukowców jest cukrzyca typu 1 (cukrzyca insulinozależna). Ten przewlekły stan, charakteryzujący się niezdolnością organizmu do produkcji insuliny, przypisuje się procesom autoimmunizacji. Opublikowane w ostatnich latach badania rzuciły nowe światło na rolę autoprzeciwciał w rozwoju i progresji cukrzycy typu 1. Te niewielkie białka, niegdyś uważane wyłącznie za zwalczające infekcje, są obecnie uznawane za kluczowe w odpowiedzi autoimmunizacyjnej, która w przypadku cukrzycy typu 1 prowadzi do zniszczenia komórek produkujących insulinę w trzustce. W związku z tym wczesna i prawidłowa diagnoza ma niebagatelne znaczenie dla właściwego leczenia tej choroby, uniknięcia groźnych powikłań i zapewnienia zastępczej insuliny egzogennej jako opcji terapeutycznej.

Jaką rolę odgrywają przeciwciała w cukrzycy typu 1?

Przeciwciała odgrywają kluczową rolę w procesie autoimmunizacyjnym, prowadzącym do rozwoju cukrzycy typu 1. W przypadku tej choroby skierowane są m.in. przeciwko komórkom beta trzustki, odpowiedzialnym za produkcję insuliny. Przeciwciała wiążą się z powierzchnią komórek beta i inicjują reakcje prowadzące do ich niszczenia. Mechanizmy, za pomocą których przeciwciała uszkadzają komórki beta, obejmują aktywację układu dopełniacza, stymulację innych komórek układu immunologicznego do ataku lub indukcję apoptozy, czyli programowanej śmierci komórek. W rezultacie zniszczenia komórek beta trzustki organizm traci zdolność do produkcji wystarczającej ilości insuliny, co prowadzi do wzrostu poziomu glukozy (czyli potocznie cukru) we krwi. Typowe trio symptomów związanych z rozwojem cukrzycy typu 1 to nadmierne oddawanie moczu, nadmierny głód i nadmierne pragnienie. Zwiększonemu poziomowi glukozy we krwi mogą towarzyszyć takie dolegliwości jak zmęczenie, nudności, ból brzucha lub niezamierzona utrata wagi. Okazuje się, że do momentu wystąpienia objawów choroby zniszczeniu ulega aż 90–95% komórek beta trzustki.

Kluczowe przeciwciała zaangażowane w rozwój cukrzycy typu 1

W przypadku tej choroby istnieje kilka typów przeciwciał zaangażowanych w niszczenie komórek beta trzustki. Do najważniejszych należą przeciwciała przeciwko dekarboksylazie kwasu glutaminowego izoformy 65 kDa (GADA, ang. glutamic acid decarboxylase antibodies). Antygen GAD65, obecny w komórkach beta trzustki, jest odpowiedzialny za produkcję enzymu GABA (kwasu gamma-aminomasłowego), który pełni rolę neurotransmitera w układzie nerwowym. Przeciwciała skierowane przeciwko GAD65 są często obecne u pacjentów z cukrzycą typu 1 i uważa się je za ważny biomarker tej choroby. Innymi kluczowymi immunoglobulinami są przeciwciała przeciwko fosfatazie tyrozynowej (IA2, ang. tyrosine phosphatase-protein antibodies). Antygen IA2 również jest obecny w komórkach beta trzustki i pełni rolę regulatora procesów wewnątrzkomórkowych. Przeciwciała przeciwko IA2 są często wykrywane u pacjentów z cukrzycą typu 1 i stanowią ważny wskaźnik odpowiedzi autoimmunizacyjnej organizmu.

Zanim pojawią się symptomy cukrzycy typu 1, w surowicy można wykryć również przeciwciała skierowane przeciwko białku transportującemu cynk 8, znane jako przeciwciała anty-ZnT8 (ang. zinc transporter 8 antibodies). Co ciekawe, po wystąpieniu objawów cukrzycy typu 1 poziom autoprzeciwciał anty-ZnT8 w surowicy się obniża.

Badanie przeciwciał GADA

Związek między autoimmunizacją a postępem cukrzycy typu 1

Liczne badania naukowe przyczyniły się do lepszego zrozumienia związku między autoimmunizacją a postępem cukrzycy typu 1. Wczesne etapy choroby zazwyczaj charakteryzują się obecnością przeciwciał i innych markerów autoimmunologicznych, takich jak ZnT8, GADA i IA2 (jednoczesne badanie kilku autoprzeciwciał zwiększa trafność diagnostyczną). Wraz z postępem choroby dochodzi do większego uszkodzenia komórek beta trzustki i utraty zdolności do produkcji insuliny. W tym momencie poziom glukozy we krwi zaczyna wzrastać, co prowadzi do objawów klinicznych cukrzycy typu 1.

Obecnie trwają intensywne badania nad przeciwciałami i ich rolą w rozwoju cukrzycy typu 1. Jednym z celów tych badań jest lepsze zrozumienie mechanizmów autoimmunizacyjnych i identyfikacja nowych biomarkerów. Wykrycie nowych specyficznych przeciwciał może pomóc w diagnozowaniu cukrzycy typu 1 we wczesnych stadiach choroby, co pozwoli na szybsze rozpoczęcie właściwego leczenia. Ponadto badania nad przeciwciałami mogą prowadzić do opracowania nowych terapii, mających na celu hamowanie odpowiedzi autoimmunizacyjnej organizmu i ochronę komórek beta trzustki. Aktualnie nie ma skutecznej metody leczenia tej choroby, pacjentom regularnie podaje się insulinę, aby utrzymać odpowiedni poziom glukozy we krwi. Odkrycie nowych terapii ukierunkowanych na przeciwciała może otworzyć drzwi do lepszego panowania nad cukrzycą typu 1 i poprawy jakości życia pacjentów.

badanie przeciwciał przeciwko IA2

Potencjalne terapie ukierunkowane na przeciwciała

Badania nad przeciwciałami w cukrzycy typu 1 są ścieżką do innowacyjnych metod terapeutycznych, ukierunkowanych na hamowanie odpowiedzi autoimmunizacyjnej organizmu i ochronę komórek beta trzustki. Jedną z obiecujących strategii jest zastosowanie terapii biologicznych, które mają na celu blokowanie aktywności przeciwciał lub zmniejszenie ich poziomu. Na przykład wykorzystanie monoklonalnych przeciwciał neutralizujących przeciwciała przeciwko antygenom GAD65 i IA2 może zapobiec niszczeniu komórek beta trzustki i utracie ich zdolności do produkcji insuliny. Inną możliwością jest stosowanie immunomodulatorów, które mają na celu regulację działania układu immunologicznego i zmniejszenie jego odpowiedzi.


Piśmiennictwo

  1. https://www.euroimmun.pl/nadzieja-na-wczesna-diagnoze-autoprzeciwciala-w-cukrzycy-typu-1/
  2. https://www.euroimmun.pl/wp-content/uploads/2023/01/Diagnostyka-cukrzycy.pdf

Łuszczyca – rodzaje, objawy, rozpoznanie, leczenie

Poniższy artykuł jest zapisem webinaru, który odbył się 19.02.2019 r.

Łuszczyca to przewlekła, nawracająca choroba zapalna, dotykająca od 1 do 3% populacji światowej, z wyraźnym naciskiem na rasę białą. Choć może pojawić się w każdym wieku, około 80% przypadków diagnozuje się u osób między 20. a 40. rokiem życia. Choroba ta, choć często mylnie postrzegana jako zakaźna czy nieuleczalna, ma w rzeczywistości złożoną etiologię, łączącą czynniki genetyczne, immunologiczne i środowiskowe. Najczęstszą jej postacią jest łuszczyca zwyczajna, choć może ona również objawiać się jako łuszczycowe zapalenie stawów. 

Patogeneza zmian skórnych w łuszczycy wynika ze zwiększonej objętości naskórka w obszarach chorobowych, który jest nawet sześciokrotnie większy niż w zdrowej skórze. Kluczowym elementem jest przyspieszone i zaburzone różnicowanie komórek naskórka, prowadzące do powstania charakterystycznych srebrzystych łusek. W normalnych warunkach komórki przechodzą przez proces różnicowania w ciągu 28 dni, podczas gdy u osób z łuszczycą ten proces może trwać zaledwie 3-4 dni. 

Jaka jest typowa lokalizacja zmiany łuszczycowych? 

Łuszczyca to choroba, która może objawiać się na różnych częściach ciała, ale pewne lokalizacje są bardziej typowe niż inne. W około 80% przypadków głównym miejscem występowania zmian jest głowa. Nie oznacza to jednak, że cała głowa jest objęta chorobą; mogą to być niewielkie obszary, takie jak za uszami, na karku czy tam, gdzie skóra owłosiona łączy się ze skórą gładką głowy. Inne typowe lokalizacje to łokcie, kolana, okolica lędźwiowa oraz stopy i dłonie. 

Chociaż te lokalizacje są najczęstsze, łuszczyca może pojawiać się w różnych miejscach na ciele. W niektórych przypadkach lokalizacja zmian może sugerować współistnienie innych schorzeń, takich jak łuszczycowe zapalenie stawów. Na przykład, jeśli zmiany występują w okolicy potylicznej, szparze pośladkowej, okolicach intymnych czy na płytkach paznokciowych, może to wskazywać na większe ryzyko rozwoju łuszczycowego zapalenia stawów. 

Objawy łuszczycy 

Łuszczyca manifestuje się na skórze w charakterystyczny sposób, który pozwala odróżnić ją od innych schorzeń skórnych. Pierwotnym wykwitem w łuszczycy jest rumieniowata gródka pokryta srebrzystą łuską. Gdy te wykwity pierwotne zlewają się ze sobą, tworzą większe blaszki, które są właściwie srebrzystymi łuskami. W przypadku znacznego zlewania się tych grudek, obraz kliniczny może przypominać duże obszary pokryte srebrzystymi łuskami, jak w przypadku przedstawionego pacjenta. Inną manifestacją są krostki, które również mogą się zlewać. 

Wśród charakterystycznych objawów klinicznych łuszczycy wyróżniamy: 

  • Objaw świecy stearynowej: po zdrapaniu łuski pozostaje błyszcząca powierzchnia, przypominająca powierzchnię oblana stearyną. 
  • Objaw Auspitza: charakteryzuje się kropelkowatym krwawieniem z uszkodzonych naczyń krwionośnych, które jest wynikiem wydłużenia brodawek skórnych. 
  • Objaw Köbnera: wskazuje na aktywność łuszczycy. Pojawia się w miejscach zadrapań lub urazów, gdzie w ciągu 6 do 12 dni od uszkodzenia skóry pojawiają się charakterystyczne dla łuszczycy zmiany. 

Rozpoznanie łuszczycy opiera się na obserwacji tych charakterystycznych objawów, które w połączeniu z historią pacjenta i innymi badaniami pozwalają na postawienie diagnozy. 

Odmiany kliniczne łuszczycy 

Łuszczyca to schorzenie o wielu obliczach, które może manifestować się różnorodnie w zależności od pacjenta. Oto kilka odmian klinicznych tej choroby: 

  1. Łuszczyca plackowata: najczęstsza forma łuszczycy, obejmująca 80-90% przypadków. Charakteryzuje się występowaniem rumieniowych placków pokrytych srebrzystą łuską. Może przybierać różne postacie morfologiczne, takie jak pieniążkowata, geograficzna czy obrączkowata. 
  2. Łuszczyca brudźcowa: charakteryzuje się dużą ilością mocno nawarstwionej łuski. 
  3. Łuszczyca zadawniona: występują duże obszary pokryte srebrzystą łuską, zwłaszcza na rękach i palcach. 
  4. Łuszczyca wysiewna: charakterystyczna dla młodych ludzi, często pojawia się po infekcji górnych dróg oddechowych. 
  5. Łuszczyca krostkowa: charakteryzuje się występowaniem krostek, zwłaszcza w okolicach dłoni i stóp. 
  6. Łuszczyca erytrodermiczna: zajmuje prawie całą powierzchnię skóry. 
  7. Łuszczyca owłosionej skóry głowy: może być trudna do odróżnienia od innych schorzeń skóry głowy. 
  8. Łuszczyca odwrócona: zmiany przypominające wyprzeniowe, często mylone z grzybicą czy drożdżycą. 
  9. Łuszczyca podeszwowo-dłoniowa: zajmuje dłonie i stopy, często z zajęciem paznokci. 
  10. Łuszczyca paznokci: charakteryzuje się zmianami w obrębie płytki paznokciowej. 
  11. Łuszczyca stawowa: może współistnieć z łuszczycą skóry lub występować samodzielnie. 

Każda z tych odmian ma swoje unikalne cechy i może wymagać innej strategii leczenia. 

typy łuszczycy

Zmiany paznokciowe w łuszczycy 

Zmiany łuszczycowe paznokci mogą objawiać się w różny sposób w zależności od tego, która część paznokcia jest uszkodzona. Gdy dotknięta jest macierz paznokcia, można zaobserwować charakterystyczne punkciki, białe plamy, linie wskazujące na zahamowanie wzrostu, czerwone plamki w okolicy obłączka czy kruchą płytkę paznokciową. 

Natomiast uszkodzenie łożyska paznokcia może objawiać się żółtą lub brązową plamą na paznokciu, oddzielaniem się płytki paznokciowej od łożyska, zgrubieniem i rogowaceniem skóry pod paznokciem oraz czerwonymi liniami pod paznokciem wynikającymi z krwawienia. Zmiany te mogą występować zarówno na dłoniach, jak i na stopach, choć są częstsze na dłoniach. W przypadku podejrzenia łuszczycy paznokci warto skonsultować się z dermatologiem. 

Zmiany skórne a zmiany stawowe 

Łuszczycowe zapalenie stawów to schorzenie, które może dotykać pacjentów z łuszczycą skórną, choć jego występowanie jest zróżnicowane i waha się od 6 do 42% przypadków. W większości sytuacji (70%) zmiany skórne pojawiają się przed dolegliwościami stawowymi, które manifestują się bólem i obrzękiem. Ciekawostką jest fakt, że nasilenie objawów stawowych nie jest związane z rozległością zmian skórnych – pacjent może mieć niewielkie zmiany skórne, ale poważne problemy stawowe i odwrotnie. 

W przypadku łuszczycowego zapalenia stawów często obserwuje się zmiany w paznokciach, które mogą przypominać objawy grzybicy. Diagnostyka łuszczycy wymaga uwzględnienia różnych schorzeń, które mogą dawać podobne objawy, takich jak łojotokowe zapalenie skóry, różnego rodzaju łupież czy wypryski. Warto podkreślić, że nie każda zmiana skórna o charakterze łuszczącym musi wskazywać na łuszczycę

Łuszczyca jest chorobą, której diagnoza w większości przypadków opiera się na charakterystycznych objawach klinicznych. Jednak w sytuacjach wątpliwych, lekarze mogą sięgnąć po dodatkowe narzędzia diagnostyczne, np. dermatoskop. Jeśli nawet po takim badaniu istnieją wątpliwości, można pobrać wycinek skóry do badania histopatologicznego. Jest to metoda uważana za „złoty standard” w diagnostyce łuszczycy, dająca pewność co do postawionego rozpoznania. 

Co powinien ustalić lekarz u pacjenta z łuszczycą? 

Diagnoza łuszczycy opiera się na charakterystycznych objawach klinicznych. Po potwierdzeniu diagnozy, lekarz powinien określić typ łuszczycy, stopień jej zaawansowania, czy choroba dotyczy tylko skóry, czy też innych narządów, takich jak stawy. Kluczowym pytaniem dla pacjenta jest metoda leczenia. W praktyce lekarskiej istnieją różne wskaźniki do oceny aktywności łuszczycy: 

  • BSA (Body Surface Area) – wskaźnik określający obszar skóry zajęty przez łuszczycę. Używa się „reguły dziewiątki” do jego obliczenia. Wskaźnik ten jest prosty i szybki, ale ocenia tylko powierzchnię zmian. 
  • PASI (Psoriasis Area and Severity Index) – wskaźnik oceniający powierzchnię, nasilenie i rodzaj zmian skórnych. Jest bardziej skomplikowany, ale daje dokładniejszy obraz aktywności choroby. Wskaźnik ten jest często używany do oceny efektów leczenia. 
  • DLQI (Dermatology Life Quality Index) – wskaźnik oceny jakości życia w chorobach skórnych. Pacjent samodzielnie odpowiada na pytania dotyczące wpływu choroby na jego codzienne życie. Wskaźnik ten jest ważny, ponieważ pozwala lekarzowi zrozumieć, jak pacjent postrzega swoją chorobę i jak wpływa ona na jego samopoczucie. 
  • NAPSI (Nail Psoriasis Severity Index) – wskaźnik oceniający aktywność zmian łuszczycowych w obrębie płytek paznokciowych. Jest używany głównie w badaniach klinicznych. 

Każdy z tych wskaźników ma swoje zalety i wady, ale razem dają one pełny obraz aktywności choroby i wpływu łuszczycy na życie pacjenta. Ważne jest, aby lekarz i pacjent współpracowali, aby znaleźć najskuteczniejszą metodę leczenia. 

Standardy oceny nasilenia zmian skórnych 

Zarówno konsensus europejski, jak i wytyczne Polskiego Towarzystwa Dermatologicznego dostarczają jasnych kryteriów dotyczących oceny nasilenia zmian skórnych w łuszczycy. 

Według tych wytycznych: 

  1. Łuszczyca łagodna: wskaźniki PASI, BSA oraz DLQI są mniejsze lub równe 10. 
  2. Łuszczyca umiarkowana do ciężkiej: co najmniej jeden ze wskaźników (PASI, BSA lub DLQI) przekracza wartość 10. 

Warto podkreślić, że w przypadku łuszczycy umiarkowanej do ciężkiej wystarczy, że jeden z wymienionych wskaźników przekroczy wartość 10, aby zakwalifikować pacjenta do tej kategorii. 

Leczenie łuszczycy 

Leczenie łuszczycy zależy od jej nasilenia i rodzaju. W przypadku łuszczycy łagodnej, pierwszym krokiem jest leczenie miejscowe. Jeśli nie przynosi ono pożądanych efektów lub wskaźnik DLQI (oceniający jakość życia pacjenta) jest powyżej 10, można rozważyć fototerapię lub leczenie ogólne. Dla łuszczycy umiarkowanej do ciężkiej, fototerapia i leczenie ogólne są bardziej powszechne. 

Leczenie miejscowe obejmuje różnorodne preparaty, takie jak keratolityczne, pochodne witaminy D3, glikokortykosteroidy, retinoidy i inhibitory kalcyneuryny. Fototerapia polega na naświetlaniu skóry różnymi rodzajami promieniowania UV. 

Leczenie ogólne obejmuje leki takie jak cyklosporyna, metotreksat i acytetryna. Nowe leki ogólne to apremilast oraz estry kwasu fumarowego. 

Leczenie biologiczne to nowoczesna metoda leczenia łuszczycy, polegająca na użyciu leków produkowanych przy użyciu technik biologii molekularnej. Te leki działają bardzo selektywnie, celując w konkretne elementy reakcji immunologicznej. Aby zakwalifikować się do leczenia biologicznego w Polsce, pacjent musi spełniać określone kryteria, takie jak ciężkość choroby i brak odpowiedzi na inne metody leczenia. 

Kto kwalifikuje się do programu lekowego NFZ? 

Pacjenta do programu kwalifikuje zespół koordynacyjny do spraw leczenia biologicznego łuszczycy plackowatej, powołany przez Prezesa Narodowego Funduszu. Jednakże inicjatorem zgłoszenia pacjenta jest zawsze jego lekarz prowadzący. 

Lekarze prowadzący korzystają ze specjalnych aplikacji komputerowych, które umożliwiają zgłoszenie pacjenta do programu. 

W ramach programu dostępne są różne leki biologiczne, takie jak infiiximab, adalimumab, etanercept, ustekinumab, iksekizumab i sekukinumab. Te leki działają na różne mechanizmy immunologiczne, co pozwala na indywidualne dostosowanie terapii do potrzeb pacjenta. 

Aby zakwalifikować się do programu, pacjent musi spełniać łącznie następujące kryteria: 

  • wiek 18 lat lub więcej (z wyjątkiem etanerceptu, który jest dostępny dla dzieci powyżej 6. roku życia), 
  • diagnoza umiarkowanej lub ciężkiej postaci łuszczycy plackowatej, 
  • wskaźniki PASI, DLQI i BSA powyżej określonych wartości, 
  • brak odpowiedzi na co najmniej dwie klasyczne terapie systemowe (lub jedną w przypadku dzieci w wieku 6-18 lat) lub nietolerancja/przeciwwskazania do tych terapii zgodnie z charakterystyką produktu leczniczego. 

Warto podkreślić, że leczenie biologiczne łuszczycy jest nowoczesną i skuteczną metodą terapii, ale wymaga dokładnej kwalifikacji pacjenta i ścisłego monitorowania efektów leczenia. Jeśli pacjent spełnia kryteria kwalifikacji, leczenie biologiczne może znacząco poprawić jakość jego życia. 

D-dimery – znaczenie, wskazania, interpretacja wyniku

Spis treści

  1. D-dimery – zastosowanie (wskazania)
  2. Przygotowanie pacjenta do badań układu hemostazy
  3. Materiał do badań układu hemostazy
  4. Metody oznaczania D-dimerów
  5. Interferencje
  6. Jednostki stężenia D-dimerów
  7. Interpretacja wyniku stężenia D-dimerów

Hemostaza to jeden z kilku systemów zapewniających stałe warunki wewnętrznego środowiska organizmu człowieka – homeostazy, które utrzymują integralność zamkniętego układu krążenia po przerwaniu ciągłości łożyska naczyniowego. Prawidłowa hemostaza jest zatem procesem wysoce zintegrowanym i wynikiem precyzyjnej równowagi między wieloma różnorodnymi czynnikami hamującymi krzepnięcie oraz aktywującymi je. Zachwianie tej równowagi może prowadzić do rozwoju skazy krwotocznej lub powikłań zakrzepowych, a także mogą sprzyjać rozwojowi wielu procesów chorobowych takich jak miażdżyca, nadciśnienie tętnicze czy choroba niedokrwienna serca.

Do wytworzenia skrzepu płytkowego prowadzą procesy hemostazy pierwotnej płytkowo-naczyniowej, do powstania fibryny – procesy hemostazy wtórnej, osoczowej. W organizmie zjawiska te toczą się praktycznie równocześnie i są ściśle ze sobą powiązane.

Uszkodzenie bądź zaburzenie czynności śródbłonka wyzwala szereg reakcji, których morfologicznym odpowiednikiem jest zmiana kształtu krwinek płytkowych, a następnie ich adhezja i agregacja.

Kiedy proces krzepnięcia i aktywacja płytek zostaną zakończone, skrzeplina staje się miejscem działania układu przeciwstawnego – fibrynolitycznego, mającego na celu usunięcie zakrzepów z naczyń.

Czynnym enzymem układu fibrynolitycznego jest plazmina, która powstaje z nieczynnego proenzymu – plazminogenu, syntetyzowanego w wątrobie.

Plazmina jest enzymem o szerokiej swoistości substratowej, proteolizując fibrynogen, fibrynę, czynniki krzepnięcia (XIII, V, VIII), vWF oraz glikoproteiny płytkowe, uwalniając przy tym cząsteczki białkowe zwane produktami degradacji fibryny (FDP) oznaczone jako fragmenty X, Y, D i E. Podczas trawienia stabilizowanej fibryny, zamiast pojedynczego fragmentu D, powstaje podwójny fragment tzw. D-dimer, w którym 2 cząsteczki połączone są wiązaniem krzyżowym.

D-dimer zatem jest produktem rozpadu fibryny.

Zwiększona zawartość D-dimerów w osoczu świadczy o równoczesnej aktywacji krzepnięcia i fibrynolizy, natomiast nie stanowi bezpośredniego dowodu na toczący się proces zakrzepowo-zatorowy.

W nieuszkodzonych naczyniach krwionośnych, w warunkach prawidłowej hemostazy nie powinien tworzyć się czop hemostatyczny, a jeśli powstaje, wówczas mamy do czynienia z zakrzepicą. Diagnostyka w pierwszej kolejności powinna zawierać badanie podmiotowe – wywiad np. występowanie zakrzepicy w rodzinie oraz badanie przedmiotowe. Dalsza diagnostyka powinna być uzależniona od umiejscowienia zakrzepu i obejmować zestaw technik diagnostycznych jak ultrasonografia oraz zestaw badań diagnostycznych.

Monitorowanie hemostazy u pacjenta odbywa się za pomocą skryningowych badań osoczowego układu krzepnięcia: APTT – czas częściowej tromboplastyny po aktywacji, PT – czas protrombinowy  wyrażony w sekundach i INR – międzynarodowy znormalizowany współczynnik protrombinowy, TT – czas trombinowy, FBG – fibrynogen.

W przypadku skłonności do występowania epizodów zakrzepowo-zatorowych np. zakrzepicy żył głębokich kończyn dolnych, zapalenia zakrzepowego żył powierzchniowych, zatorowości płucnej, udarów mózgu, tzw. nawykowych poronień u kobiet, diagnostyka laboratoryjna umożliwia ilościową ocenę takich parametrów jak: D-dimery, antytrombiny , białka C, białka S, APCR–V (oporność na aktywne białko C spowodowane obecnością czynnika V Leiden), czynnika VIII, LAC (antykoagulant toczniowy), przeciwciał antykardiolipinowych, przeciwciał przeciwko β2–glikoproteinie I.

D-dimery – zastosowanie (wskazania)

Stwierdzenie obecności D-dimerów we krwi jest traktowane jako wskaźnik powstania stabilnej fibryny, gdyż jest on produktem jej degradacji przez plazminę.

Badanie D-dimerów jest testem przesiewowym w kierunku żylnej choroby zakrzepowo-zatorowej (ŻChZZ): zakrzepicy żył głębokich (ZŻG) czy zatorowości płucnej (ZP). Należy pamiętać, że podwyższone wyniki uzyskujemy również w ciąży, nadczynności tarczycy, zapaleniach, nowotworach, u pacjentów w podeszłym wieku, ale także w stanach zagrażających życiu takich jak: zawał serca, zespół rozsianego krzepnięcia wewnątrznaczyniowego (DIC), pęknięcie tętniaka aorty czy zatorowość. Oznaczanie tego parametru znalazło zatem zastosowanie w algorytmie wykluczania ŻChZZ, a nie jej potwierdzania.

Badanie D-dimerów banerek

Przygotowanie pacjenta do badań układu hemostazy

Bardzo ważne jest przygotowanie pacjenta do badań układu hemostazy. Lekarz powinien uwzględnić wszystkie czynniki, które mogą wpływać na wyniki oznaczeń m.in: stres, pora dnia, wysiłek fizyczny, wpływ leków i hormonów. 

Pacjent powinien powstrzymać się od intensywnych ćwiczeń fizycznych 24 godziny przed badaniem oraz odpocząć ok. 20 min. tuż przed samym pobraniem krwi. Unikanie palenia oraz dieta lekkostrawna dzień przed badaniem jest również bardzo ważnym czynnikiem uzyskania wiarygodnego wyniku. Pobranie materiału powinno odbywać się w godzinach porannych, uwzględniając pozycję ciała. Podczas pobrania należy unikać stosowania stazy, a jeśli zajdzie taka konieczność, to czas i siła ucisku powinny być jak najmniejsze. Stwierdzono, że nawet 2-3 minutowa staza może spowodować zmiany w oznaczeniu fibrynogenu czy D-dimerów.

Materiał do badań układu hemostazy

Osocze jest materiałem stosowanym w badaniach układu hemostazy dzięki zastosowaniu 3,2% cytrynianu sodu, który posiada właściwości stabilizujące labilne czynniki krzepnięcia (czynnik V i VIII). Prawidłowy stosunek objętości krwi do objętości antykoagulantu wynosi 9:1. Należy pamiętać, że zbyt duża ilość antykoagulantu w stosunku do objętości krwi może spowodować wydłużenie czasów krzepnięcia. Ma to miejsce, gdy do probówki z cytrynianem dodamy zbyt mało krwi, a także w stanach poliglobulii, gdy hematokryt wynosi powyżej 50%. Dostarczony do laboratorium materiał powinien zostać od razu odwirowany i poddany analizie w przeciągu 1-2 h.

Uwagę powinny zwrócić próbki osocza cytrynianowego, w którym uzyskuje się skrócony czas APTT oraz wysokie stężenia D-dimerów. Przyczyną tego stanu może być pobranie krwi przez zbyt cienkie igły bądź zaniechanie natychmiastowego wymieszania krwi z antykoagulantem. Wyniki takie mogą nie korelować ze stanem klinicznym pacjenta. Zaleca się ponowne pobranie krwi.

Metody oznaczania D-dimerów

Oznaczanie D-dimerów opiera się na testach immunologicznych wykorzystujących przeciwciała monoklonalne. Dostępne na rynku testy różnią się metodyką oraz aparaturą pomiarową.

Wśród metod oznaczania D-dimerów możemy wyróżnić metody jakościowe, półilościowe oraz ilościowe, które różnią się sposobem wykonania, rodzajem odczytu wyniku oraz stosowanym w procedurze badania materiałem biologicznym. Możemy zatem wykorzystywać zarówno osocze krwi, jak i krew pełną włośniczkową, żylną lub tętniczą. Każda z metod opiera się na reakcji przeciwciał monoklonalnych skierowanych przeciwko D–dimerom, a podstawą zapewniającą swoistość oznaczania D–dimerów jest obecność w cząsteczce dwóch wiązań krzyżowych. Monomery takie jak FDP nie dają reakcji fałszywie dodatnich mimo podobnego mechanizmu powstawania.

Monitorowanie stężenia D–dimerów powinno odbywać się w oparciu o wyniki uzyskiwane zawsze z wykorzystaniem tej samej metody i wykonywane w tym samym laboratorium.

Ze względu na sposób wykonania, metody oznaczania D–dimerów dzielimy na lateksowe, aglutynacji pełnej krwi, immunoenzymatyczne oraz z wykorzystaniem przeciwciał znakowanych technetem (Tc99m).

Standardowa metoda lateksowa to taka, w której  podstawowym odczynnikiem są mikrocząsteczki lateksu opłaszczone przeciwciałami monoklonalnymi swoistymi dla D–dimerów.

Jeśli w osoczu są obecne D–dimery, dochodzi do aglutynacji widocznej makroskopowo. Testy te są tanie i szybkie w wykonaniu, jednak ich niska czułość analityczna sprawia, że przydatność diagnostyczna  jest niewielka.

Metoda immunoturbidymetryczna, w której zasada oznaczania D–dimerów jest podobna jak w metodzie standardowej,  różni się sposobem odczytu wyniku. Aglutynacja widoczna w postaci zmętnienia jest mierzona automatycznie przez aparat metodą fotometryczną przy długości fali 540 nm. Absorpcja światła przechodzącego przez próbkę jest wprost proporcjonalna do stężenia D–dimerów w badanym osoczu. Metoda jest stosunkowo niedroga, a sama analiza jest dość szybka. Czułość diagnostyczna testów jest bardzo wysoka i oscyluje w granicach 97,8–100%, natomiast swoistość diagnostyczna jest zdecydowanie niższa i wynosi 50,9−52,6%. Przykładowe firmy wykorzystujące tę metodę to: SIEMENS (Innovance D-dimer), Roche (Tina Quant), Bio-Ksel (BioKsel System).

Jedną z najważniejszych metod stosowanych do ilościowego oznaczania D–dimerów jest metoda immunoenzymatyczna, której zasada opiera się na wykorzystaniu dwóch rodzajów przeciwciał monoklonalnych skierowanych przeciwko cząsteczkom D–dimerów. Pierwsze z nich wiążą D–dimer zawarty w badanej próbce. Po wypłukaniu niezwiązanych składników oraz osocza inkubuje się próbkę z drugimi przeciwciałami swoistymi, również dla D–dimerów, znakowanymi enzymem. Ostatni etap to dodanie odpowiedniego dla enzymu substratu, który w efekcie aktywności enzymatycznej daje produkt w postaci fluorescencji lub zmiany barwy. Intensywność fluorescencji lub barwy jest wprost proporcjonalna do stężenia D–dimerów w badanym osoczu. Do testów opartych na tej metodzie zaliczamy:

  • VIDAS D–dimer Exclusion firmy bioMerieux, wykonywany na aparatach miniVIDAS lub VIDAS PC  uznawaną jako „złoty standard”.
  • CARDIAC D–dimer firmy ROCHE, szybki, przyłóżkowy test wykonywany w stanach nagłych wykorzystujący  krew pełną, pomiar jest ilościowy i automatyczny.
  • AxSYM D–dimer firmy Abbott, który umożliwia oznaczenie D–D do stężenia 9 000 ng/mL bez konieczności rozcieńczania próbki, wynik otrzymuje się w czasie poniżej 15 minut.

Kolejną metodą, tym razem wykorzystującą reakcję antygenów krwinek czerwonych z bispecyficznymi przeciwciałami dla D–dimerów jest metoda aglutynacji pełnej krwi. Wykonanie testu polega na dodaniu niewielkiej ilości krwi pełnej pacjenta do roztworu przeciwciał specyficznych. W przypadku podwyższonego stężenia D–dimerów pojawia się aglutynacja. Szybkość i łatwość wykonania testu sprawia, że jest on wykorzystywany jako półilościowy, przyłóżkowy test (POCT). Firma wykorzystująca tego rodzaju metodę to Agen (test SimpliRed oraz Clearview Simplify).

Test ThromboView jest nowatorską metodą firmy AGENIX wykorzystywaną w medycynie nuklearnej do diagnostyki in vivo. Zasada metody oparta jest na zastosowaniu przeciwciał znakowanych technetem (Tc99m) podawanych pacjentowi drogą iniekcji. Przeciwciała rozprowadzone są wraz z krwią po całym organizmie i w miejscach występowania D–dimerów wiążą się z nimi. Znakowanie przeciwciał technetem pozwala szybko i łatwo zlokalizować miejsce powstania zakrzepu czy zatoru poprzez detekcję promieniowania.

Odczynniki i analizatory przeznaczone do oznaczania stężeń D-dimerów powinny spełniać określone wymagania analityczne: dostępność 24 h przez 7 dni w tygodniu, krótki czas oczekiwania na wynik TAT<1h, wysoka czułość bliska 100% oraz CV <7,5%. Głównym ograniczeniem przydatności klinicznej jest zmniejszenie swoistości testu w określonych sytuacjach klinicznych. Dotyczy to przede wszystkim osób przebywających w szpitalu, osób starszych, chorych na nowotwory, pacjentów po zabiegach operacyjnych, po przebytej żylnej  chorobie zakrzepowo-zatorowej (ŻCHZZ) oraz u kobiet w ciąży i połogu. Produkty degradacji fibryny są metabolizowane w wątrobie i usuwane z krwioobiegu przez nerki, dlatego u osób z niewydolnością tych narządów obserwuje się również wzrost D-dimerów. Na diagnostykę składa się dokładny wywiad lekarski i badanie przedmiotowe, które pozwalają ocenić kliniczne prawdopodobieństwo wystąpienia zakrzepicy. Wyniki stężenia D-dimeru należy zawsze interpretować, posługując się skalą prawdopodobieństwa Wellsa. Lekarze posługując się tą skalą, mogą łatwo sklasyfikować pacjenta do odpowiedniej grupy ryzyka.

Interferencje

Główną przyczyną fazy analitycznej występowania nieoczekiwanego wzrostu stężenia D-dimerów mogą być czynniki zakłócające przebieg reakcji jego wykrywania przez odczynniki konkretnego testu. Należą do  nich lipemia, żółtaczka, czynnik reumatoidalny, przeciwciała heterofilne, ludzkie przeciwciała anty-mysie (HAMA) czy autoprzeciwciała produkowane w przebiegu choroby Gravesa-Basedowa. Hemoliza zaś, niezależnie od zastosowanej metody oznaczenia, powoduje, że stężenie D–dimerów zmniejsza się proporcjonalnie  do jej intensywności.

Jednostki stężenia D-dimerów

Pewnym problemem jest również stosowanie różnych jednostek stężenia D-dimerów. Powszechnie stosowane wartości referencyjne to <500 µg/l FEU (jednostki ekwiwalentu fibrynowego). Coraz częściej wielu autorów zauważa problem dostosowywania zakresu referencyjnego D-dimerów do wieku osoby badanej. Fizjologiczne stężenie D-dimerów wzrasta wraz z wiekiem co prowadzi do wysokiego odsetka starszych pacjentów  z wynikiem wyższym niż konwencjonalny punkt odcięcia (500µg/l FEU). Zgodnie z procedurą medyczną u wszystkich tych  pacjentów z podejrzeniem żylnej choroby zakrzepowo-zatorowej (ŻCHZZ), ze stężeniem D-dimerów powyżej wartości punktu odcięcia wykonywane są badania obrazowe. Metaanalizy wykazały, że u wysokiego odsetka starszych pacjentów wykonuje się niepotrzebnie te badania, które mogą być dla nich uciążliwe oraz stanowić relatywnie niską korzyść.  W pewnym uproszczeniu można przyjąć, że na każde 10 lat powyżej 50 roku życia „dokładamy” 10 jednostek, stąd np. dla osoby w wieku 70 lat zakres referencyjny wynosi <700 µg/l FEU. Dostosowanie punktu odcięcia stężenia D-dimeru  w diagnostyce ŻCHZZ u pacjentów  >50 r.ż. do wieku zwiększa swoistość tego testu przy jednoczesnym zachowaniu wysokiej czułości.

Interpretacja wyniku stężenia D-dimerów

Niskie stężenie D-dimerów uznawane jest za fizjologiczną normę. Wynik ten z dużym prawdopodobieństwem oznacza, że u danej osoby wewnątrz naczyń nie występują patologiczne skrzepy krwi. Jest on zatem podstawowym testem wykluczenia żylnej choroby zakrzepowo-zatorowej (ŻCHZZ) u osób z małym prawdopodobieństwem klinicznym.

Podwyższone poziomy D-dimerów sugerują rozwój zaburzeń zakrzepowych. Dokładne źródło tych odchyleń od normy zazwyczaj nie może zostać ocenione jedynie na podstawie wyników badania stężeń D-dimerów we krwi. Prawidłowa interpretacja tego testu laboratoryjnego wymaga zestawienia otrzymanych danych ze stanem klinicznym osoby badanej, jej historią choroby oraz współwystępującymi obciążeniami zdrowotnymi i wynikami badań dodatkowych. Stężenie D-dimerów po odstawieniu leków przeciwkrzepliwych to również uznany czynnik ryzyka nawrotu żylnej choroby zakrzepowo-zatorowej (ŻCHZZ). Ich oznaczenie jest pomocne przy podejmowaniu decyzji o kontynuacji leczenia przeciwzakrzepowego. D-dimery mogą być także wykorzystywane jako czynnik rokowniczy u pacjentów z zatorowością płucną.

Głównym ograniczeniem przydatności klinicznej D-dimerów jest zmniejszenie swoistości testu w różnych grupach pacjentów. Dotyczy to przede wszystkim osób starszych, chorych na nowotwory, pacjentów po zabiegach operacyjnych i po przebytej żylnej chorobie zakrzepowo-zatorowej (ŻCHZZ) oraz kobiet w ciąży i połogu, w przebiegu stanów zapalnych o różnej etiologii oraz u pacjentów ze współwystępującymi chorobami wątroby.

Ze względu na liczne możliwe przyczyny zaburzeń poziomów D-dimerów we krwi, wyniki odbiegające od normy należy każdorazowo skonsultować z lekarzem, który będzie w stanie w sposób właściwy zinterpretować otrzymane rezultaty oraz zaplanować dalsze, dobrane indywidualnie postępowanie diagnostyczno-lecznicze.

Wszystko, co powinieneś wiedzieć o HIV 

Poniższy artykuł jest zapisem webinaru, który odbył się 2.10.2019 r.

Mimo dostępu do wiedzy wiele osób nie zna podstaw na temat HIV. Mamy nadzieję, że poniższy artykuł pomoże zrozumieć główne aspekty zakażenia, drogi przenoszenia oraz nowoczesne formy profilaktyki, takie jak PEP i PrEP. Temat jest istotny, gdyż choć dotyczy każdego z nas, to statystyka pokazuje, że zaledwie 10% Polaków poddało się testowi w kierunku HIV, co wskazuje na potrzebę większej edukacji w tym zakresie. Warto też zastanowić się nad wyzwaniami, przed jakimi stoją osoby żyjące z HIV w Polsce oraz nad obecnym poziomem stygmatu i dyskryminacji. 

HIV: stereotypy vs.rzeczywistość 

Wiele osób wciąż kojarzy zakażenie wirusem HIV z homoseksualistami, prostytutkami i narkomanami. Ta błędna informacja utkwiła w wielu umysłach, prowadząc do traktowania HIV jako choroby marginalizowanych grup społecznych. Niemniej jednak HIV może dotyczyć każdego, kto jest aktywny seksualnie

Chociaż obecnie mamy do czynienia z wieloma chorobami przenoszonymi drogą płciową, które są coraz bardziej widoczne w danych epidemiologicznych, HIV wciąż pozostaje jednym z najbardziej stygmatyzowanych zakażeń. Dla porównania, kiedy w rodzinie pojawia się diagnoza raka szyjki macicy wywołanego przez wirusa HPV, który również przenosi się drogą kontaktów seksualnych, pacjentki zazwyczaj doświadczają wsparcia i otwartości ze strony bliskich. W przypadku HIV sytuacja jest inna. Wielu chorych trzyma swoją diagnozę w tajemnicy, obawiając się reakcji otoczenia. 

Warto podkreślić, że ryzyko zakażenia HIV nie wynika z przynależności do konkretnej grupy społecznej, ale z określonych zachowań. Każdy z nas, niezależnie od swojego pochodzenia czy statusu społecznego, może być narażony na zakażenie, jeśli podejmuje ryzykowne działania. W związku z tym, zamiast kierować się stereotypami, warto zastanowić się nad własnymi zachowaniami i podjąć świadome decyzje dotyczące swojego zdrowia. 

Kontrola nad zakażeniem HIV 

Kontrola nad zakażeniem HIV od lat stanowi ważny punkt w polityce zdrowotnej wielu krajów. Dzięki inwestycjom w działania profilaktyczne, wiele państw osiągnęło sukces w zatrzymywaniu epidemii. Kluczem do tego były programy edukacyjne skierowane do młodych ludzi oraz promocja testowania na HIV, które w wielu krajach europejskich zostało włączone do standardowej opieki lekarzy rodzinnych. 

W Polsce działania te były intensywne w latach 90., ale w ostatnich latach temat zdaje się cichnąć. Kampanie medialne dotyczące HIV stały się rzadsze, a dla wielu osób problem wydaje się nieistniejący, mimo że liczba nowych zakażeń rośnie. 

wirus HIV test przesiewowy

Jednakże warto podkreślić pozytywne aspekty opieki nad osobami żyjącymi z HIV w Polsce. Dzięki nowoczesnym lekom i specjalistom w dziedzinie chorób zakaźnych dostęp do leczenia antyretrowirusowego jest szeroki i bezpłatny. Osoby zakażone mogą korzystać z opieki w poradniach chorób zakaźnych, gdzie mają bezpośredni kontakt z lekarzem specjalistą. Ta część systemu opieki zdrowotnej w Polsce funkcjonuje efektywnie. 

Skala zakażenia HIV w Polsce i na świecie 

Chociaż liczby mogą nie oddać pełnego obrazu sytuacji, warto zwrócić uwagę na kilka kluczowych danych dotyczących skali zakażeń HIV w Polsce i na świecie: 

  • W Polsce tylko 10% ludności poddało się testowi w kierunku HIV, co oznacza, że aż 90% nigdy nie sprawdziło swojego statusu. Szacuje się, że nawet połowa zakażonych w Polsce nie jest świadoma swojego stanu. To jeden z najwyższych wskaźników w Europie. 
  • Mimo że 87% Polaków uważa, że HIV ich nie dotyczy, dane Narodowego Instytutu Zdrowia Państwowy Zakład Higieny pokazują, że od 1985 roku około 24 000 osób dowiedziało się o swoim zakażeniu. Faktyczna liczba osób żyjących z HIV w Polsce jest trudna do określenia, ale wiadomo, że każdego roku diagnozowanych jest ponad tysiąc nowych przypadków
  • Zakażenie HIV dotyczy głównie osób w wieku 20-40 lat, ale coraz częściej diagnozowane jest u osób powyżej 50. roku życia. W jednym z punktów konsultacyjno-diagnostycznych najstarsza osoba, która dowiedziała się o swoim zakażeniu, miała 81 lat. 
  • Na świecie największa liczba osób żyjących z HIV znajduje się w Afryce. Jednakże nie trzeba wyjeżdżać daleko, by zetknąć się z tym problemem. W sąsiedniej Rosji jest oficjalnie milion osób zakażonych, a nieoficjalnie mówi się nawet o dwóch milionach. Na Ukrainie liczba ta przekracza 500 000. 
  • Dostęp do leków antyretrowirusowych jest kluczowy w walce z HIV. W Polsce leczenie jest dostępne i bezpłatne, ale w wielu krajach, zwłaszcza po wschodniej granicy Polski, dostęp do leczenia jest ograniczony z powodów finansowych. 

Chociaż wiele krajów poczyniło postępy w walce z HIV, wciąż istnieją obszary, które wymagają intensywnych działań, zarówno w zakresie edukacji, jak i dostępu do leczenia. 

Podstawowe informacje na temat leczenia HIV i AIDS 

HIV (wirus ludzkiego upośledzenia odporności) atakuje układ odpornościowy organizmu, niszcząc kluczowe komórki odpornościowe. Gdy układ odpornościowy staje się na tyle osłabiony, że nie jest w stanie skutecznie walczyć z infekcjami, pojawiają się choroby związane z niedoborem odporności, co prowadzi do rozwoju AIDS

Współczesna medycyna podkreśla znaczenie wczesnego wykrywania i leczenia HIV. Zgodnie z najnowszymi wytycznymi, osoby zdiagnozowane z HIV powinny natychmiast rozpocząć leczenie antyretrowirusowe. W przeszłości lekarze czekali, aż układ odpornościowy pacjenta osłabnie, zanim rozpoczną leczenie. Dzisiaj jednak wiadomo, że wczesne włączenie leczenia jest kluczem do zatrzymania postępu wirusa i zapobiegania rozwojowi AIDS. 

W Polsce wiele osób dowiaduje się o swoim zakażeniu dopiero po wielu latach od momentu zakażenia, często wtedy, gdy rozwija się AIDS. W takich przypadkach, mimo włączenia leczenia antyretrowirusowego, układ odpornościowy jest już poważnie uszkodzony, co może prowadzić do długotrwałych problemów zdrowotnych. 

Dzięki postępom w leczeniu antyretrowirusowym HIV jest obecnie postrzegane jako choroba przewlekła. Osoby żyjące z HIV, które regularnie przyjmują leki, mogą żyć pełnią życia i dożywać starości. To ogromny postęp w porównaniu z latami 80., kiedy to diagnoza HIV była równoznaczna z krótkim czasem przeżycia. Dlatego tak ważne jest, aby osoby, które podejrzewają, że mogły być narażone na ryzyko zakażenia, poddały się testowi na HIV. 

Drogi zakażenia HIV – fakty i mity 

HIV jest wirusem, który żyje i rozmnaża się w organizmie człowieka, ale poza nim szybko ginie. Chociaż jest uważany za „słaby” wirus, jego zakażenie może mieć poważne konsekwencje. Główną drogą zakażenia jest bezpośredni kontakt z krwią lub błonami śluzowymi. Kontakty seksualne są dominującą drogą zakażenia w Polsce i Europie, niezależnie od orientacji seksualnej. Należy pamiętać, że ryzyko zakażenia nie wynika z przynależności do pewnej grupy społecznej, ale z podejmowanych zachowań. 

Kluczowym aspektem profilaktyki jest testowanie. W Polsce wiele kobiet dowiaduje się o swoim zakażeniu dopiero podczas ciąży, co może prowadzić do zakażenia noworodków. Jednak dzięki dostępnym lekom antyretrowirusowym i odpowiedniej opiece, ryzyko zakażenia dziecka przez zakażoną matkę jest mniejsze niż 1%. Każda kobieta w ciąży powinna być informowana o możliwości przetestowania się na HIV, a wczesne wykrycie zakażenia pozwala na podjęcie działań zapobiegawczych. Współczesna medycyna daje narzędzia do zapobiegania transmisji HIV od matki do dziecka, co podkreśla znaczenie wczesnego testowania i leczenia. 

W kontekście zakażenia HIV wiele osób ma wątpliwości dotyczące preejakulatu, czyli wydzieliny pojawiającej się przed wytryskiem. Chociaż jest ona często pomijana, zwłaszcza przez osoby stosujące seks przerywany, zawiera ona wirusa HIV w ilości zdolnej do zakażenia. Seks przerywany nie jest techniką bezpieczną ani w kontekście zapobiegania chorobom przenoszonym drogą płciową, ani w kontekście zapobiegania ciąży. 

Warto też podkreślić, że wiele płynów organizmu, takich jak ślina, pot, mocz, łzy czy kał, nie jest zakaźnych pod względem HIV, chyba że zawierają widoczną ilość świeżej krwi. Dlatego osoby zakażone HIV mogą bezpiecznie pracować, mieszkać i przebywać z innymi, nie stanowiąc dla nich zagrożenia, o ile nie dochodzi do kontaktu seksualnego. 

Różnica między HIV a AIDS 

HIV to wirus atakujący układ odpornościowy, podczas gdy AIDS jest stanem, w którym układ odpornościowy jest na tyle osłabiony, że organizm nie jest w stanie bronić się przed infekcjami. Nie ma jednoznacznych objawów wskazujących na zakażenie HIV, a jedynym sposobem potwierdzenia zakażenia jest badanie krwi. Ważne jest, aby przeprowadzić test w odpowiednim czasie po potencjalnej ekspozycji – minimum 2-3 tygodnie, ale najlepiej po 6 tygodniach. Są dostępne również szybkie testy, które wymagają oczekiwania 12 tygodni od potencjalnej ekspozycji. Polska oferuje dostęp do najnowocześniejszych leków antyretrowirusowych, które nie tylko chronią przed przeniesieniem wirusa na dziecko, ale także zapobiegają przenoszeniu wirusa na partnera seksualnego, jeśli są regularnie przyjmowane i wirus jest niewykrywalny w organizmie. 

Kiedy można się zarazić wirusem HIV, a kiedy nie jest to możliwe? 

Główną drogą zakażenia HIV są kontakty seksualne. Potencjalne ryzyko stanowi też transfuzja krwi. W Polsce jest ona stosunkowo bezpieczna, gdyż krew jest badana pod kątem obecności wirusa. Jednak w innych częściach świata ryzyko zakażenia przez transfuzję krwi może być większe. Na co dzień bezpieczny jest też kontakt z osobą zakażoną HIV. Wirus ginie poza organizmem człowieka w krótkim czasie, zwłaszcza w obecności detergentów. 

Ważne jest regularne testowanie się na obecność HIV, zwłaszcza przy zmianie partnerów seksualnych. Brak objawów czy dobre wyniki morfologii krwi nie wykluczają zakażenia. W Polsce dostępne są nowoczesne leki antyretrowirusowe, które skutecznie chronią przed zakażeniem. Istnieją również metody profilaktyki przed ekspozycyjnej, które polegają na przyjmowaniu leków antyretrowirusowych przed potencjalnym kontaktem z wirusem. Najbardziej skuteczną metodą barierową jest używanie prezerwatyw. Istnieją także damskie prezerwatywy oraz chusteczki lateksowe jako dodatkowe metody zabezpieczenia. 

Testy w kierunku HIV 

Testowanie na HIV odgrywa kluczową rolę w profilaktyce zakażenia, umożliwiając wczesne wykrycie wirusa i podjęcie odpowiedniego leczenia. W Polsce dostępne są różnorodne metody testowania, w tym standardowe testy z żyły, szybkie testy z palca oraz testy z wymazu z ust. Dzięki punktom konsultacyjno-diagnostycznym, mieszkańcy mogą przeprowadzić testy anonimowo i bezpłatnie w większości miast wojewódzkich. 

Jednak mimo postępów w leczeniu i dostępie do testowania, problem stygmatyzacji osób zakażonych HIV wciąż istnieje. Ważne jest, aby społeczeństwo uświadomiło sobie, że zakażenie może dotyczyć każdego, niezależnie od stylu życia czy statusu społecznego. Regularne testowanie i edukacja są kluczem do walki z rozprzestrzenianiem się wirusa i zmniejszenia stygmatyzacji związanej z HIV.