leczy słońce co to znaczy

Co to jest Słońce leczy!. Czym jest dermatologicznej Boston University, gdy rok temu odważył się.

Czy przydatne?

Słońce leczy! - definicja

Co znaczy: Prof. Michael Holick musiał zrezygnować z posady w klinice dermatologicznej Boston University, gdy rok temu odważył się powiedzieć, między innymi dla "Wprost", iż słońce nie zabija, ale pomaga leczyć sporo groźnych chorób, nawet nowotwory. Dziś podobnego zdania jest coraz więcej ekspertów. American Cancer Society wycofało się z poprzednich zaleceń bezwzględnego unikania słońca. Niektórzy lekarze uważają nawet, iż bez jakichkolwiek zabezpieczeń (odzieży ochronnej i olejków do opalania) można w południe przebywać na słońcu poprzez 15 min., co do niedawna było uważane za herezję. Dermatolodzy, wspierani poprzez spółki kosmetyczne produkujące kremy do opalania, uznali promieniowanie ultrafioletowe za jeden z najniebezpieczniejszych czynników rakotwórczych, prócz azbestu, palenia tytoniu i promieniowania jonizującego. Teraz te określenia wydają się mocno przesadzone. Słońce nie wywołuje raka, a unikanie światła słonecznego jest bardziej szkodliwe niż umiarkowane opalanie się - nawet bez kremów ochronnych... Przeczytaj cały tekst w Tygodniku "Wprost", Nr 1179 (10 lipca 2005)

Definicje jak Słońce leczy! znaczenie w Słownik na S.