Soin dermatologique

Soin qui s'aplique à la peau. La dermatologie est la branche de la médecine qui s'intéresse à la peau et les affections qui lui sont propres.

Figure dans les rubriques
Esthétique
Glossaire alphabétique
Santé, médical, social, bien être


HAUT