La dermatologie est littéralement l’étude de la peau. Pratiquée par le dermatologue, cette discipline est une branche de la médecine qui s’intéresse au diagnostic, au traitement et à la prévention des maladies de la peau, des cheveux, des ongles, de la cavité buccale et des organes génitaux (vénérologie), la dermatologie peut aussi prendre en charge…