Diccionario
 Abierto y colaborativo
 Página principal

Significado de dermatología




Diccionario Abierto de Español

dermatología
  854

dermatología . ( De dermato- y -logía ). 1. f. Rama de la medicina que trata de las enfermedades de la piel. Cita extraida del diccionario de la RAE dermatología




  AÑADIR NUEVO SIGNIFICADO  




       

          


Este sitio web utiliza cookies propias y de terceros para optimizar tu navegación, adaptarse a tus preferencias y realizar labores analíticas. Al continuar navegando entendemos que aceptas nuestras Políticas de cookies