Diccionario
 Abierto y colaborativo
 Página principal

Significado de tener los pies en la tierra por GARCÍA ALBERTO ENRIQUE





GARCÍA ALBERTO ENRIQUE

tener los pies en la tierra
  78

tener los pies en la tierra- se trata de ser una persona ubicada y realista-

"Tiene los pies en la tierra y está decidido a estudiar para forjar su futuro. - "

  Me gusta  1

* Solo un "me gusta" por significado y día, a mayor número de "me gusta" el significado aparecerá más arriba en la lista











  AÑADIR NUEVO SIGNIFICADO  






       

          


Este sitio web utiliza cookies propias y de terceros para optimizar tu navegación, adaptarse a tus preferencias y realizar labores analíticas. Al continuar navegando entendemos que aceptas nuestras Políticas de cookies