martes, 3 de marzo de 2020

DERECHO POSITIVO

DERECHO POSITIVO



El derecho positivo es el derecho escrito, el que esta contenido en ordenamientos jurídicos, en constituciones, y otros cuerpos de ley. El cual es configurado a petición de la sociedad, por el estado que las rige, esta sociedad se somete al cumplimiento y acepta la supremacía del estado y del derecho positivo.

Las leyes positivas son dictadas por los cuerpos legislativos competentes de cada país, lo que llamamos "la ley" o "las leyes", es decir, un orden jurídico determinado para que una sociedad o población rija su convivencia a través de él. 

Para ampliar el concepto revisa el siguiente enlace aquí. 







No hay comentarios:

Publicar un comentario