DERECHO POSITIVO. El Derecho Positivo es el conjunto de normas jurídicas impuestas por el Estado, para regir la vida de un pueblo en una época determinada.