Droit positif (définition)

Posez votre question

Définition de droit positif


Le droit positif désigne l'ensemble des dispositions juridiques en vigueur dans un Etat ou dans un ensemble d'Etats (par exemple l'Union européenne) à un moment précis. Le droit positif se compose des règles constitutionnelles, des lois organiques et ordinaires, ainsi que des décrets et règlements administratifs. Ne font pas partie du droit positif les lois qui ont été abrogées, ni les dispositions administratives qui ont été annulées ou abrogées. De plus, la doctrine ne fait pas non plus partie du droit positif. Il existe également un droit positif international représentant l'ensemble du droit applicable au sein de l'ordre juridique international. Il se compose de l'ensemble des traités et accords en vigueur.
Voir aussi : la définition du droit naturel.

Réalisé en collaboration avec des professionnels du droit et de la finance, sous la direction d', diplômé d'HEC.

A voir également

Publié par asevere.

Ce document intitulé « Droit positif (définition) » issu de Droit-Finances (droit-finances.commentcamarche.com) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite.
Dossier à la une