Définitions

Droit du travail

Droit du travail : le droit du travail est l’ensemble des règles juridiques qui régissent le lien entre le travailleur et l’employeur, et qui définissent leurs droits et obligations mutuels. Cela inclut des lois sur les salaires, la sécurité et la santé, les congés, les heures supplémentaires, le licenciement, l’absence pour maladie et les temps de pause.

Le Droit du travail est une discipline central du secteur des Ressources humaines (RH). Les professionnels des RH ont pour mission de s’assurer que leur organisation respecte les règles relatives au Droit du travail et agit dans le respect des législations nationales et internationales. Ils doivent également s’assurer que leurs salariés bénéficient de conditions de travail équitables et sûres, et que les pratiques de l’organisation sont équitables et respectent les droits des salariés.

Synonymes
  • Législation du travail
  • Droit de l’emploi
  • Réglementation du travail
  • Règles de travail
  • Statuts du travail
  • Réglementation salariale
  • Lois du travail
  • Réglementation professionnelle
  • Droit de l’emploi et du travail

D'autres définitions pour vous

Attestation d’emploi

Recrutement inclusif

Dialogue social

Formation continue