Médecine du travail

  • Partager via facebook
  • Partager via Twitter
  • Partager via LinkedIn

Créée par les lois de Sécurité Sociale de 1945 en France, la médecine du travail désigne tout ce qui concerne la prévention des accidents du travail ou des maladies professionnelles. Des services de santé au travail consacrés à cette spécialité, peuvent exister dans les entreprises.

Le but de la médecine du travail n'est pas de soigner, mais d'éviter des problèmes de santé physique ou mentale des employés, dus à de mauvaises conditions de travail.

Ainsi, le médecin du travail réalise régulièrement des examens médicaux auprès des employés pour prévenir l'altération de leur santé liée aux conditions de travail.

Inscrivez-vous à notre newsletter

Recevez les articles du Mag des compétences