Los sindicatos son asociaciones de trabajadores que defienden y promueven sus intereses laborales respecto a su centro de producción o empleador. Los primeros esfuerzos de los trabajadores por organizarse surgieron en el siglo XVIII durante la revolución industrial, pero los gobiernos prohibieron los sindicatos hasta el siglo XIX, cuando la presión de los trabajadores llevó a los estados a reconocer legalmente el derecho a sindicalizarse a través de leyes como la de 1824 en Inglaterra que reconoció el derecho de coalición