La responsabilidad social es el compromiso de los individuos y empresas con la sociedad en su conjunto. Actualmente, la responsabilidad social de las empresas no es obligatoria, sino un concepto normativo. Los gerentes deben entender que cuidar los recursos naturales es importante para el futuro de las empresas. Las empresas deben invertir en lo social, como eliminar la corrupción y pagar salarios justos, para ser redistribuidoras del ingreso y transmitir valores positivos a su entorno.