El trabajo social se define como una profesión que promueve el cambio social y el fortalecimiento de las personas mediante el uso de teorías sobre el comportamiento humano y los sistemas sociales. El trabajo social interviene donde las personas interactúan con su entorno y busca facilitar que todas las personas desarrollen plenamente su potencial. Los profesionales del trabajo social se convierten en agentes de cambio para las personas, familias y comunidades.