Las relaciones públicas de las empresas se enfocan en crear y mantener una buena imagen de la empresa ante el público y los trabajadores. Esto se logra a través de acciones como organizar eventos y promocionarlos en medios, lo que genera una imagen positiva que apoya las ventas. Algunas ventajas incluyen crear alianzas estratégicas, elevar la promoción y mantener buenas relaciones con los empleados.