¿ESTÁ PREPARADA LA LOGÍSTICA PARA EL DECRECIMIENTO?
Ensayo rivera juan
1. Aspectos Importantes de las Herramientas para la Toma de Decisiones Gerenciales
Juan Carlos Rivera Quispe
En el presente ensayo los términos administrador, gerente y directivo serán considerados
sinónimos, por ser otra nuestra línea de investigación y así poder darle más énfasis al tema
principal “Aspectos importantes de las herramientas para la toma de decisiones gerenciales”.
Las empresas por medio de los administradores en la actualidad hacen uso de las
herramientas y métodos estadísticos para recolectar datos y procesarlas para analizar y
convertirlas en información valiosa para la toma de decisiones gerenciales cada vez más
acertadas. La variabilidad de los datos y la información acerca de algo dentro de las
empresas siempre es constante, por lo cual necesitamos trabajar en base a estimaciones de
probabilidades haciendo uso de técnicas y métodos estadísticos que nos ayuden a acercarnos
más a la realidad del caso de estudio y superar las incertidumbres que se genera en los
procesos de toma de decisiones. Haciendo uso de todos los conocimientos y herramientas
necesarias de la estadística nos enfocaremos en el análisis de las desviaciones dentro de la
empresa.
Las empresas en la actualidad afrontan situaciones y proceso complejos en cuanto a
productividad y competitividad, por eso, los directivos en todos sus niveles deben guiarse
estrictamente por los datos obtenidos a través del análisis de sus registros contables,
financieros, de personal, marketing, y otros, más que por sus propios conocimientos
obtenidos por una intuición personal o su experticia. Con la aplicación de los métodos
estadísticos apropiados se puede medir el rendimiento diario en todas las áreas de la empresa,
estudiar las relaciones directas entre cada variable, evaluar y analizar las situaciones del
pasado y presente al mismo tiempo proyectarse a las tendencias futuras probables. Según
Véliz (2014) “La estadística proporciona las herramientas y modelos para el análisis de este
2. 2
tipo de datos, permite obtener y entender la información contenida en ellos” (p. 2), parte del
manejo de datos para obtener información válida.
La estadística es una ciencia matemática que nos permite recolectar datos con las
herramientas para obtener información y analizarlas con los distintos métodos existentes para
una toma acertada de decisiones gerenciales. Pero cabe recalcar que los datos y la
información obtenida sufren variaciones; es decir, la variabilidad está sometida a cada
situación o proceso, por lo cual el objetivo de la estadística es explicarla, según Levine,
Krehbiel, & Berenzon (2006) “Ejemplos de variables son el género al que usted pertenece, su
especialidad o campo de estudio, la cantidad de dinero que tiene en su cartera y el tiempo que
le toma alistarse por la mañana para ir a la escuela” (p. 3), la idea central de la variabilidad
radica en la diferencia de las cosas y las personas, por ejemplo, en un grupo de personas no
todos son mujeres y no todos son varones, no todos tienen la misma edad y no todos ejercen
la misma profesión, pero se puede inferir estadísticamente de manera aproximada.
El análisis estadístico empieza con la recolección y clasificación de los datos
cuantitativos y cualitativos. Los datos cuantitativos toman valores numéricos que representan
cantidades que nos pueden responder a las siguientes preguntas ¿Cuánto? y ¿Cuántos?, los
mismos que se sujetan a escalas de medición con unidades de intervalo o de razón. Los datos
cualitativos son representados a través de atributos y/o cualificaciones nominales u ordinales;
es decir, cuando se establecen calificaciones subjetivas a las personas y cosas, un ejemplo que
nos describa sobre los datos cualitativos es: ¿Cuántos estudiantes de Ingeniería Mecánica
existen en toda la población de todos los estudiantes de la universidad San Antonio Abad del
Cusco?, la aplicación de la ciencias matemáticas se podrá concretizar en nuestro análisis e
interpretación estadístico, si nuestros datos cuantitativos va tomar sentido absoluto. En tanto
que, podemos afirmar que las operaciones estadísticas realizadas sobre los datos cuantitativos
no necesariamente deben guardar relación con los datos cualitativos.
3. 3
Sobre los datos cuantitativos vamos a trabajar en el entorno de la estadística
descriptiva usando métodos que tienen que ver con la codificación, tabulación, representación
gráfica y numérica, en los que resumiremos los datos que nos presentarán variabilidad. En
tanto que la estadística inferencial procesa datos resumidos de una muestra poblacional sobre
los mismos se tendrá que realizar las estimaciones y/o probar las hipótesis acerca de las
características de toda la población. En síntesis, la estadística descriptiva nos permite realizar
la concretización de los tantos modelos teóricos los cuales vamos a trabajar para ampliar las
propiedades que resulten de los datos obtenidos a conjuntos o variables más amplios. La
estadística inferencial hace que estas propiedades se extiendan a toda la población de los
cuales se tomaron los datos ya sea a través de una muestra; por ejemplo, tomamos una
muestra aleatoria de 100 estudiantes de CENTRUM y encontramos que el 15% son mujeres,
se puede inferir teóricamente la probabilidad, que entre el 13% y el 17% de los alumnos de
CENTRUM son mujeres.
Las empresas competitivas siempre están sujetas a situaciones donde la posibilidad de
ocurrencia de un evento sean a través de experiencias al azar e incertidumbres, esto quiere
decir que, la calidad y cantidad de un producto o servicio no son constantes ni definidas, las
mismas que sufren variabilidad en el tiempo y en el especio donde se desarrollan, parámetros
que estudiaremos a través de la teoría de la probabilidad, para Anderson, Dennis, & Thomas,
(2008) “La probabilidad es una medida numérica de la posibilidad de que ocurra un evento.
Por tanto, las probabilidades son una medida del grado de incertidumbre asociado con cada
uno de los eventos previamente enunciados” (p. 143), con esta teoría y los modelos
probabilísticos la empresa alcanzará la mayor posibilidad de realizar con éxito sus procesos
de operación, pero no es absoluto su formulación en la búsqueda del mayor rendimiento en
los resultados.
4. 4
Con el análisis de probabilidad, la toma de decisiones se hace más eficiente por parte
de los administradores, a través del procesamiento de la información utilizando métodos
probabilísticos avanzados. Por medio de la probabilidad podemos interpretar un dato
cuantitativo de la posibilidad de ocurrencia de un evento y el mismo que se puede calcular
acumulativamente desde la base de los datos muéstrales proyectados y estimando a
parámetros poblacionales. Los administradores estamos expuestos a tomar decisiones con
frecuencia a través de las siguientes incertidumbres como: ¿Cuáles son las probabilidades de
que esta inversión sea rentable?, ¿Cuánto es la probabilidad de que a través de la
implementación de otro nuevo método de envasado aumente la productividad?, ¿ Qué
posibilidad existe de que aumenten las utilidades si disminuyamos los precios?, ¿Cuánto es la
probabilidad de producir en antes de tiempo si implementamos nuevas tecnologías?, existen
infinitas interrogantes y razones para implementar adecuadamente los métodos y análisis
probabilísticos en todas las áreas de nuestra organización.
Anderson, Dennis, & Thomas (2008), en su libro Estadística para la administración y
economía, Escribieron, “En el estudio de la probabilidad condicional vio que revisar las
probabilidades cuando se obtiene más información es parte importante del análisis de
probabilidades” (p. 171), en este punto los autores precisan sobre el teorema de bayes
utilizado para la toma de decisiones. Los componentes de este teorema son las probabilidades
previas que son estimaciones subjetivas por individuos en quienes recaen la función de tomar
decisiones, después se usan la información de la muestra tomada es aquí en donde se usan las
probabilidades posteriores y trabajarlas utilizando esta potente herramienta, en los eventos y
sus complementos tienen una relación de mutua exclusión y gráficamente la unión es todo el
espacio muestral. En resumen, el teorema de Bayes nos sirve para estimar con aproximación
la probabilidad posterior de los eventos y su complemento.
5. 5
Normalmente las situaciones reales dentro de las empresas nos muestra que para las
estimaciones de parámetros en el análisis estadístico se trabajan con datos muéstrales para
luego hacer proyecciones o aproximaciones a parámetros poblacionales; es decir, para un
mejor análisis de datos primeramente se realiza el muestreo para obtener la mejor
información posible y luego estimar los parámetros a toda la población de interés de estudio.
Puede no conocerse la deviación estándar poblacional, entonces usamos los datos históricos y
luego se hace una estimación de la misma antes de realizar el muestreo, ahí es donde se
comienza a analizar nuevos datos muestrales suponiendo que ahora si se conoce la desviación
estándar muestral. Si la desviación estándar de la muestra es desconocida, entonces,
tomamos los datos muestrales para estimar la media poblacional y la desviación estándar
poblacional. Hecho todo lo anterior mencionado, el método de estimación a usar dependerá
de cada uno. En caso de que la desviación estándar de la muestra sea conocida, el método de
estimación será en el valor supuesto utilizando la distribución normal estándar.
Una de las herramientas muy importante son las pruebas de hipótesis, que consiste en
un procedimiento estadístico con la ayuda de los datos muestrales se afirma acerca del valor
de un parámetro poblacional se debe rechazar o no. En la hipótesis se cuenta con dos
afirmaciones contrarias enfocados a estimar un parámetro poblacional, entre ella tenemos la
hipótesis nula Ho, y la otra, hipótesis alternativa Ha. A través de los datos históricos podemos
estimar la desviación estándar poblacional y para la prueba de hipótesis de la media
poblacional se sustenta en la distribución normal estándar y si no se conoce la desviación
estándar poblacional, entonces, se usa la desviación estándar de la muestra para estima la
desviación estándar poblacional y la prueba de hipótesis se basará en la distribución t. sea
cual fuera el caso la importancia de los resultados estará sujeta al tipo de distribución de los
datos poblacionales así como el tamaño de la muestra.
6. 6
Los administradores son las personas encargadas de diseñar los planes estratégicos y
operacionales utilizando las herramientas y métodos estadísticos, al mismo tiempo son los
responsables de resultados positivos y negativos, interactuando eficazmente con todas las
áreas dentro y fuera de las organizaciones. El trabajo del administrador comienza en la
calificación de la calidad de los datos recolectados, su análisis y su procesamiento como
información valiosa para utilizarlas en el bien de la empresa las cuales se materializaran a
través de las buenas prácticas en la toma de decisiones las cuales se reflejaran en el
crecimiento sostenible en todas las áreas de la empresa. Este ensayo culminaré mencionado,
que, mucho depende del tipo de información con la que se va trabajar y tomar decisiones de
para el éxito y la eficacia de los directivos en las organizaciones, por eso es de vital
importancia el manejo de la información adecuada.
7. 7
Referencias bibliográficas
Anderson,D.R.,Sweeney,D.J.,Williams,T.A.,Camm, J.D., & Martin, K. (2011). Métodos
Cuantitativospara losNegocios. Mexico,D.F.:Cengage LearningEditores.
Levine,D.L.,Krehbiel,T.C.,& Berenzon,M.L. (2006). Estadistica Para Administración. Mexico:
PearsonEducación.
VélizCapuñay,C.(2014). Estadística para la Administración y los Negocios. Lima:Pearson.