SlideShare una empresa de Scribd logo
1 de 27
Descargar para leer sin conexión
c~ae.:~ íDI
CIENCIA, TECNICA Y ESTADISTICA. ALGUNAS DE
SUS APLICACIONES EN LA INGENIERÍA
Presentado por: Dr. Ignacio Méndez Ramírez
Ponencia de Ingreso a la Academia Mexicana de Ingeniería
09
1. INTRODUCCION
Con motivo de mi ingreso a la Academia Mexicana
de Ingeniería, he tomado varias de mis conferencias
anteriores (Méndez 1 990a y 1990b) para poder dar un
panorama amplio de la ciencia, la técnica y la estadística
con sus posibilidades de aplicación a la ingeniería
(Méndez 1982).
resaltar cuales son las caracterizaciones de lo que es
la ciencia. Esto hace que no sea posible delimitar
claramente cuándo hablamos de ciencia y cuándo de
la filosofía de la ciencia.
Sánchez, M. (1985, p. 51) considera: "Cuando
empleamos hoy el vocablo ciencia solemos designar al
mismo tiempo dos cosas: un determinado modo de
conocer y el cuerpo estructurado de las proposiciones
obtenidas de ese modo; ciencia C8 tanto un proceso
especifico de investigación como la estructura o cuerpo
de verdade8 que esa inve8tigación origina".
Para poder comentar sobre la estadística como
ciencia, su papel en la investigación y sus aplicaciones
en ingeniería; emprendí, en la primera parte de este
trabajo, una búsqueda de los aspectos esenciales de
la ciencia y la técnica; marco bajo el cual pretendo
encuadrar la estadística. Finalmente, se plantean
algunas aplicaciones de la estadística a la Ingeniería.
Procuré evitar en lo posible, recurrir a mis ensayos
previos sobre filosofía y metodología de la ciencia y
su relación con la estadística [Méndez (1986a, 1988b,
1988,1 989a, 1989b, 1 989c, 1 989d)]. Para esto realicé
una búsqueda bibliográfica de definiciones y conceptos.
Hago uso de citas por dos motivos: recurrir al viejo
principio (rechazado por la ciencia de modo formal) de
autoridad, y lo más importante, mostrar que son ideas y
conceptos en su mayoría de los últimos a?íos. Esto es
relevante porque sostengo que la estadística está en un
proceso lento de adecuación a los nuevos conceptos,
métodos y filosofía de la ciencia. Precisamente a partir
de esta adecuación surgen nuevas formas de valorar y
usar la estadística.
IL CIENCIA
Existen muchas definiciones de ciencia, de modo
que no intentaré encontrar la mejor; es preferible
Sin embargo, hay autores que además del
contenido y el método, agregan otro componente:
Campbel (1953, pl) considera dos aspectos de la
ciencia: "... la ciencia es un cuerpo de conocimientos
prdcticos y t1tiles, y un método para obtenerlos". El
otro es, "ciencia es un estudio puramente intelectual,
cuyo objetivo es sati8facer las necesidades de la mente
y no las del cuerpo; atrae a nada sino a la curiosidad
desinteresada de la humanidad. Estas son la ciencia
prdctica y la ciencia pura". Más adelante (p. 27), el
mismo autor establece: "Ciencia es el e8tudio de C808
juicios re8pecto a los cuales se puede obtener consenso
universal» ... "cualquier experiencia que no sati8face el
criterio estricto de consen8o universal, aunque pueda ser
valiosa como experiencia, no forma parte del material
de la ciencia». Hay ciertas relaciones entre eventos
relativas a las cuales todos los hombres están de
acuerdo. Esas relaciones en términos de causas y
efectos son las llamadas leyes de la naturaleza, que
es lo que estudia la ciencia. La ciencia comienza
con leyes y a partir de ellas encuentra otras leyes
usualmente más generales. Las cosas entre las
cuales la ciencia determina relaciones invariables son
ellas mismas caracterizadas por otras propiedades
invariables asociadas.
Antes de comentar más los aspectos del con-
senso universal sobre las leyes de la naturaleza, abordo
el aspecto biológico del proceso científico.
Se considera que el proceso de aprendizaje
es continuo desde organismos unicelulares hasta
el hombre. Los hombres poseemos un aparato
raciomorfo, semejante al de muchos animales, que nos
permite percibir regularidades.
Así Mosterin, J. (1984, p. 11) establece: "Nuestro
cerebro, ass' como todo nuestro aparato nervioso 8enso-
rial, han evolucionado para captar aquello8 rasgos del
mundo que más conviene conocer para a8egurar nuestra
supervivencia. Percibimos el mundo real, pero defor-
rnado utilltaristamente en función de las necesidades de
nue8tra especie". Después de este aparato raciom orfo,
se desarrollan reflejos condicionados y la capacidad
de razonar, es decir, entre otras cosas, de establecer
conceptos, ideas y generalizaciones, a nivel individual.
Al integrarse esto a una sociedad con características
culturales dadas, produce el llamado sentido común.
Cuando se quiere que el conocimiento sea más obje-
tivo y verdadero surge la ciencia. Dinamos que esto se
consigue en forma social. La siguiente cita nos aclara
los aspectos sociales de la ciencia.
Mosterin, J. (1984, p. 18) " ... actualrnente
asociamos la palabra ciencia no con cualquier saber,
sino con un saber colectivo, producido y transmitido
por especialistas, expre8ado en un lenguaje preciso,
controlado por rne'todos páblicos, y susceptible de ser
utilizado para la explicación de los hecho8 pasados y
la predicción de los futuros". ... "La ciencia es
una compleja actividad 8ocial, que se lleva a cabo
por parte de las comunidades científicas establecidas
en las universidades y centros de investigación, y
cuyos resultados se presentan en congreso8, revistas
especializadas, y libros de texto. Esto8 resultados 80n,
por un lado, descripcione8 o historias detalladas de
ciertas áreas de la realidad observada8 con detenimiento
o provocadas en los laboratorios, y, por otro, teorías
ab8tractas que pueden ser usadas como ifl8trumentos
intelectuales en la explicación de los datos registrado8 en
la historia o en la predicción de futuras ob8ervaciones
o de los resultados de futuros experimentos o en el
diseiío de nuevas tecnologías o aparatos. Los resultados
expuestos por los científicos son ptblicos y están
sometidos al análisis, la crítica y el control de todo el
mundo y en especial de los colegas, ávidos de refutar los
resultado8 de sus companeros para así elevar su propio
prestigio dentro de la comunidad científica".
Los científicos desarrollan las teorías de las
estructuras que ellos creen ver realizadas en los
sistemas físicos, económicos, etc. con los que se
enfrentan. Pero una cosa es que ellos crean que esos
sistemas son modelos de aquellas teorías y otra es que
lo sean de verdad. Si descubren que no lo son, pierden
todo interés por la correspondiente estructura y cambian
de teoría, modificando la anterior en el sentido que más
les parezca para ofrecer esperanzas de que las mismas
se realicen en el sistema estudiado. Con ello la teoría
no ha quedado refutada, sino sólo arrinconada.
112 Objetividad, Subjetividad y Verdad
Bohm y Peat (1988, p. 69) seFialan, "La actividad
fundamental de la ciencia es el pen8arniento que
surge de la percepción creativa y se expresa mediante
el juego. Esto origina un proceso en el que el
pensamiento se despliega en conocimiento provisional,
que pasa después a acción para convertirse en nueva
percepción y conocimiento... El hecho de que este
conocimiento pueda proporcionar orden a la experiencia,
e incluso predecir de manera correcta nuevos tipos de
experiencia, muestra que de alguna manera tiene que
estar directamente relacionado con una realidad situada
md8 allá del conocimiento mismo ... toda btís queda de
un conocimiento absoluto y determinado es pura ilusión,
ya que todo conocimiento nace de la actividad cambiante
de la percepción creativa, el juego libre, la exposición a
la acción y su retorno corno experiencia".
En relación a la pretendida objetividad absoluta
que pretendía el positivismo, ahora debemos tomar en
cuenta la llamada objetividad intersubjetiva. Aquí
de nuevo la siguiente cita es muy ilustrativa (Regal
1990,p78): «La ciencia comienza con conceptos
que son postulados cuidadosos y verificables acerca
de propiedades físicas o relacionales de las cosas,
intenta construir con ello8 temas más difíciles. La
ciencia es un proceso poderoso, nece8ario y complejo,
no un cuerpo de verdades absolutas. Su cuerpo de
hechos es de confiabilidad muy heterogénea. Algunos
están firmemente establecidos, otro8 son muy tenues.
Sin un profundo conocimiento de la heterogeneidad
de la confiabilidad científica es muy fácil subestimar
o sobreestimar el significado de los hechos, leyes, o
pensamientos científicos, y lo que significa la objetividad
científica". «Los puntos de vista objetivos sobre el
mundo son los que pueden ser comunicados por medio
de lenguajes comunes, robustos y probados aunque
evolucionando constantemente, que están abiertos a
críticas pensadas y luchan por estar libres de sesgos por
voluntad, autocomplacencia o super8tición. Las ideas
están en tal forma que pueden sostenerse o caer por
sus propios méritos - no están únicamente soportadas
por las experiencias internas o creencias de alguno. Se
espera que sean las mejores opiniones dado8 los datos
disponibles."
Longino (1990, p76) da un tratamiento muy com-
pleto de la objetividad; por ejemplo, "He argumen-
tado que dos cosas se requieren para la objetividad, la
crítica desde puntos de vista alternativos y la sujeción
de hipótesis y razonamiento evidencial a un escrutinio
crítico, esto es lo que ¡imita la intrusión de preferencias
subjetivas en el conocimiento científico"... "La objeti-
vidad, por tanto, resulta ser un asunto de grado. Un
método de inquirir es objetivo en el grado que permita
criticismo transformativo. Su objetividad consiste no
únicamente en la inclusión de criticismo intersubjetivo
pero en el grado en que tanto sus procedimientos como
sus resultados son responsivos a la clase de criticismo
descrito"... «Las comunidades científicas serán objeti-
vas en el grado en que satisfagan cuatro criterios ne-
cesarios para la dimensión tran8formadora del discurso
crítico: (1) Debe haber formas reconocidas para la crítica
de la evidencia, los métodos, los supuestos y los razona-
mientos; (2) Deben existir estándares compartidos que
pueden ser invocados por los críticos; (8) La comunidad
como un todo debe responder a esas críticas, y (.) La
autoridad intelectual se debe compartir de igual modo
entre los calificados que practican la disciplina".
113 Método Científico
Al comentar la difundida fábula según la cual
los científicos usan los procedimientos inductivos y
deductivos prescindiendo de la intuición, y acaso
también del talento; Bunge (1986, p. 93) se?iala,
"Pocas cosas hay tan ridículas e ineptas que esta
caricatura del trabajo científico. Quien quiera que haya
trabajado alguna vez en ciencia sabe que el científico,
sea matemático, naturalista o sociólogo, hace uso de
todos los mecanismos psíquicos y que no es capaz de
controlarlos todos ni puede determinar siempre cuál
ha intervenido en cada caso. En cualquier trabajo
científico, desde la búsqueda y el planteo del problema
hasta el control de la solución, y desde la invención
de las hipótesis-guías, hasta su elaboración deductiva,
intervienen la percepción de las cosas, acontecimientos
y signos; la imaginación o representación visual; la
formación de conceptos de diverso grado de abstracción;
la comparación que lleva a establecer analogías y la
generalización inductiva junto con la loca conjetura; la
deducción, tanto formal corno informal; análisis toscos
y refinados, y probablemente muchas otras maneras de
formar, combinar, y rechazar ideas, pues digamos de
paso, la ciencia está hecha de ideas y no de hechos".
Así, Sinderman (1985,p. 8-9) establece, «Entre-
mezcladas con ideas y sugerencias -y difíciles de dis-
tinguir claramente de ellas- está la conducción de in-
ve8tigaciones mediante experimentación y observación.
Las ideas y sugerencias 80fl por 8upue8tO loa pnncipale8
fundamentos de la investigación, pero tienen que estar
acompanadas por la acción- mediante colección de datos
y andlzss. Las ideas y la acción siguen camzno8 paralelos
con frecuente8 cruzamientos y reforzamientos mutuos.
El dise?io experimental (dise?ío de investigación)
se muestra como una ventana movible por la que se
mira el verdadero estado de la naturaleza. La posición
(su grueso y color) en cada etapa, está motivada por las
creencias, esperanzas y miedos. (Box G.E.P. 1976).
Muchos profeasonales re8petados han desarrollado
una serie de guías o consejos no e8critos que casi
tncon8cienternente usan en 8u investigación".
En relación a la contrastación de hipótesis y el
papel del diseío experimental, Box (1976) ha elaborado
un diagrama muy ilustrativo. Este se reproduce a
continuación, pero aclaro que lo que él considera válido
para la investigación experimental, lo extiendo a la
investigación no experimental. Nótense también los
aspectos subjetivos en el dise?ío.
DI,,o Ep.r,m,ntiI
D (disilo di lo
lpc6o)
Vwdad,ro sotad.
4. Ii I.i.rIIu
Roldo
Dato. Dito,
t1j.i rioiplsza Noiva. DliporibLu
A,ílt.l, di Dalai
HIpdt.ats
.odlflc*d
I.docdóu +
EiTo.'., do 14511
Co,,. ada,
H1p64.Ñ 1 ) 1
si
d,Kj
D,dacdéi
DiarimI O, Boo (tilO) aoCe Dls.to ExP@flrhtntti
UI. CIENCIA ESTADISTICA
Una pregunta que podemos plantear es si la
estadística es una ciencia o no o es. Considero que
no hay una respuesta definitiva, sin embargo me inclino
a pensar que sí lo es. En algunas de las citas de
esta sección, donde aparece ciencia estadística, he
subrayado este concepto para resaltar que el autor
citado, así lo considera. Para ubicar a la estadística
como ciencia, parto de los siguientes aspectos: se tiene
un objeto de conocimiento bien definido, los fenómenos
aleatorios. Se tiene una serie de conceptos científicos
claros con los que se pueden establecer teorías,
usualmente en términos matemáticos; por ejemplo, la
ley de grandes números, el concepto de funciones
de distribución y sus propiedades, etc. Además, hay
métodos generales aunque no se usen siempre, como
métodos de estimación, de construcción y comparación
de modelos (pruebas de hipótesis), los métodos de
análisis de datos (Tukey), etc. Existe una comunidad
internacional de personas dedicadas a investigar sobre
los aspectos anteriores, que someten a crítica y validan
los resultados de sus miembros. Podremos distinguir
claramente dos fases en la estadística, la parte formal,
que comunmente se conoce como estadística teórica,
estadística matemática o teoría de probabilidad, que
como las matemáticas en general, trata con conceptos
abstractos y a partir de ciertos axiomas deduce un
gran número de consecuencias. Por otro lado, está
la estadística aplicada, que busca la aplicación de
los conceptos y teoremas a casos concretos de
fenómenos aleatorios. Esta última actividad puede
llamarse justamente "matemáticas aplicadas". El
objetivo fundamental de la misma es encontrar los
modelos que describan mejor algún aspecto particular
de la realidad, en parte para entenderla mejor, en
parte para poderla controlar o modificar, o por lo
menos para efectuar predicciones con poco error. En
esta última actividad es necesaria la interfase con
otras ciencias como la biología, ingeniería, química,
medicina, sociología, etc. Otro aspecto importante es
el llamado "análisis de datos", que aunque formalmente
no provee modelos, sí busca describir la estructura o
características relevantes de un conjunto de datos.
Como se expuso en la sección sobre la ciencia,
cualquier área científica se encuentra fuertemente in-
fluenciada por los aspectos filosóficos de la misma. Así
también la estadística y las llamadas "escuelas" o tipos
de razonamiento estadístico, surgen al darle más pre-
ponderancia a uno u otro aspecto de la filosofía. En el
texto de Dempster (1990,p. 264) se tiene, "Una posición
realista trata los fenómenos que la ciencia pretende en-
tender como si tuvieran una existencia objetiva dura en
el mundo exterior, entonces la ciencia alcanza la objeti-
vidad por la concentración en la construcción de reflejos
exactos de la realidad objetiva. Lo8 e8tadísticos de e8ta
posición son más propensos a enfatizar lo deseable de
explicar los fenómenos estadísticos ezclu8ivarnente me-
diante frecuencias calculables en rnuestra8 grandes (long
run), en principio a base de conteos y medicione8 obje-
tivas, con la idea de obtener una verdad real y objetiva»
"otros racionalistas buscan la verdad en la forma
de sistemas de axiomas que pueden ser percibidos di-
rectamente como objetivamente válido8 y cuyas conse-
cuencias incluyen todos los razonamientos correctos re-
queridos para generar conocimiento científico. Los mo-
dernos Bayesianos a menudo argumentan su caso so-
bre estas bases. !víi punto de vista es que entender la
axiomática es menos importante filosóficamente y cier-
tamente no los desplaza, que los esfuerzos para explicar
el complejo sistema de construcción de modelo8 y los tra-
bajos de inferencia que constituyen el razonamiento so-
bre los fenómenos. El empirismo entra en la estadística
mediante la ética muy difundida que los estadísticos de-
ben limitarse a reportar y analizar hechos. Una posición
correlativa fuertemente atrincherada en el campo es que
la ciencia de la estadística está dedicada casi exclusiva-
mente a especificar métodos de análisis estadístico para
cada esquema de colección de datos. En particular, el
método inductivo del empirismo clásico se reduce a un
estudio extenso de las propiedades de los métodos. En-
cuentro asombroso la ausencia de razonamientos sobre
las circunstancias actuales, de esta difundida manera de
la práctica e8tad(stica".
La inferencia estadística es un caso particular
de inducción y por tanto comparte los problemas de
esta forma de adquirir conocimiento. Toda la discusión
filosófica de Hume, Kant y Popper entre otros, afecta
a la inferencia estadística. En particular, el hecho de
que una generalización empírica (por ejemplo, el uso de
la distribución normal tan común en estadística) no es
verificable pero sí es falsificable. Esto implica que una
ley empírica es susceptible de ser sometida a prueba, a
pesar de que no se pueda probar su validez Se somete
a prueba mediante los intentos sistemáticos de refutarla
o rechazarla. Una buena parte de los resultados de
la estadística tienen bases teóricas, pero otros no; sin
embargo, ambos tipos se usan empíricamente si se
demuestra que tienen utilidad en su aplicación al mundo
real.
De acuerdo al criterio de demarcación de Popper,
la estadística es una ciencia. Porque sus teorías y con-
ceptos pueden ser sometidos a prueba al contrastar-
los con la realidad. Esto se refiere fundamentalmente
a la utilidad de los modelos para representar la reali-
dad. Algo muy reciente es el hecho de que algunas
conjeturas estadísticas que no pueden ser derivadas
matemáticamente a partir de axiomas básicos, pueden
ser "contrastados con la realidad" al simular fenómenos
aleatorios en una computadora. A esto último, ex-
tendiéndolo, le han llamado la forma de hacer experi-
mental la matemática.
Box en su artículo "Science and Statistics" (1976),
diserta sobre las relaciones entre la ciencia y la
estadística; de ese excelente trabajo tomo algunas
citas: "Al aplicar las matemáticas a temas como la
física o la estadística hacemos suposiciones tentativas
sobre el mundo real que sabemos que son falsas pero
que de todos modos son titiles" ... «el estadíat:co 8abe
por ejemplo, que en la naturaleza nunca ha exzstzdo
una distribución normal, nunca ha habido una línea
recta, sin embargo con la normal y suposicione8 de
linearidad, que se conoce que 80n falsas, a menudo
se derivan resultados que corresponden en un grado
de aproximación t1til con los encontrados en el mundo
real. Se desprende que no podremos estar seguros de
que una técnica estadística que de8arrollernos sea útil,
hasta que la usemos. Los grandes avance8 en la ciencia
y en la ciencia de la estadí8tica en particular ocurren
usualmente, entonces, como re8ultado de la iteración
teórica-prdctica».
A pesar de que la gran mayoría de los filósofos
y estadísticos consideran ciencia a la estadística,
hay algunos que no están de acuerdo y que la
ubican como una técnica, así por ejemplo Healy
(1978, p. 391) establece, «como un estadístico
profesional creo que la distinción y balance entre
ciencia y tecnología es un a8unto vital para nuestra
profesión... Propongo que hay principios tecnológicos
generales que son aplicables a lo largo de grandes
dreas de investigación; esos principios, la tecnología
de la investigación misma, consisten en la metodología
estadística. Como estadísticos, ciertamente como
estadísticos aplicados, mejor pensamos de no8ot ros
no como matemdticos ni como científicos, sino como
tecnólogos".
Vemos así que Healy considera que el estadístico
es el tecnólogo de la investigación científica. Sin
embargo, para que el trabajo de "tecnólogo" de la
investigación pueda ser satisfactorio, se deben conocer
los aspectos teóricos de la estadística y del área de
aplicación; esto desde mi punto de vista, esto hace
que el estadístico aplicado debe ser un científico para
que pueda producir nuevos conocimientos en el área de
aplicación y preferiblemente también en la estadística.
IV. PAPEL DE LA ESTADISTICA EN LA INVES-
TIGAC ION
IV.1 Estrategias generales
Ante las consideraciones de lo que es ciencia y
las recomendaciones metodológicas, expuestas en el
apartado II; queda claro que la estadística se convierte
en una "ayuda" más al proceso de la investigación
científica. Sin embargo, para que ésta sea efectiva
deben borrarse las diferencias entre lo que es la
estadística y la ciencia en la que se aplica. Es
decir, los planteamientos de supuestos, hipótesis,
métodos de investigación específicos, formas de medir
y evaluar resultados, etc.; deben hacerse combinando
los conceptos y métodos del área de estudio con los
de la estadística, sin que exista una división clara.
La estadística no debe convertise solamente en la
validadora de resultados cualitativos, ni la que determine
totalmente el diseio de la investigación. Ciertamente
en muchas investigaciones puede contribuir a una
mejor conceptualización del problema, a un diseío con
más correspondencia entre los postulados y supuestos
teóricos, dentro de las restricciones prácticas; a
un mejor análisis de resultados; y a una obtención
de conclusiones que ponderen de mejor manera los
resultados, por un lado y por otro las hipótesis
conceptos, ambos mediados por el dise?ío de la
investigación. En relación a estas consideraciones es
útil reforzar el punto con algunas citas:
Maxwell y Delaney (1989, p. 5) establecen,
"Los datos no se pueden colectar sin algunas ideas
preexi8tentes acerca de lo que puede ser relevante,
debido a que son esas decisiones las que determinan
las variables a manipularse o medirse en un diseno
experimental particular. No hay fórmulas lógicas que le
digan a un científico qué variables en particular deben
ezaminarse en un estudio... Similarmente, los patrones
observados en un conjunto de datos catón influenciados
por las ideas que el investigador trae a la investigación...
Aunque 108 análisis estadí8ticos pueden objetivizar en
alguna medida el proceso de buscar patrones en 108 datos,
los métodos estadísticos aunque estén correctamente
aplicados, no aseguran que se encuentren las forma8 más
apropiadas para organizar los datos».
Por su parte Dempster (1990, p. 269) se?íala, "La
práctica actual, espec2almente en e8tadí8tica, siempre
involucra esquemas de colección de datos imperfecta-
mente controlados, que reflejan fenórrzenos de gran com-
plejidad. El análisis preformal entonces debe proceder
a tamizar entre muchas imágenes causales hipotéticas,
que pueden ser acomodada8 en una red de efecto8 inte-
ractuantes para explicar parcialmente el funcionamiento
de fenómenos aparentemente aleatorios».
Como un ejemplo claro de que la práctica
de la investigación científica se ve afectada por
la predominancia o no de una determinada posición
filosófica, Payer (1990, p. 40) comenta, "En la medicina
francesa la tradición intelectual se ha de8crito a menudo
como racionalista, dominada por la metodología de su
más grande filósofo René De8cartes... Sin embargo en
otros lados, el pensamiento Cartesiano no se ve tan
favorablemente, ya que a menudo se manifiesta como
una teoría elegante respaldada por evidencia e8casa"
"más recientemente, los trabajadores médico8 france8es
en una conferencia de prensa, anunciaron el uso de
ciclo8porina para tratar el SIDA - aunque sus re8ultados
se basaron en una tnica semana de uso de droga
por justamente seis pacientes. Los iflVe8tigadore8 y
editorialistas americanos podían haber estado menos
perplejos por este anuncio, si hubieran entendido que
en Francia, la evidencia o resultados no son tan
importantes como el grado de sofisticación del enfo que
intelectual». Esto indica además que el tama?o de la
muestra puede ser menor para una posición más de
tipo racionalista que para una con mayor componente
empirista.
Así, Box (1976) indica, "La retroalimentación entre
teoría y práctica requiere un ciclo cerrado. Cuando
por alguna razón el ciclo se rompe, el progreso se
detiene. Las enfermedades que pueden resultar pueden
llamarse "libro de cocina» y «maternatiquería". Los
síntomas de la primera son la tendencia a forzar todos
los problemas dentro de los moldes de una o dos técnicas
rutinarias, con poca reflexión sobre los objetivos reales
de la investigación o la relevancia de los supuestos que
requieren los métodos impuestos. La "rnatematiquería"
se caracteriza por el desarrollo de la teoría por la teoría
misma, que como rara vez baja a tocar la práctica,
tiene la tendencia a redefinir los problemas en lugar de
re8olverlo8". Finalmente, Box establece, "Continuará
aumentando la demanda por estadísticos competentes
que puedan expulgar los hechos mediante el análisis de
datos, la planeación de investigaciones, y el desarrollo
de las necesarias nuevas teorías y técnicas».
Dempster (1990, p. 262) apunta, "Los es-
tadísticos participan directa o indirectamente en des-
arrollos científicos en muchas áreas donde se aplica la
metodología científica, de modo que están en buena po-
sición para desarrollar una filosofía de la ciencia, inclu-
yendo la ciencia estadística, que está de acuerdo con las
realidade8 de la práctica». .... Más adelante (p. 263)
continúa, "la estadística se desarrolla con mucha filo-
sofía, mucha de ella tácita, y la mala filosofía es mejor
evitarla haciéndola explícita». Considero que un es-
tadístico al participar tanto en la parte formal de la
ciencia, los aspectos lógicos de las derivaciones ma-
temáticas, como en la parte aplicada; puede y debe te-
ner un panorama amplio de lo que es la investigación
y en consecuencia poder criticar y proponer nuevos
métodos y posiciones filosóficas. Un buen número de
estadísticos han sido excelentes científicos y filósofos,
baste citar a K. Pearson, R.A Fisher, G. Box y D. Cox,
entre muchos otros.
Los Modelos Estadísticos deben construirse a
partir de los siguientes aspectos:
a. Conjeturas derivadas de las preguntas o
teorías que propone el investigador.
Información sobre la forma en que fueron co-
lectados los datos. El 'dise?o" de investi-
gación.
Información adicional y/o conjeturas sobre la
naturaleza del fenómeno que se modela'.
En la estadística aplicada un modelo estadístico
no es un 'constructo" matemático de los estadísticos,
sino que debe ser la traducción de las ideas y
conocimientos de los investigadores a una forma
estadística.
Como vemos, el uso que hace la estadística
aplicada de aspectos teóricos y prácticos, de la
inducción y deducción, la objetividad y la subjetividad,
no difiere de la de otras ciencias prácticas. Es
importante sealar que el modelaje estadístico, para
un problema de investigación, requiere de los aspectos
teóricos de los modelos, su lógica, su construcción y
limitaciones; pero también mucho de los conocimientos
teóricos y prácticos de la ciencia a la que se aplican.
Los científicos requieren de la estadística como
un auxilio para contestar las preguntas o contrastar las
hipótesis que se han planteado. Sin embargo los textos
de estadística presentan los métodos estadísticos
según los supuestos distribucionales y de muestreo. Por
ejemplo, para comparar dos promedios, presentan la
prueba de z, cuando las distribuciones son normales
y se conocen las varianzas, la prueba de t, cuando
no se conocen (con sus variantes), la de Kruskai-Wailis
cuando no hay normalidad y las muestras son chicas;
algunos textos hacen la liga con el Análisis de Varianza,
el cual vía reparametrización puede también tratarse
con regresión múltiple. Algunos textos pueden introducir
métodos robustos y/o distintas maneras para investigar
si se cumplen o no, los supuestos de los métodos
mencionados. Ante esta diversidad de posibilidades
es muy difícil que un científico con conocimientos
superficiales de estadística pueda seleccionar el o los
métodos más adecuados para su investigación. Aquí,
el papel de un estadístico será entender el problema,
identificar qué se requiere; por ejemplo, comparar dos
promedios, averiguar el dise?ío con que se colectaron
los datos (o mejor aún participar en él); a mi juicio, quizá
la parte más difícil, es traducir los aspectos del dise?fo
aplicado a ese problema en particular, las conjeturas
y supuestos sobre la naturaleza del fenómeno y sus
implicaciones al modelo estadístico a usarse.
IV.2 Causalidad y significancia estadística
Quizá una de las fallas más extendidas en la
estadística aplicada, es pretender establecer causalidad
entre dos o más eventos, a partir de que se tiene
significancia estadística. Determinar la causalidad ha
sido un problema tratado extensamente en la filosofía
de la ciencia.
La ciencia, de acuerdo con Popper, se interesa
en contrastar hipótesis. Aparentemente, la estadística
en las pruebas de significancia también contrasta
hipótesis. Sin embargo, hay diferencias importantes
por dos razones: es un acuerdo muy amplio entre
estadísticos (aunque no tanto entre los usuarios de
la estadística) que las pruebas de significancia no
constituyen todo el propósito de una investigación.
Además, muchas investigaciones (fertilizantes en la
agricultura o medicamentos contra la hipertensión) se
conducen para averiguar la magnitud de un efecto de
un tratamiento y no para averiguar si hay efecto. En
realidad se sabe de antemano que Ho = 1h2
es una idealización que con seguridad no es cierta,
entonces lo que se quiere es conocer la magnitud de
Jul - ,a. Es así que hay que distinguir los estudios
encaminados a descubrir asociaciones, posiblemente
causales, de aquellos cuyo propósito es determinar la
forma y magnitud de una asociación. Aunque en ambos
se usen las pruebas de significancia.
Maxwell y Delaney (1989, p. 17) sealan lo si-
guiente, «debido a que nunca se alcanza una conformi-
dad exacta con la hipótesis nula, la inferencia estadística
sirve la función de ayudar al científico a clasificar los
patrones de datos como predicciones confirmadas o fal-
sificadas, o en algunos casos, resultado8 ambiguos».
El problema de las pruebas de significancia es
el hecho de que para muestras muy grandes aún
efectos muy peque?íos son significativos y con muestras
pequeas, efectos grandes no se detectan como
significativos. En este último caso se comete un error
tipo II de importancia con mucha probabilidad. Ante
esto, Good (1988) ha sugerido que los valores de p
se estandaricen a un tama?ío de muestra fijo, digamos
100, entonces se_reemplaza la p de la prueba por:
min(1/2,s./N/100) donde N es el tamaío de muestra
de la prueba de significancia.
La necesidad de salir del estrecho marco de
las pruebas de hipótesis ha sido ya sealado por
estadísticos y por usuarios de la estadística, así Gardner
y Altman (1986) proponen que se usen siempre que se
pueda intervalos de confianza, en lugar de las pruebas
de hipótesis. Por su parte, Maxwell y Delaney (1990, p.
96 y 97) proponen que se reporten medidas del efecto
en estudio. Consideran que una estadística de prueba
es igual al tamaio del efecto por el tama?o del estudio.
Por ejemplo
SCErnr - SCEmc gIme
Feai= x
SCEmc 9l r - glmc
donde SCE denota suma de cuadrados de error, mr es
modelo reducido, me modelo completo y gi grados de
libertad.
IV.3 DiseTfo de la investigación
Se ha comentado ya que es conveniente que
durante el diseo de una investigación se contemplen
los aspectos estadísticos, porque de esta manera se
podrán alcanzar con más eficiencia y eficacia sus
objetivos. Además, considero que por una posición
filosófica cercana al positivismo hay fallas conceptuales
en el uso de la estadística, por ejemplo en la
aseveración "los rendimientos en Kg de plantas de maíz
tienen distribución normal" o "los valores del cociente
intelectual tienen distribución normal" o "los tiempos de
encendidos de focos o tubos de T.V. tienen distribución
exponencial" o "el número de ingresos de pacientes
cardíacos a un hospital por día, tiene distribución de
Poisson", y muchos otros postulados semejantes que
abundan en los textos de estadística. Considero
dichas aseveraciones como fallas por dos razones:
en primer lugar es necesario definir la población de
interés ¿qué plantas de maíz? ¿en qué condiciones?
o ¿qué personas, en qué condiciones se mide el CI.?
¿qué focos, cómo se producen, cómo se usan? o
¿en qué ciudad, qué hospital, qué tipo de pacientes?,
esto involucra ya un dise?Ço de investigación. La
segunda razón es porque la adecuación de un modelo
estadístico para describir la realidad, depende del
fenómeno modelado, y de cómo se mide, mediado
o modificado por el diseo de investigación. Los
supuestos de forma de la distribución, sus parámetros,
la aleatoriedad de muestras y otros dependen del
dise?ío. Además, el dise?ío debe contemplar cumplir
los objetivos de la investigación. En la nomenclatura
estadística se habla de "dise?ío de experimentos" y
aunque con menor frecuencia "dise?o de muestras";
sin embargo, muchas veces el contenido de textos o
capítulos con ese nombre, no abordan o lo hacen muy
pobremente, el diseo sino el análisis de experimentos
o muestras.
Ante esta situación, es necesario poner más
énfasis en los aspectos del dise?o, tanto en la formación
de estadísticos como en la ense?íanza sobre estadística
que reciben otros científicos o profesionistas.
En relación a esto cito a Kish (1987, p. vi) "El
inicio típico de la estadística -dado8 n C580s aleatorios
de alguna variable-, es en cada palabra erróneo para los
datos reales. La mayoría de los datos no SOfl dados -
tienen que tomarse, atraerse, capturarse o extraerse.
La n generalmente no es fija sino que varía debido a
muchas imperfecciones en la colección. La selección no
es aleatoria simple, sino en conglomerados, estratos o
compleja. Tampoco se obtienen variable8 verdaderas,
sino que son observaciones sujetas a error, que el
analista debe reconocer y controlar. E8tos son problemas
tratados en el diseo estadístico».
Hay incluso muestras de tamaio uno, o bien, que
no cumplen con la condición de aleatoriedad, son los
elementos o unidades de estudio a los que tiene acceso
el investigador. Aún así, se hacen interencias.
El diseo de experimentos y el diseo de muestras
son áreas del disejÇo estadístico bien reconocidas y
con sólidas bases matemáticas. Sin embargo, entre
estas dos formas de diseíío estadístico, existe una vasta
gama de posibilidades que los textos de estadística
no abordan. Sin embargo, estas formas ocurren en
la mayoría de las investigaciones y frecuentemente
también están presentes en la superestructura o
entorno del dise?ío de un experimento o muestra.
Cochran (1965, p. 234) establece su definición de
estudios observacionales: "(1) El objetivo ea elucidar
relaciones de causa a efecto, o por lo menos investigar
las relaciones entre un conjunto de variables específicas
Xi y un segundo conjunto Y de manera que sugiera o
informe sobre la causalidad y (2) No es po8ible usar
experimentación controlada...» Más adelante (p. 235)
indica: "Este tipo de investigación, que trata con la
adquisición de conocimiento que puede capacitamos
para disfrutar una vida más saludable y armo nioa,
es importante potencialmente, sin embargo, tengo la
impresión de que ha sido desdenado en cierto modo por
la profesión estadística". Considero que lo se?alado en
1965 para E.U. aún sigue siendo válido en la década de
los 90's, por lo menos en México.
Winsten (p. 257), al comentar el trabajo de
Cochran seíala, "la investigación en estudios no
experimentales debe hacerse por personas que tienen un
dominio amplio del área de estudio y un entendimiento
de la plau8ibilidad de diferentes teorías. En otras
palabras, si los estadísticos toman este trabajo deben
dejar de ser "hombres de métodos" y convertirse
en investigadores en el área estudiada. En alguna
medida e8to debería también ser cierto en estudios
expe rime ntales, pero aquí la necesidad no es tan
grande".
Ehrenberg sentencia respecto al trabajo de
Cochran (p261), es "Mi conclusión es que los problemas
que ha discutido el profesor Cochran no tienen que
ver con una distinción entre e8tudios controlados y
ob8ervacionales".
González Casanova (1987, p. 23) indica lo
siguiente en relación a los estilos de investigación
cualitativo y cuantitativo; "Segtn los matemáticos y los
-sociólogos matemáticos-, la decisión de medir implica
la distinción entre los -tipos de cosas- que hay en el
mundo y -el tamano de las cosas-. La formación de
estos -tipos de cosas- depende de una operación que
precede cualquier clase de medición: la formación de
las categorías en términos de las cuales se van a
medir los objetos. La inmensa mayoría de los problemas
y generalizaciones en ciencias sociales es cualitativa:
-la8 generalizaciones cualitativas (por ejemplo: Si X
crece, Y crece) basadas en la experiencia ordinaria o
en la investigación, junto con diversos pedacitos de
información, constituyen las bases empíricas usuales de
la teoría de las ciencias sociales. ... Cuando olvidamos
estos postulados, establecidos sin discusión de ninguna
especie y elaboramos nuestros modelos de investigación
dando prioridad a los problemas matemáticos y no a
los sociales, dejamos implícitas y sin control todas -las
operaciones que preceden cualquier tipo de medición-.
Al llegar (Iv siempre llegamos!) a nue8tra8 snferenc;as
cualitativas las rcve8timog de un rigor del que carecen
en realidad. Así aparece un proceso penoso que termina
en la -superstición- del rigor matemdtico de8ligado del
rigor lógico y político ». Esto también lo he comentado,
por ejemplo en Méndez (1989d). Es lamentable observar
cómo se rodea de un áurea de "magia" muchos usos de
la estadística, por los que no la conocen. Considero,
por supuesto, que son también fallas por la posición
filosófica.
El dise?o estadístico de la investigación debe
contemplar la forma de "controlar", es decir eliminar
o por lo menos hacer improbable la presencia de
las fuentes de sesgo más importantes para su
inveshgación. Kish (1987) y Méndez y cols. (1984).
V. CONCEPTOS GENERALES SOBRE TEC-
NICA
A.R. Wallace sealó que el hombre es el único
animal capaz de efectuar una evolución dirigida no
orgánica, él hace herramientas. Sin embargo, la
identificación de esas herramientas con artefactos
materiales es arbitraria. El lenguaje y los conceptos
abstractos también son herramientas. De hecho, todas
las disciplinas parten de distinciones arbitrarias como
ésta. Así se define como herramientas el ábaco y el
compás, y por tanto como tecnología, pero la tabla de
multiplicación o de logaritmos no lo son.
El objeto de la tecnología es "como hacer las
cosas". Sin embargo debiera de ser de acuerdo a
Wallace "como el hombre hace las cosas". El propósito
es superar las limitaciones del hombre como animal.
Este enfoque de la biología humana, concluye que
la tecnología no tiene que ver nada más con cosas:
herramientas, procesos y productos. Tiene que ver con
trabajo: la actividad específicamente humana por medio
de la cual el hombre vence las leyes de su biología, que
condenan a todos los otros animales a dedicar todo su
tiempo y energía para mantenerse vivos el siguiente día
o la siguiente hora (Davis y Col., 1979).
Podemos definir la tecnología como la acción
humana sobre objetos físicos o como un conjunto
de objetos físicos caracterizados para servir a los
propósitos humanos.
Las herramientas disponibles y las técnicas in-
fluencían fuertemente el trabajo que se puede hacer
y cómo se hace. Pero el trabajo, su estructura, organi-
zación y conceptos también influyen poderosamente en
las herramientas, las técnicas y su desarrollo. La organi-
zación del trabajo, es en sí misma una de las principales
formas de lograr esa evolución dirigida no orgánica, que
es específicamente humana; es en sí misma una impor-
tante herramienta del hombre.
No toda técnica es científica. La "revolución" del
paleolítico con el uso y fabricación de instrumentos de
piedra, la agricultura y domesticación de animales, re-
presentó el desarrollo de muchas técnicas; posterior-
mente la navegación, fabricación de instrumentos con
bronce, luego hierro y finalmente acero. Practicamente
todo el desarrollo de la humanidad hasta la edad me-
dia, se basó en técnicas no apoyadas en la ciencia.
Ya que la ciencia surge con el Renacimiento, principal-
mente en Italia. Podremos pensar que aún hay desarro-
llos técnicos no basados en la ciencia, aunque cierta-
mente mientras más avanza la ciencia, hay más tecno-
logía apoyada o basada en ella.
Como un ejemplo de que la técnica no requiere
el conocimiento científico, tenemos que los aztecas y
aún hoy muchos campesinos mexicanos hacen pulque,
fermentando el aguamiel del maguey, sin conocer la
existencia de los microrganismos que provocan la
fermentación. Sin embargo, sí saben como iniciar y
terminar el proceso (Ver por ejemplo Box (1987), y Box
y CoIs. (1 988)).
Los impactos de la tecnología en la sociedad se
pueden resumir esquemáticamente en tres aspectos:
Un cambio tecnológico importante crea la ne-
cesidad de innovaciones políticas y sociales,
puede hacer obsoletas las relaciones institu-
cionales existentes.
Los cambios tecnológicos específicos deman-
dan innovaciones políticas y sociales, también
específicas.
El cambio tecnológico, no hace invitable
ciertas instituciones, requiere cambio social
y económico, pero la dirección del cambio
depende de los propósitos, valores y otros
aspectos específicos de la sociedad. Vg. las
civilizaciones americanas no separaron ley de
costumbre, ni inventaron la moneda, ¡no usaron
la rueda!
VI RELACIONES ENTRE INVESTIGACION -
CIENTIFICA Y TECNOLOGIA
La estadística juega un papel importante en la
contrastación o prueba de hipótesis científicas, cuando
involucran fenómenos aleatorios. Es importante que
no se tome una posición Popperiana estricta. Se
debe tomar una posición en el sentido de que se
rechaza o no se rechaza una hipótesis, pero todo el
proceso está condicionado al grado de validez de los
supuestos adicionales y las circunstancias de a prueba.
Esto se comenta brevemente en Méndez (1989a). Las
pruebas de significancia estadística únicamente indican
la probabilidad de que los resultados ocurran por azar
sin que sea cierta la hipótesis científica.
En un principio, a partir del renacimiento, la
ciencia buscaba explicar por qué funcionaban muchas
tecnologías; es decir, la ciencia busca el conocimiento
por sí mismo, pero su inspiración es la naturaleza y
la naturaleza modificada por la tecnología. Así por
ejemplo, Pasteur explicó la fermentación y putrefacción
conocida y orientada por el hombre desde 6 ó
7 mil a?ios antes. Clausius y Kelvin dieron una
formulación científica al comportamiento termodinámico
de la máquina de Watt. Esto impactó a la ciencia que se
define como "la búsqueda sistemática de conocimiento
racional". Pero conocimiento cambió su significado de
ser "entendimiento" es decir, enfocado en la mente
del hombre, para ser "control" es decir, enfocado a la
aplicación en la tecnología. Podemos decir que nace
entonces una "ciencia aplicada".
Popper postuló un criterio de demarcación entre
lo que es ciencia y lo que no. Para esto consideró que
si una teoría o conocimiento empírico es susceptible de
ser sometida a prueba, es científica. Si no es posible
someterla a prueba no es científica. Es importante
notar que alguna teoría puede no ser susceptible de
someterse a prueba, por falta de desarrollo tecnológico;
de modo que el avance en otras áreas de la ciencia y la
tecnología pueden hacer científico algo que no lo era,
al someterlo a pruebas y que no sea rechazado.
Los científicos, con raras excepciones, hasta
el final del Siglo XIX, no se preocupaban por las
aplicaciones de su nuevo conocimiento científico y aún
menos con el trabajo tecnológico necesario para hacer
aplicable el conocimiento. Similarmente, el tecnólogo,
hasta muy recientemente, rara vez tenía contacto
con los científicos y no consideraba importantes sus
hallazgos para el trabajo tecnológico. La ciencia
requiere de su propia tecnología, una muy avanzada.
Pero los avances tecnológicos logrados por el científico
constructor de instrumentos, como una regla, no fueron
extendidos a otras áreas y no condujeron a nuevos
productos para el consumidor o nuevos procesos para
el artesano y la industria. El primer constructor de
instrumentos que se hizo importante fuera del campo
científico fue Walt, el inventor del motor de vapor. Otros
desarrollos aislados de científicos del Siglo XIX, fueron
los fertilizantes de Von Liebig y los colorantes de Perkin;
la ingeniería eléctrica partió del trabajo de físicos como
Faraday, Henry, Helmholtz, Hertz y Maxwell.
Con la Primera Guerra Mundial, todos los países
beligerantes movilizaron a los científicos en el esfuerzo
bélico y entonces la industria descubrió la enorme
potencialidad de la ciencia para generar ideas tec-
nológicas e indicar soluciones tecnológicas. También
los científicos descubrieron el reto de los problemas
tecnológicos.
Cuando los conocimientos científicos no nos per-
miten hacer una predicción aceptablemente exacta so-
bre el comportamiento de la naturaleza o la socie-
dad, entonces recurrimos a la exploración o experimen-
tación empírica cuidadosa apoyada en la estadística.
Así se han encontrado por ejemplo, las dosis de an-
tibióticos adecuados, fórmulas de fertilización en cul-
tivos agrícolas, proporción de componentes en una
aleación metálica o algunas técnicas didácticas. Para
mí ésta es una actividad ubicada claramente en la fron-
tera de la técnica y la ciencia. Se usa una metodología
rigurosa, eliminando factores que obscurecen el estudio,
pero no hay una teoría que explique todo el proceso.
Algunas ideas relativamente nuevas sobre la
ciencia y la tecnología y su forma de generar nuevos
hechos o artefactos, se encuentran en el refrescante
texto de Latour (1987). Un extracto de algunas
ideas expuestas parece relevante al tema tratado.
Se considera que existe un conjunto de problemas y
métodos comunes a todas las disciplinas y objetos de
la ciencia y la tecnología. Un primer aspecto es que hay
que estudiar la ciencia y la tecnología en proceso y no
la ya establecida. Cuando un hecho, idea o artefacto es
aceptado por la comunidad de científicos o tecnólogos,
se trata como "caja negra", en el sentido de que ya
no se cuestiona su veracidad o funcionamiento. Sin
embargo, en el proceso de obtención del conocimiento
o desarrollo del artefacto, si hay dudas, que se reflejan
en referencias a otros conocimientos. Por ejemplo la
estructura del ADN o los "chips" para computadoras
se usan sin ser cuestionados. Este énfasis en el
proceso determina la consideración de que una máquina
"trabaja bien" cuando es aceptada por la comunidad y
no al revés. También un conocimiento o un hecho se
considera válido cuando es aceptado por la comunidad
y no que es aceptado porque es válido. Esto se
refuerza al seíalar que en el proceso de publicación
de resultados de investigación las citas y las formas en
que se hacen, son para apoyarse en otros autores o
debilitar la posición de los que tienen otros resultados.
Esto mismo ocurre con el desarrollo tecnológico, tanto
con su publicación como el uso o no de las diversas
componentes de un prototipo. La eficiencia de una
máquina no es algo abstracto, sino que es definida en
función de una comunidad de tecnólogos y usuarios del
desarrollo.
La manera de construir una "caja negra" es
mediante dos acciones, una es enrolar a otros para que
la crean, la compren y la diseminen en tiempo y espacio
y la otra es controlarlos para que no la modifiquen
en el proceso. Se considera que esto se aplica
al conocimiento científico o al desarrollo tecnológico.
Latour considera dos modelos para la construcción
de teorías o artefactos. El modelo de difusión que
considera que al aceptar la teoría o el artefacto y
difundirlo a otros científicos o usuarios, se hace porque
la teoría es válida o el artefacto eficiente. Sin embargo,
como se mencionó, es precisamente esa aceptación lo
que va validando la teoría o definiendo la eficiencia del
artefacto. Este modelo de difusión tiende a exagerar el
trabajo de los pioneros y minimizar el papel corrector
y en cierto modo director de los cientos o miles
de colaboradores o seguidores asignándoles un papel
pasivo. Se considera así que la tecnociencia (nombre
que usa Latour para ciencia y tecnología) está separada
de la sociedad. El modelo de translación considera que
la sociedad y el conocimiento científico o tecnológico
no son separables, se tienen controversias aún no
decididas que se trasladan de un grupo los originadores,
a otros individuos que van a opinar, modificar y usar las
ideas y artefactos y en ese sentido validarlas o hacerlas
eficientes.
El problema del constructor de "hechos" es
semejante al de "objetos": ¿cómo convencer a
otros, cómo controlar su comportamiento, cómo reunir
suficientes recursos en un lugar, cómo hacer para que
el hecho u objeto se propague en tiempo y espacio? En
ambos casos son otros los que tienen el potencial para
transformar el "hecho" o el "objeto" en un todo durable,
en una "caja negra". Una diferencia es que el primer
momento, cuando se reclutan nuevos e inesperados
aliados es más visible en la ciencia y el segundo
momento cuando se reunen recursos para actuar como
un todo es más visible en las máquinas, motores o
computadoras (la técnica en general).
VII. EL PAPEL DE LA ESTADISTICA EN LA
INGENIERIA
En este apartado se discute brevemente la
naturaleza de la estadística y para ello se emplean
ejemplos de ingeniería. Para dar un panorama de
las aplicaciones de la estadística en la ingeniería, se
presentan algunos métodos estadísticos y un ejemplo
de su uso en ingeniería. El panorama es incompleto,
pero sí seííala la potencialidad e importancia del papel
que tiene la estadística en la ingeniería.
VI1.1 La Aleatoriedad y su Modelaclón
La estadística busca modelos para describir la
regularidad estadística de los fenómenos aleatorios. Por
ello se describen los conceptos involucrados en esta
definición.
En el campo de la ingeniería hay procesos poco
conocidos. Por ejemplo, no es posible predecir con
exactitud, con base en leyes conocidas, la resistencia
que tendrá una mezcla de concreto, grava y arena en
función de las proporciones y calidad de los materiales,
tiempo y condiciones de fraguado. Esto se extiende a
las propiedades de casi cualquier material producido por
agregación de substancias con propiedades conocidas;
por ejemplo aleaciones metálicas, plásticos, telas,
conglomerados de madera, etc.
Todo fenómeno es aleatorio; pero si en la práctica
se está satisfecho con el grado de aproximación que
producen las leyes conocidas y su aplicabilidad es
factible a ciertos fenómenos, éstos no se consideran
aleatorios.
Existe, sin embargo, un gran número de fenómenos
que desde un punto de vista práctico son aleatorios.
Por ello es importante contar con alguna ayuda meto-
dológica para el estudio de dichos fenómenos. Esta
ayuda es la estadística que, basándose en ciertos
postulados probabilísticos, permite hacer descripciones,
optimizaciones y predicciones en los fenómenos alea-
torios.
Los fenómenos aleatorios, cuando se estudian
un gran número de veces en condiciones similares,
presentan cierta regularidad denominada estadística.
Esta regularidad estadística consiste en que las
frecuencias relativas, porcientos o proporciones con
las cuales ocurren las diferentes modalidades de una
característica del fenómeno aleatorio son muy estables,
desde luego si el número de veces en que se estudia
el mismo es grande. Por ejemplo, la proporción de
"águilas" al lanzar una moneda tiende a ser 1/2. 0
bien, la proporción de varillas de acero que se doblan a
una fuerza de flexión fija es muy estable si se estudian
muchas varillas en condiciones semejantes, todas con
la misma fuerza de flexión (lo que define a llamada
población).
La probabilidad es un modelo matemático que
se usa para representar las proporciones en las
que se estabilizan las diferentes modalidades con
las que ocurren los fenómenos aleatorios. Se dice
que la probabilidad es un modelo para la regularidad
estadística.
Para que se presente la regularidad estadística
se requiere que el número de veces en que se estudie
el fenómeno, se desarrolle con ciertas condiciones
constantes; por ejemplo, varillas de acero producidas
con el mismo proceso y materia prima. La subjetividad
ocurre al definir el tipo de condiciones en que se estudia
un fenómeno y la objetividad en el hecho de que dadas
esas condiciones el propio proceso determina la forma
de la regularidad estadística.
La estadística supone que por conocimientos
previos sobre un fenómeno particular o por analogía
con otros similares, se conoce la forma general de
la función de distribución; por ejemplo, en los casos
anteriores suponer que el modelo para el número de
focos defectuosos es el de Poisson, por lo tanto, sólo
se deben determinar los denominados parámetros para
especificar totalmente esa función. A esto se le llama
estadística paramétrica.
Cuando no se conoce la forma de la función
de distribución, se recurre a las llamadas pruebas de
Bondad de Ajuste, donde básicamente se investiga
si la información o mediciones sobre el fenómeno
se consideran bien representadas por una función de
distribución particular.
Con base en la estructura matemática de la
probabilidad se construyen las llamadas funciones de
distribución, las cuales determinan con qué probabilidad
ocurren los diferentes valores (o nombres) con los que
se midió una propiedad del fenómeno aleatorio; es
decir, predicen cuál será la proporción de veces que se
presentará cualquier modalidad de la propiedad medida
en el fenómeno, al haberse estudiado ésta varias veces
en condiciones similares, de modo que la función de
distribución caracteriza totalmente la aleatoriedad del
fenómeno.
La estadística está encaminada básicamente a
determinar cuál es la función de distribución más
adecuada para representar un fenómeno aleatorio
particular y comparar las distribuciones para algunas
variantes del fenómeno. Por ejemplo, determinar o
caracterizar la aleatoriedad del número de piezas
defectuosas en la producción de cajas con cien focos, o
bien las proporciones en las que ocurren los accidentes
de trabajo en una fábrica. Con esa caracterización
se puede comparar un proceso productivo con otros,
y buscar así las mejores condiciones para el proceso.
También se puede estudiar o comparar (para va-
riantes del fenómeno) algunas características principal-
mente medidas de tendencia central, de la función de
distribución sin llegar, por ello, a conocer esta función
totalmente. A esto se le llama estadística no pa-
ramétrica.
Los usos prácticos más importantes de la es-
tadística, radican en la comparación de algunas varian-
tes de un mismo fenómeno, o sea, saber si las funciones
de distribución que representen adecuadamente cada
variante del fenómeno son diferentes y en qué grado.
También se puede investigar como cambian algunas ca-
racterísticas de las funciones de distribución en relación
a cambios cuantifícables en los factores que intervie-
nen en el fenómeno. Por ejemplo, '?cámo cambia la
resistencia de una mezcla de concreto al cambiar las
condiciones de fraguado?
Así se pueden plantear una serie de preguntas
de mucha utilidad práctica. De hecho, en a industria,
agricultura, educación, y otras áreas, se ha progresado
mucho al tener una metodología (la estadística) que
permite contestar a preguntas semejantes a las
anotadas.
Vll.2 Algunas Aplicaciones de la Estadística en
Ingenierla
Se presenta de manera escueta y sin pretender
ser exhaustivo, un panorama de algunas de las
aplicaciones de la estadística en la ingeniería.
V112.1 Evaluación de Procesos de Medición
En la ingeniería se tienen fenómenos que se
consideran como determinísticos con base en leyes de
la mecánica clásica; por ejemplo, la distribución de
cargas en la estructura de un edificio, o bien la presión
del agua en varios puntos de un sistema de drenaje.
También hay fenómenos considerados como aleatorios,
así la resistencia de una mezcla de concreto, arena y
grava es impredecible con exactitud, sobre todo si se
trata de un concreto recientemente desarrollado.
Ya sea que se consideren fenómenos aleatorios o
determinísticos, es necesario medir las propiedades del
proceso para poder manipularlo, así es necesario medir
las llamadas constantes de resistencia de la estructura
de un edificio; diámetros y resistencias de las tuberías
en el sistema de drenaje, o bien la resistencia del
concreto.
En todo proceso de medición existen varias
fuentes de error. Esto hace que las mediciones
reportadas por laboratorios y casas de material y equipo
no sean totalmente confiables. La estadística permite
evaluar qué tan bueno es un proceso de medición
al apreciar su precisión y exactitud. La precisión
es el grado de concordancia de los resultados entre
sí. La exactitud es el grado de concordancia de las
mediciones con el valor real de lo que se pretende
medir. La falta de precisión se origina debido a errores
aleatorios y a la falta de exactitud por los llamados
sesgos o errores sistemáticos. La precisión se mide
de varias formas, por ejemplo, con desviación estándar,
error estándar, intervalos de confianza, error probable,
desviación media y otras formas. Así es usual que
se reporte un resultado, por ejemplo, resistencia a la
ruptura de un material como 1242 ± 1.4. El primer
número es el promedio y el segundo una medida de
la variabilidad como desviación o error estándar. Estos
conceptos están muy bien tratados en el trabajo editado
por Ku (1969).
V1122 Concentración y Descripción de Información
La llamada estadística descriptiva tiene como
objetivo resumir y mostrar la información contenida
en un conjunto de datos. Así la construcción
de histogramas, gráficas de frecuencia bivariadas,
diagramas de dispersión o bien cálculos de medidas
descriptivas como promedios, varianzas, correlaciones;
permiten una descripción de la información obtenida.
Además pueden servir para sugerir algunos modelos
que describan la regularidad estadística y la asociación
entre variables.
V112.3 Ajuste de Funciones de Distribución
Como un paso importante en el trabajo estadístico
o bien como un fin en sí mismo, a menudo se requiere
encontrar el modelo o modelos probabilísticos que
describan adecuadamente algún proceso. Por ejemplo,
considerar que el modelo P(X = z) = con
x = 0, 1, 2, ... sirve para describir el número de llamadas
telefónicas que llegan a un conmutador en un minuto.
Esto nos permite conocer el valor del parámetro  y
con ello estimar la probabilidad de que el conmutador de
diez líneas se insuficiente. Así también si se considera
que el tiempo en que se presenta una falla en una
revolvedora de concreto se puede describir con una
función del tipo 1(z) = fle donde O < z < oc,
esto nos permite estimar la probabilidad de que con
dicha revolvedora no se llegue a producir el concreto
necesario para una construcción, y en consecuencia de
tener otras revoivedoras o mejorar la existente.
Además del beneficio de estimar probabilidades,
el encontrar un buen modelo para la regularidad
estadística de un fenómeno, nos permite comparar
varias modalidades del proceso. Así podemos comparar
varios periodos en las llamadas telefónicas y decidir
si .) ha cambiado y posiblemente se requiera de un
nuevo conmutador, o bien comparar varios tipos de
revolvedoras.
Hay una gran variedad de posibilidades de
funciones de distribución, por lo que prácticamente
cualquier proceso puede ser modelado con bastante
aproximación.
Los modelos de relaciones funcionales pueden
ser utilizados como un medio para conocer los valores
de X o de las X que producen una Y dada, en el
proceso conocido como calibración. Lo que se hace
es encontrar la función inversa de X como función de
Y, pero hay que agregar una medida de la imprecisión
en ella. Por ejemplo, para una relación funcional lineal
del tipo Y = a + 9X + e, se estima la función con
Y = T+b(z—), donde 6 es el coeficiente de regresión
obtenido por mínimos cuadrados. Así si se observa una
Y igual a y, entonces la estimación de la X que debe
haber producido esa yo es Xo = (Yo - )/b + Y y su
varianza es + + b2(z_)2]' donde 0.2 es la
varianza de los errores de medición.
Algo semejante se hace para los modelos de
relación funcional más complicados. Un artículo general
sobre el tema es el de Scheffé (1973).
V112.5 Modelos de Regresión
V112.4 Relaciones Funcionales y Calibración
Se denomina una relación funcional cuando se
investiga en realidad un fenómeno determinístico, pero
hay errores de medición en las variables que depende
funcionaímente de otra u otras.
Por ejemplo, si ¡lamamos X a la temperatura de
un metal y Y a la longitud del mismo o a ¡a resistencia
eléctrica del metal, sabemos que hay una función tal
que Y = 1(X); sin embargo, si no podemos medir
Y con exactitud y precisión, se tendrá Y = 1(X) +
e, donde e son errores de medición. La estadística
permite encontrar la función, f, más adecuada para esa
relación. Estas ideas se pueden extender a relaciones
funcionales con varias variables y postular así modelos
del tipo Y = f(X1, X2, ..., X) +e, donde e sigue siendo
un error de medición nada más.
Los modelos de regresión, son modelos es-
tadísticos lineales para describir la asociación entre un
conjunto de variables X1,X2, .... X,, y una variable Y.
Esto se hace sin considerar necesario que Xi,...,X,
estén causando los valores de Y, simplemente se con-
sidera una variación conjunta. En este caso se cree que
la variación de los valores de Y se debe a ¡a variación
entre individuos u objetos en sus valores de las X, y en
una menor medida a errores de medición. Así una forma
muy general de un modelo de regresión es:
k
donde g, son funciones conocidas de las varia-
bles X1, .... X9; fo, Si, ...,flk son parámetros descono-
cidos. e representa errores aleatorios por la variación
entre los elementos de estudios que se pueden generar
en ciertos valores fijos de X1, ..., X,,, y en mucho menor
proporción errores de medida.
Usualmente se considera que los e tienen distri-
bución normal con varianzas homogéneas para cada
conjuntod e valores de las X1, .... X9.
Brownlee (1965) presenta un ejemplo, en él
estudia la operación de una planta de oxidación de
amoníaco a ácido nítrico. La Y fue 10 multiplicado por
el porciento de amoníaco que escapa de la columna de
absorción, es decir una medida (inversa) de la eficiencia
general de la planta. X1 representa la proporción de
operación de la planta medida por la corriente de aire;
X2 la temperatura del agua de enfriamiento, y X3 la
concentración de ácido circulante (menor 50 por 10).
Se llegó a una ecuación de regresión:
Y = —39.919 + 0.7156X1 + 1.2953X2 - 0.1521X3
Así se tiene por ejemplo que al aumentar una
unidad la corriente de aire la Y aumenta en 0.7156
unidades en promedio.
Los modelos de regresión se usan para describir
la asociación entre variables, para encontrar la influen-
cia de una variable (Xi) sobre otra (Y) manteniendo
constantes otras más (otras X) o para encontrar los va-
lores de las X que maximizan (o minimizan) una Y, o
bien para predicción de futuros valores de Y.
Así en el ejemplo se?alado se pueden buscar los
valores de X1,X2 y X3 que minimizan la pérdida de
amoníaco en la planta.
V112.6 Diseío de Experimentos
Esta rama de la estadística fue desarrollada
por R.A. Fisher para aplicaciones a la agronomía;
posteriormente ha sido utilizada en muy diversas
áreas. Lo que se pretende es dise?íar una manera
de captar información de tal modo que permita
estudiar la forma en que un conjunto de variables
numéricas o categóricas (factores de estudio) modifica
los promedios de una variable aleatoria Y. Se desea
que este estudio se haga con la mayor precisión y al
mínimo costo posible. El objetivo del dise?ío es controlar
fuentes de variación ajenas a los factores en estudio y
efectuar inferencias para comparar los promedios de las
poblaciones (tratamientos) que se definen para algunos
valores de esos factores en estudio.
Se tiene así el dise?ib de tratamientos al especifi-
caí cómo se definen esas poblaciones o tratamientos y
además el dise?ío experimental al especificar cómo se
asignan los tratamientos a las unidades experimentales.
Debe recordarse que se tiene un experimento consis-
tente en cierta manipulación de la realidad, se construye
un modelo que represente lo más adecuadamente a la
realidad y finalmente, con base en ese modelo, se ana-
liza la información obtenida para hacer inferencias sobre
la realidad. Se tiene una relación como la del esquema.
Realidad Diseío de Modelo Análisis
Investigación Estadístico
Inferencias
Cuando los experimentadores no son muy versa-
dos en estadística, es frecuente que se tenga un mo-
delo inadecuado para representar la realidad; por ejem-
pb, el dise?ío usual de bloques completos aleatorizados
es frecuentemente analizado con el modelo incorrecto
Yjj = Ii + rt + fij + e, cuando el modelo adecuado
es = ji + r + fl + (r$) + + en
general i = 1,...,t;j = 1, .... b,k = 1,m = 1 donde *Ti
y fij son efectos de tratamientos y bloques respectiva-
mente. (rfl)5 es el término de interacción tratamientos
por bloques; 8k(j) es el error de restricción por tener to-
dos los tratamientos en cada bloque con condiciones de
muchos factores aleatorios constantes, y E es el error
aleatorio.
Esto ha sido reportado por V.L. Anderson (1970) y
posteriormente por Anderson y McLean (1974). Ambos
autores reportan el caso de un experimentador en una
compaTa manufacturera, quien realizó un experimento
para probar una nueva aleación en la formación de
ciertas piezas. Usó un horno con lingote de la nueva
aleación y otro horno con un lingote de la aleación
estándar. De cada lingote tomó 30 piezas de metal y en
ellas midió la variable de interés (resistencia). Realizó
un análisis de varianza con un criterio de clasificación
y obtuvo una F con 1 y 58 grados de libertad, que
fue significativa, esto indicó que la nueva aleación era
"mejor" que la estándar. El experimentador convenció a
la administración de la compaíía que se usara la nueva
aleación. El cambio le costó a la compa?íía 200,000
dólares, y dos a?íos después se vio que el producto
con la aleación nueva era igual que el de la aleación
estándar.
Lo sucedido fue que el modelo era inadecuado
para representar el experimento. Se debió usar un
error de restricción para la variación entre hornos y
otro para la variación entre lingotes. La significancia
encontrada, seguramente se debió a la variación entre
los hornos o entre los lingotes y no a la variación
entre aleaciones. Una exposición de algunos diseños y
situaciones experimentales con ese error de restricción
se encuentra en Méndez (1 989e).
experimento, tomado de Anderson y McLean (1974): un
ingeniero quería determinar el efecto de cinco factores
en las propiedades de concreto asfáltico. Los factores
eran:
Agregado fino o grueso.
Temperatura de compactación 200° F ó 300°F.
Contenido de asfalto 5 ó 7/..
Condición de fraguado. Cubierto o descu-
bierto.
Temperatura de fraguado, 45°F ó 72°F.
Se tienen 25 = 32 posibles combinaciones de ni-
veles de factores o tratamientos; sin embargo, se usa-
ron sólo 16 unidades experimentales en una fracción
de 1/2 del total. Si se considera que las interacciones
de tres factores o más son inexistentes y que se tiene
una estimación del error experimental, el diseo es muy
eficiente y barato. Esto permite llegar rápidamente a
conocer el efecto de los factores estudiados y de sus
posibles interacciones entre dos de ellos. El libro de
Daniel (1978) da una serie de consejos a los experi-
mentadores industriales, y el de Box, Hunter y Hunter
(1988) un tratamiento muy completo de como construir
modelos estadísticos utilizados fundamentalmente en la
optimación de procesos industriales.
V112.7 Superficie de Respuesta
Esta es una técnica que toma ideas de dise?ío de
experimentos y de regresión con el objetivo de optimizar
procesos productivos, al encontrar rápidamente qué
combinaciones de factores producen el máximo (o el
mínimo) de los valores de las Y (la respuesta).
Los ejemplos de diseio de experimentos son
muy variados, únicamente para dar una idea de la
potencialidad que el área tiene, se describe el siguiente Lo más común es que se use una secuencia de
experimentos, se comienza con un dise?ío experimental
llamado de primer orden ya que únicamente permite
encontrar el cambio lineal de la variable de respuesta,
la Y, por efecto de los factores experimentales, las X.
Esto da una dirección en cambios de las X, por la que
se obtienen mayores (o menores) valores de Y.
así porque pretende ir variando poco a poco las
condiciones de operación de cualquier planta industrial
de manera que el proceso evolucione acercándose cada
vez más a condiciones de producción más eficientes,
con mayor producción y mayor calidad.
V112.8 Análisis Multivariado
Se efectúan más experimentos con diseños de
primer orden hasta que se detecta que hay curvatura
(la Y ya no cambia linealmente al cambiar las Xi).
Se efectúa entonces un experimento con dise?ío de
segundo orden, ya que permite estudiar relaciones de
tipo cuadrático entre las Xi y las Y. Con este diseío se
puede estimar el punto máximo (o mínimo) de los valores
de Y. Como un ejemplo de esto, se tiene, el presentado
por Johnson y Leone (1964), relativo a la búsqueda de
porciento de componentes de un material a base de
hule para encontrar la máxima elongación y resistencia
a la tensión. El proceso se?íalado anteriormente llegó a
determinar el tipo de forma de respuesta de la gráfica.
,
iCO.-
f'iri A
/
 OO
/
'•oo
% di comu',,,,t, A u' P'ijli
La técnica de superficie de respuesta es muy
usada en todo proceso tecnológico para encontrar las
condiciones de desarrollo que optimizan el proceso. En
el área de ingeniería industrial se ha desarrollado, por
Box y Draper (1969), la operación evolutiva, llamada
Dentro del rubro de análisis multivariado hay una
serie de técnicas, la mayoría de tipo exploratorio, que
manejan diversas variables con propósitos diferentes.
Sólo se mencionarán aquí algunas de ellas.
En el análisis llamado "componentes principales"
se tiene un conjunto de variables X1,X2,...,X,, de
un fenómeno o proceso y se quieren reducir las
dimensiones del problema al llegar a un nuevo conjunto
Yi, Y2, ..., Yq con q mucho menor que p, de tal modo
p p p
que Y1 = ralAY2 = >. a2ÍXj , .... Yq =
que Y1,Y2, ... ,Yq, sean no correlacionadas entre sí y
expliquen la mayor parte de la variabilidad de las X.
Jeffers (1967) presenta un ejemplo en el que se
tenían vigas de madera para usarse en la construcción.
En ellas se midieron 13 variables: diámetro, longitud,
contenido de humedad, gravedad específica en las
condiciones de prueba, gravedad específica al secado,
número de anillos en la base y en la punta, arco
máximo, distancia del arco máximo a la punta, número
de nudos, longitud amplia, número de nudos por venticilo
y promedio de diámetro de los nudos. Se llegó a seis
nuevas variables Y1, .... Y6; que explican el 87% de la
variación de las 13 originales.
Y1 se interpretó como índice del tamaio de la
viga; Y2 como índice de maduración; Y3 como índice de
proporción de crecimiento y resistencia de la madera;
Y4 como un contraste entre longitud y número de aniUos
en la base; Y5 como número de nudos por venticilo; Y6
como promedio de diámetro de nudos y resistencia de
la madera.
Una técnica relacionada con el análisis de
componentes principales es el 'análisis de factores"
en el que no se pretende una descripción total de la
variación en las variables; únicamente se describe parte
de la variación y se considera que se tiene cierto error.
Se tienen variables Xi, X2, ..., X, y se buscan factores
comunes (Fjk) a las variables y que se suponen son los
que causan la correlación (covarianza) entre ellas, tales
que:
Xii = aF + aF2 + + aNFN +
= observación específica; j = 1, ...,
p y Fk con
k = 1, ..., N son los factores comunes y N <p. Las
son las ponderaciones de los factores en las variables
y es la parte no explicada por los factores comunes
en la medición i de la variable X (este término no se
contempla en componentes principales). Bajo ciertos
supuestos se puede encontrar a las Fk como funciones
lineales de las X.
Stopher y Meyburg (1979) presentan el caso de
una encuesta para encontrar características de los
viajes al trabajo; se midieron 12 atributos de las
personas que viajan en seis medios diferentes: tiempo
de viaje, habilidad para llevar bultos, seguridad de
accidentes, habilidad para estimar tiempo de llegada,
tiempo de espera, habilidad para hacer otras tareas,
protección contra clima, independencia de horarios,
privacía individual, costo, disponibilidad de un asiento
y habilidad para controlar temperatura y ventilación.
Se encontraron seis factores que explican el
80.7/ de la variación de variables originales. Se hizo
una rotación varimax para que los factores fueran
más fácilmente interpretables y se encontró que el
primer factor se relaciona con el confort (llevar bultos,
protección contra el clima, privacía, asientos y control de
temperatura). El segundo factor se asocia con costo;
el tercero con exceso de tiempo (tiempo de espera
y estimado); el cuarto con tiempo total; el quinto con
conveniencias (independencia y privacía) y el sexto con
seguridad.
En el análisis de correlación canónica se tie-
nen dos conjuntos de variables, X1,X2,...,X; y;
Y1,Y2,...,Yg y se quiere encontrar una combinación II-
p
neal de las primeras W1 = >aiX y una de las segun-
q
das Z1 = flYj de tal modo que W1 y Z1 tengan la
3
máxima correlación. Después se busca otra pareja de
p q
combinaciones lineales W2 = > c2X y Z2 =
i i
de modo que W2 y Z2 tengan la máxima correlación
y sean no correlacionadas con W1 y Z1. El proceso
prosigue buscando nuevas parejas de combinaciones
lineales con máxima correlación entre ellas y no corre-
lacionadas con las anteriores.
Stopher y Meyburg (1979) presentan un ejemplo
de correlación canónica en el estudio de transportes en
camiones de carga, donde X1 = volumen del envío, X2 =
peso del envío, X3 = empacado especial, X4 = manejo
especial. Por otro lado Yj = capacidad del camión, Y2 =
tipo de camión, Y3 = amarrada o no amarrada la carga,
Y4 = propietario, Y5 = número de paradas antes de
cargar, Y6 = número de paradas después de cargar, Y7
= "edad" del camión, Y8 = tiempo de carga o descarga.
La W1 resultó compuesta principalmente por el peso y
volumen de la carga, la Z1 de la capacidad del camión,
tipo de camión y propietario. La correlación entre W1
y Z1 fue de .519. No se estudiaron nuevas parejas por
tener correlaciones bajas. Se concluye tentativamente
que los envíos grandes (en peso o volumen) son más
probables de llevar en camiones comunes y en vehículos
b. ante un individuo, proceso u objeto que no
se sabe a qué poblaciones pertenece, se le
miden las p variables, se calculan sus valores
de D1 y con ellos asignarlo (discriminarlo) a 3.
una población con el mínimo error posible.
que no son propiedad del que envía o recibe.
Otra técnica multivariada de interés es el "análisis
discriminante" en el que se tienen dos o más poblacio-
nes (estudiadas con muestras) de individuos, proceso u
objetos en los que se piden p variables, X1,X2,...,X.
Se quiere encontrar una o más funciones del tipo D1 =
p
a1 X de tal modo que los promedios de las D1 para
ls poblaciones queden lo más separado posible o bien
que los valores de los D1 presenten los mínimos tras-
lapes entre poblaciones. El análisis se hace con dos
objetivos posibles:
a. tipificar qué variables son más importantes
para distinguir las poblaciones, y
Se llama diseío de muestra a la especificación de
la forma en que se va a tomar la muestra y la de formar
estimadores del parámetro de interés con los n valores
de la muestra. Las formas más comunes de tomar la
muestra y que se pueden combinar una con otras son:
Aleatorio Simple.- En donde cada posible
muestra tiene la misma probabilidad de ser
elegida. Los elementos se extraen de
la población con igual probabilidad y sin
reemplazo.
Sistemático.- Se ordenan los elementos y con
un inicio aleatorio entre 1 y K con K = rn
se toma uno de ellos, después del cual se
cuentan K elementos y se toma el siguiente,
se prosigue así hasta tener el tama?ío de
muestra deseado. Si el orden es aleatorio es
equivalente al 1, pero puede ser mejor si hay
un orden no periódico en los elementos.
Estratificado.- Se efectúa una partición de
la población en subconjuntos generalmente
más homogéneos en sus valores entre sí que
en toda la población, llamados "estratos",
y en cada estrato se toma una muestra
independiente. Este método produce muestras
más representativas que los anteriores.
V112.9 Muestreo
El muestreo estadístico abarca aquellas técnicas
encaminadas a conocer alguna propiedad general de un
conjunto finito de seres, procesos u objetos (elementos),
la llamada población. Las propiedades de interés son un
parámetro como el total o promedio de la población para
alguna variable numérica medible en cada elemento
(variable de interés Y) o bien la proporción de elementos
con alguna característica. Por ejemplo, la producción
en número de piezas de una máquina durante un mes,
o bien la proporción de varillas defectuosas en un lote
de producción. Se debe partir de un medio físico que
identifique a todos los elementos de la población (al
número de ellos se le llama N) lo que se denomina
'marco de muestreo".
4. Polietápica- Se forman agrupaciones de ele-
mentos (unidades primarias de muestreo) y
sólo de ellas es necesario un marco de mues-
treo, se toman algunas de ellas como mues-
tra; en ellas se hace un marco particular y se
seleccionan nuevas unidades de muestreo (de
segunda etapa); en ellas se forma un marco
y se seleccionan otras unidades de muestreo
más peque?ías (de tercera etapa). El proceso
continúa hasta muestrear las unidades ele-
mentales o últimas.
Este método aunque más ineficiente (produce
más variación en los estimadores) es más
práctico y barato que el 1 ó 2. Frecuentemente
se combina con el estratificado.
5. PFT..- Si se tiene una variable auxUiar X,
conocida en todos los elementos de la
población, se pueden tomar tos elementos con
probabilidad proporcional al tamao (FF1) de
la X, es decir, con probabilidad Xi. Cuando
hay buena proporcionalidad entre la variable
de interés y la auxiliar, este método produce
poca variación en los estimadores.
Entre las maneras más comunes de formar
estimadores están:
1. El promedio simple de la muestra para estimar
el promedio de la población Y = (para un
total el estimador es Y = N.
Para conocer la proporción de un producto que
no cumple con las especificaciones, los lotes de
producción pueden ser estratos, y las cajas o embalaje
unidades primarias de muestreo; y las cajas o embalaje
unidades primarias de muestreo; dentro de ellas se
tomaría una muestra del producto y se determinan los
que no cumplen con las especificaciones.
El tama?ío de muestra se elige de manera que la
variabilidad de los estimadores y con ella el posible error
de estimación, con elevada probabilidad esté dentro de
límites fijos. Además que sea un diseío de muestreo
práctico y económico.
V112.10 Control de Calidad
De razón. En ocasknes es menos variable el
estimador de R = =Y que el de?, por lo que se
estima 1? mediante A = y se estima Y con
Y = R1', para esto se requiere conocer X el
promedio de la variable auxiliar en la población
y que la X y la Y sean proporcionales.
De regresión. Si la variable de interés depende
de la auxiliar en forma de rregresión linear, se
puede estimar Y, mediante Y = + -
donde Xyson los promedios de la población
y la muestra para la variable auxiliar, y es
el promedio de la muestra en la variable de
interés y b es un estimador del coeficiente de
regresión de Y en X.
Si se quiere evaluar la producción de una máquina
durante un mes, los días pueden ser estratos y
muestrear durante cinco minutos cada cuatro horas
sistemáticamente en un día. Si interesa estimar el total
de agua potable o de electricidad que demanda una
comunidad de personas, se pueden formar estratos
por nivel socioeconómico; en cada estrato muestrear
"manzanas" (o grupos de viviendas en zonas rurales)
y en cada "manzana" muestreada, seleccionar una
muestra de viviendas y en ellas evaluar la demanda.
Una de las aplicaciones más usadas de la
estadística en la industria, es el muestreo repetido del
producto en un proceso de producción, con el objeto
de detectar a tiempo posibles anomalías del proceso,
que hagan que la producción sea de mala calidad.
Usualmente se establecen límites de tolerancia en las
variables numéricas o en la proporción de defectuosos.
Estos límites se tienen en una gráfica en la que se
van estableciendo los valores de muestras periódicas,
contra el tiempo, lo que permite detectar tendencias
hacia desviaciones graves antes que éstas ocurran,
así es posible detener el proceso productivo y ajustarlo
a las especificaciones.
Davies y Goldsmith (1972) comentan el método
de sumas acumuladas (cumsum) para una variable
numérica, si K es el valor deseado en la especificación,
se obtiene Sr = - K) donde son promedios
de muestras sucesivas. Se grafica Sr contra el tiempo
y si S, fluctúa alrededor de cero el proceso está dentro
de control. Si se hace positivo o negativo y va creciendo,
se va saliendo de control. Se puede evaluar la rapidez
de crecimiento (o decrecimiento) al determinar -
Un tratamiento muy sencillo y práctico del control
de calidad se encuentra en Charbonneau y Webster
(1988).
V112.1 1 Datos Categóricos
El análisis de datos categóricos o clasificados tra-
dicionalmente, se concretaba a pruebas de independen-
cia o de tendencias en proporciones mediante pruebas
'i" cuadrada. Recientemente se han usado los modelos
logarítmicos lineales, en los que se modela el logaritmo
de las frecuencias esperadas en cada celda de una ta-
bla de contingencia múltiple, como una suma de efectos
principales e interacciones. Resulta así un análisis se-
mejante a los modelos estadísticos lineales (modelos
de regresión y de dise?íos experimentales), pero en lu-
gar de pruebas de F, se tienen pruebas G de razón de
verosimilitud de estadísticas "ji" cuadrada. Así por ejem-
plo, Fienberg (1977) reporta un estudio para clasificar a
1008 consumidores de detergentes de acuerdo con:
dureza del agua usada (dura, media, blanda);
uso previo de detergente M (SI, NO);
C. temperatura del agua de lavado (fría o caliente);
d. preferencia por etergente X o detergente M
en una prueba.
Se encontró un modelo logarítmico lineal que
asocia la preferencia con la temperatura y con el
uso previo (como interacciones). Además la dureza y
temperatura de lavado tampoco son independientes.
Con la disponibilidad de equipos de computación
cada vez más rápidos y compactos, es posible efectuar
cálculos para evaluar modelos estadísticos con muchas
variables y que requieren técnicas de solución de
los sistemas de ecuaciones no lineales que son
iterativas. Esto ha hecho que proliferen nuevos métodos
estadísticos basados en la llamada técnica "intensiva en
cómputo", tal es el caso de los análisis de residuos para
evaluar modelos, las técnicas de "bootstrap" o "Jacknife"
que procesan la información tomando muchas posibles
submuestras del conjunto de datos disponible.
VIII. BIBLIOGPIAFIA
Anderson, V.L. (1 970) "Restriction errors for linear
models", (An aid to develop models for designed
experiments). Biometrics, 25:255-268.
Anderson, V.L and R.A. Mc Lean (1974) "Design of
experiments: A reatistic approach". Marcel Dekker, Inc.,
Nueva York.
Box G.E.P. and N.R. Draper (1969) "Evolutionary
operation", John Wiley and Sons, Nueva York.
Box G.E.P. (1976) "Science and Statistics". JASA
71: 791-799.
Box G.E.P. (1987) "Empirical model building and
response surfaces". John Wiley and Sons, Nueva York.
Box G.E.P., W.G. Hunter y J.S. Hunter. (1988)
"Estadística para Investigadores". Editorial Reverté,
Espaa.
Brownlee, K.A (1985) 'Statistical theory and
methodology in science and engineering". John Wiley
and Sons, Nueva York
Buhm D. y D. Peat (1988) "Ciencia, orden y
creatividad. Las raíces creativas de la ciencia y la vida".
Editorial Kairos, Barcelona, p. 299
Bunge M. (1986) "Intuición y Razón". Editorial
Tecnos. Madrid p. 175
Charbonneau, H.C. y G.L Webster (1988) "Control
de calidad". Nueva Editorial Interamericana. México, D.F.
Cochran W.G. (1965) 'The planning of observatio-
nal studies of human populations". Jour. Royal. Stat.
Society A Vol. 128: 234-265
Daniel, C. (1976) "Applications of statistics to
industrial experimentation". John Wiley and Sons, Nueva
York.
Davies, O.L. and P.L. Goldsmith Editores (1972)
"Statistical methods in research and production with
special reference to the chemical industry". 4th Edition,
Hafner Publishing Co., Nueva York.
Davies D., T. Banfield y R Sheahan. 'El Técnico
en la Sociedad. Ed. Gustavo Gui, S.A Barcelona (1979).
Dempster, AP. (1 990) "Causality and statistics".
Journai of Statistical Planning and lnference. 25: 261-
278
Fienberg, S.E. (1977) °The analysis of cross-
classified categorical data". The MIT Press, Cambridge
Massachusetts and London.
Gardner, M.J. y D.G. Altman (1986) "Confidence
intervais rather than P values: estimation rather than
hypothesis testing". British Medical Journal 292: 746-
750
González Casanova, P "La falacia de la investi-
gación en ciencias sociales. Estudio de la técnica so-
cial". Editorial Oceano, p. 199 (1987).
Good l.J. (1988) 'The interface between statistics
and philosophy of science". Statistical Science 3: 386-
412
Healy M.J.R. (1 978) 'ls statistics a science?". J.R.
Statist. Soc. A 141: 385-393
Holland, P.W. (1986) "Statistics and causal infe-
rence". Jour. of Amer. Stat. Assoc. 81: 945-960
(comentarios 961-970)
Jeffers, J.N.R. (1967) "Two case studies in the
application of principal components analysis". Applied
Statistics, V. 16, No. 3, 225-236.
Johnson, N. y F.C. Leone (1964) "Statistics and
experimental design in engineering and the physical
sciences", Vol. II, John Wiley and Sons, Nueva York.
Kish Leslie (1987) "Statistical design for research".
John Wiley and Sons. New York, p. 266
Ku Harry H. (editor) (1969) "Precision, Measure-
ment and Calibration. Selected NBS papers on Sta-
tistical Concepts and Procedures", National Bureau of
Standards, Special Publication 300, Washington, D.C.
Latour Bruno (1987) "Science in Action". Harvard
University Press, p. 274
Longino H. (1990) "Science as a social knowledge".
Princeton University Press. p. 262
Maxwell S.E. y H.D. Delaney (1989) "Designing
Experiments and Analyzing Data. A model comparison
perspective". Wadsword Publishing co. California E.U.,
p. 902
Méndez, Rl. (1982) "El papel de la estadística en
la ingeniería". Comunicaciones Técnicas IIMAS-UNAM,
Serie Azul, No. 56.
Méndez, R.l.; Namihira G.P.; Moreno AL y Sosa
de M.C. (1984 la. impresión, 1988 tercera reimpresión)
"El protocolo de investigación. Lineamientos para su
elaboración y análisis". Trillas, México, p. 210
Méndez, Rl. (1986a) "Causalidad en medicina".
Gaceta Médica de México, Vol. 122, Nos. 1 y 2
Méndez, R.I. (1986b) "La estadística y la epide-
miología. Niveles de estudio de la ciencia y aspectos
históricos". Revista de la Facultad de Medicina UNAM
29(6): 261 -266
Méndez, Rl. (1988) "La estructura de la investi-
gación y estadística". Comunicaciones Técnicas lIMAS-
UNAM, Serie Azul, No. 106
Méndez, Rl. (1 989a) "La ubicación de la estadística
en la metodología científica". Ciencia 40: 39-48
Méndez, R.I. (1989b) "Problemas teórico concep-
tuales de la investigación agrícola". Memorias dell Con-
greso Mexicano de Historia de la Ciencia y la Tecno-
logía", Tomo 1, p. 367-374
Méndez, R.I. (1989c) "La investigación en ciencias
sociales y la estadística". Comunicaciones Técnicas
IIMAS-UNAM, Serie Notas, No. 103.
Méndez, Rl. (1989d) "El paradigma cuantitativo
y cualitativo en la investigación". Comunicaciones
Técnicas IIMAS-UNAM, Serie Monografías, No. 110.
Méndez, R.l. (1989e) "El error de restricción en
el dise?o y análisis de experimentos y pseudoexperi-
mentos". Comunicaciones Técnicas IIMAS-UNAM, Serie
Azul, No. 108.
Méndez, Rl. (1990) "Relaciones téoricas y meto-
dológicas entre investigación científica e investigación
tecnológica". Conferencia Magistral, Simposio Nacional
sobre Ciencia y Tecnología, octubre 2, UNAM.
Méndez, R.I. (1990a) "La estadística como ciencia
y su papel en la investigación". Conferencia Plenaria. y
Foro Nacional de Estadística. Jalapa, Ver. septiembre
10-13.
Méndez, R.I. (1 990b) "La relación entre investi-
gación científica e investigación tecnológica". Quipu,
Vol. 7, No. 2, p. 259-271.
Mosterin J. (1981, 3er. reimpresión 1984) "Grandes
temas de la filosofía actual". Temas Clave. Salvat.
Barcelona, p. 63
Payer, L (1990) "Boderline cases. How medical
practice reflects national culture". The Sciences,
July/Aug. 1990, p. 38-42
Regal P.J. (1990) "The anatomy of judgment". The
University of Minnesota Press, p. 368
Sánchez M., D. (1985) "Aproximación a la filosofía".
Colección Salvat Temas Clave. Salvat. Barcelona, p. 63
Sheffé, H. (1 973) "A statistical theory of calibration".
The Annais of Statistics, Vol. 1, No. 1, pp. 1 -37.
Sindermann, Carl, J. (1985) "The joy of science.
Excellence and its rewards". Plenum Press, New York
and London, p. 259
Stopher, P.R. and AH. Meyburg (1979) "Survey
sampling and multivariate analysis íor social scientists
and engineers". Lexington Books, Lexington Massachu-
setts.

Más contenido relacionado

Similar a Ciencia, Técnica y estadística. Algunas de sus aplicaciones en la ingeniería

Pilar ulloa trabajo de capitulos 234 1
Pilar ulloa trabajo de capitulos 234 1Pilar ulloa trabajo de capitulos 234 1
Pilar ulloa trabajo de capitulos 234 1
Pilar Ulloa
 
Emprendedorismo
EmprendedorismoEmprendedorismo
Emprendedorismo
UNIVERSIDAD DE SEVILLA
 
Diap16 noviembre 2013
Diap16 noviembre 2013Diap16 noviembre 2013
Diap16 noviembre 2013
Pettite Doll
 

Similar a Ciencia, Técnica y estadística. Algunas de sus aplicaciones en la ingeniería (20)

La ciencia
La cienciaLa ciencia
La ciencia
 
Pilar ulloa trabajo de capitulos 234 1
Pilar ulloa trabajo de capitulos 234 1Pilar ulloa trabajo de capitulos 234 1
Pilar ulloa trabajo de capitulos 234 1
 
2
22
2
 
Metodologia unsam
Metodologia unsam  Metodologia unsam
Metodologia unsam
 
Epistemología
EpistemologíaEpistemología
Epistemología
 
foro1.pdf
foro1.pdfforo1.pdf
foro1.pdf
 
Ciencia moderna
Ciencia modernaCiencia moderna
Ciencia moderna
 
Actividad Nro 2: Filosofía Científica
Actividad Nro 2: Filosofía CientíficaActividad Nro 2: Filosofía Científica
Actividad Nro 2: Filosofía Científica
 
Emprendedorismo
EmprendedorismoEmprendedorismo
Emprendedorismo
 
Ciencia Y Tecnologia
Ciencia Y TecnologiaCiencia Y Tecnologia
Ciencia Y Tecnologia
 
Revista Digital
Revista DigitalRevista Digital
Revista Digital
 
Bloque I, inv. en enfermería.pptx
Bloque I, inv. en enfermería.pptxBloque I, inv. en enfermería.pptx
Bloque I, inv. en enfermería.pptx
 
el analisis de la realidad en la intervencion social 1234567.pdf
el analisis de la realidad en la intervencion social  1234567.pdfel analisis de la realidad en la intervencion social  1234567.pdf
el analisis de la realidad en la intervencion social 1234567.pdf
 
La ciencia y el proceso de investigación
La ciencia y el proceso de investigaciónLa ciencia y el proceso de investigación
La ciencia y el proceso de investigación
 
La ciencia
La cienciaLa ciencia
La ciencia
 
Que Es La Ciencia2nadiana[1]
Que Es La Ciencia2nadiana[1]Que Es La Ciencia2nadiana[1]
Que Es La Ciencia2nadiana[1]
 
La
LaLa
La
 
Resumen de Mario Bunge trab01
Resumen de Mario Bunge  trab01Resumen de Mario Bunge  trab01
Resumen de Mario Bunge trab01
 
Diap16 noviembre 2013
Diap16 noviembre 2013Diap16 noviembre 2013
Diap16 noviembre 2013
 
Filosofía y Ciencia
Filosofía  y CienciaFilosofía  y Ciencia
Filosofía y Ciencia
 

Más de Academia de Ingeniería de México

Más de Academia de Ingeniería de México (20)

Anomalías de flujo de calor terrestre y la definición de la provincia geotérm...
Anomalías de flujo de calor terrestre y la definición de la provincia geotérm...Anomalías de flujo de calor terrestre y la definición de la provincia geotérm...
Anomalías de flujo de calor terrestre y la definición de la provincia geotérm...
 
Nanoscale Properties of Biocompatible materials
Nanoscale Properties of Biocompatible materialsNanoscale Properties of Biocompatible materials
Nanoscale Properties of Biocompatible materials
 
Ground deformation effects on subsurface pipelines and infrastructure
Ground deformation effects on subsurface pipelines and infrastructureGround deformation effects on subsurface pipelines and infrastructure
Ground deformation effects on subsurface pipelines and infrastructure
 
Engineering the Future
Engineering the FutureEngineering the Future
Engineering the Future
 
From force-based to displacement-based seismic design. What comes next?
From force-based to displacement-based seismic design. What comes next?From force-based to displacement-based seismic design. What comes next?
From force-based to displacement-based seismic design. What comes next?
 
Impact of Earthquaker Duration on Bridge Performance
Impact of Earthquaker Duration on Bridge PerformanceImpact of Earthquaker Duration on Bridge Performance
Impact of Earthquaker Duration on Bridge Performance
 
New Paradigm in Earthquaker Engineering of Bridges-Resilient, Fast, Recyclable
New Paradigm in Earthquaker Engineering of Bridges-Resilient, Fast, RecyclableNew Paradigm in Earthquaker Engineering of Bridges-Resilient, Fast, Recyclable
New Paradigm in Earthquaker Engineering of Bridges-Resilient, Fast, Recyclable
 
Derivación y aplicación de un Modelo de Estimación de Costos para la Ingenier...
Derivación y aplicación de un Modelo de Estimación de Costos para la Ingenier...Derivación y aplicación de un Modelo de Estimación de Costos para la Ingenier...
Derivación y aplicación de un Modelo de Estimación de Costos para la Ingenier...
 
Economic Assessment and Value Maximizations of a Mining Operation based on an...
Economic Assessment and Value Maximizations of a Mining Operation based on an...Economic Assessment and Value Maximizations of a Mining Operation based on an...
Economic Assessment and Value Maximizations of a Mining Operation based on an...
 
Desarrollo de la Ingeniería de Proyecto como un cambio de paradigma en México
Desarrollo de la Ingeniería de Proyecto como un cambio de paradigma en MéxicoDesarrollo de la Ingeniería de Proyecto como un cambio de paradigma en México
Desarrollo de la Ingeniería de Proyecto como un cambio de paradigma en México
 
El mundo real y la interdisciplina
El mundo real y la interdisciplinaEl mundo real y la interdisciplina
El mundo real y la interdisciplina
 
Desarrollo de Indicadores de Desempeño para Centrales Nucleares
Desarrollo de Indicadores de Desempeño para Centrales NuclearesDesarrollo de Indicadores de Desempeño para Centrales Nucleares
Desarrollo de Indicadores de Desempeño para Centrales Nucleares
 
Administración de activos físicos: Nuevos paradigmas para la conservación de ...
Administración de activos físicos: Nuevos paradigmas para la conservación de ...Administración de activos físicos: Nuevos paradigmas para la conservación de ...
Administración de activos físicos: Nuevos paradigmas para la conservación de ...
 
Creación de capacidades de Innovación en México desde la perspectiva de la em...
Creación de capacidades de Innovación en México desde la perspectiva de la em...Creación de capacidades de Innovación en México desde la perspectiva de la em...
Creación de capacidades de Innovación en México desde la perspectiva de la em...
 
Modelo educativo para la industria 4.0
Modelo educativo para la industria 4.0Modelo educativo para la industria 4.0
Modelo educativo para la industria 4.0
 
Proceso de optimización de reservas minables de un depósito de oro orogénico
Proceso de optimización de reservas minables de un depósito de oro orogénicoProceso de optimización de reservas minables de un depósito de oro orogénico
Proceso de optimización de reservas minables de un depósito de oro orogénico
 
El camino real de la plata
El camino real de la plataEl camino real de la plata
El camino real de la plata
 
Importancia de la Geomecánica petrolera profunda
Importancia de la Geomecánica petrolera profundaImportancia de la Geomecánica petrolera profunda
Importancia de la Geomecánica petrolera profunda
 
Tecnología de captura, uso y almacenamiento de CO2 (CCUS) con registros geofí...
Tecnología de captura, uso y almacenamiento de CO2 (CCUS) con registros geofí...Tecnología de captura, uso y almacenamiento de CO2 (CCUS) con registros geofí...
Tecnología de captura, uso y almacenamiento de CO2 (CCUS) con registros geofí...
 
Modelo conceptual para el pronóstico del funcionamiento hidráulico del sistem...
Modelo conceptual para el pronóstico del funcionamiento hidráulico del sistem...Modelo conceptual para el pronóstico del funcionamiento hidráulico del sistem...
Modelo conceptual para el pronóstico del funcionamiento hidráulico del sistem...
 

Último

4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
nicolascastaneda8
 
tesis maíz univesidad catolica santa maria
tesis maíz univesidad catolica santa mariatesis maíz univesidad catolica santa maria
tesis maíz univesidad catolica santa maria
susafy7
 
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdfLA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
bcondort
 

Último (20)

4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
4º Clase Laboratorio (2024) Completo Mezclas Asfalticas Caliente (1).pdf
 
Desigualdades e inecuaciones-convertido.pdf
Desigualdades e inecuaciones-convertido.pdfDesigualdades e inecuaciones-convertido.pdf
Desigualdades e inecuaciones-convertido.pdf
 
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADOPERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
 
tesis maíz univesidad catolica santa maria
tesis maíz univesidad catolica santa mariatesis maíz univesidad catolica santa maria
tesis maíz univesidad catolica santa maria
 
UNIDAD II 2.pdf ingenieria civil lima upn
UNIDAD  II 2.pdf ingenieria civil lima upnUNIDAD  II 2.pdf ingenieria civil lima upn
UNIDAD II 2.pdf ingenieria civil lima upn
 
Lineamientos del Plan Oferta y Demanda sesión 5
Lineamientos del Plan Oferta y Demanda sesión 5Lineamientos del Plan Oferta y Demanda sesión 5
Lineamientos del Plan Oferta y Demanda sesión 5
 
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdfLA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
 
Controladores Lógicos Programables Usos y Ventajas
Controladores Lógicos Programables Usos y VentajasControladores Lógicos Programables Usos y Ventajas
Controladores Lógicos Programables Usos y Ventajas
 
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICAINTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
 
Sesion 6 _ Curso Integrador II_TSZVQJ.pdf
Sesion 6 _ Curso Integrador II_TSZVQJ.pdfSesion 6 _ Curso Integrador II_TSZVQJ.pdf
Sesion 6 _ Curso Integrador II_TSZVQJ.pdf
 
Quimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdfQuimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdf
 
Maquinaria Agricola utilizada en la produccion de Piña.pdf
Maquinaria Agricola utilizada en la produccion de Piña.pdfMaquinaria Agricola utilizada en la produccion de Piña.pdf
Maquinaria Agricola utilizada en la produccion de Piña.pdf
 
Gestion de proyectos para el control y seguimiento
Gestion de proyectos para el control  y seguimientoGestion de proyectos para el control  y seguimiento
Gestion de proyectos para el control y seguimiento
 
Six Sigma Process and the dmaic metodo process
Six Sigma Process and the dmaic metodo processSix Sigma Process and the dmaic metodo process
Six Sigma Process and the dmaic metodo process
 
CALCULO SISTEMA DE PUESTA A TIERRA PARA BAJA TENSION Y MEDIA TENSION
CALCULO SISTEMA DE PUESTA A TIERRA PARA BAJA TENSION Y MEDIA TENSIONCALCULO SISTEMA DE PUESTA A TIERRA PARA BAJA TENSION Y MEDIA TENSION
CALCULO SISTEMA DE PUESTA A TIERRA PARA BAJA TENSION Y MEDIA TENSION
 
Ficha Tecnica de Ladrillos de Tabique de diferentes modelos
Ficha Tecnica de Ladrillos de Tabique de diferentes modelosFicha Tecnica de Ladrillos de Tabique de diferentes modelos
Ficha Tecnica de Ladrillos de Tabique de diferentes modelos
 
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJODIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
 
QUIMICA GENERAL UNIVERSIDAD TECNOLOGICA DEL PERU
QUIMICA GENERAL UNIVERSIDAD TECNOLOGICA DEL PERUQUIMICA GENERAL UNIVERSIDAD TECNOLOGICA DEL PERU
QUIMICA GENERAL UNIVERSIDAD TECNOLOGICA DEL PERU
 
APORTES A LA ARQUITECTURA DE WALTER GROPIUS Y FRANK LLOYD WRIGHT
APORTES A LA ARQUITECTURA DE WALTER GROPIUS Y FRANK LLOYD WRIGHTAPORTES A LA ARQUITECTURA DE WALTER GROPIUS Y FRANK LLOYD WRIGHT
APORTES A LA ARQUITECTURA DE WALTER GROPIUS Y FRANK LLOYD WRIGHT
 
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
 

Ciencia, Técnica y estadística. Algunas de sus aplicaciones en la ingeniería

  • 1. c~ae.:~ íDI CIENCIA, TECNICA Y ESTADISTICA. ALGUNAS DE SUS APLICACIONES EN LA INGENIERÍA Presentado por: Dr. Ignacio Méndez Ramírez Ponencia de Ingreso a la Academia Mexicana de Ingeniería 09
  • 2. 1. INTRODUCCION Con motivo de mi ingreso a la Academia Mexicana de Ingeniería, he tomado varias de mis conferencias anteriores (Méndez 1 990a y 1990b) para poder dar un panorama amplio de la ciencia, la técnica y la estadística con sus posibilidades de aplicación a la ingeniería (Méndez 1982). resaltar cuales son las caracterizaciones de lo que es la ciencia. Esto hace que no sea posible delimitar claramente cuándo hablamos de ciencia y cuándo de la filosofía de la ciencia. Sánchez, M. (1985, p. 51) considera: "Cuando empleamos hoy el vocablo ciencia solemos designar al mismo tiempo dos cosas: un determinado modo de conocer y el cuerpo estructurado de las proposiciones obtenidas de ese modo; ciencia C8 tanto un proceso especifico de investigación como la estructura o cuerpo de verdade8 que esa inve8tigación origina". Para poder comentar sobre la estadística como ciencia, su papel en la investigación y sus aplicaciones en ingeniería; emprendí, en la primera parte de este trabajo, una búsqueda de los aspectos esenciales de la ciencia y la técnica; marco bajo el cual pretendo encuadrar la estadística. Finalmente, se plantean algunas aplicaciones de la estadística a la Ingeniería. Procuré evitar en lo posible, recurrir a mis ensayos previos sobre filosofía y metodología de la ciencia y su relación con la estadística [Méndez (1986a, 1988b, 1988,1 989a, 1989b, 1 989c, 1 989d)]. Para esto realicé una búsqueda bibliográfica de definiciones y conceptos. Hago uso de citas por dos motivos: recurrir al viejo principio (rechazado por la ciencia de modo formal) de autoridad, y lo más importante, mostrar que son ideas y conceptos en su mayoría de los últimos a?íos. Esto es relevante porque sostengo que la estadística está en un proceso lento de adecuación a los nuevos conceptos, métodos y filosofía de la ciencia. Precisamente a partir de esta adecuación surgen nuevas formas de valorar y usar la estadística. IL CIENCIA Existen muchas definiciones de ciencia, de modo que no intentaré encontrar la mejor; es preferible Sin embargo, hay autores que además del contenido y el método, agregan otro componente: Campbel (1953, pl) considera dos aspectos de la ciencia: "... la ciencia es un cuerpo de conocimientos prdcticos y t1tiles, y un método para obtenerlos". El otro es, "ciencia es un estudio puramente intelectual, cuyo objetivo es sati8facer las necesidades de la mente y no las del cuerpo; atrae a nada sino a la curiosidad desinteresada de la humanidad. Estas son la ciencia prdctica y la ciencia pura". Más adelante (p. 27), el mismo autor establece: "Ciencia es el e8tudio de C808 juicios re8pecto a los cuales se puede obtener consenso universal» ... "cualquier experiencia que no sati8face el criterio estricto de consen8o universal, aunque pueda ser valiosa como experiencia, no forma parte del material de la ciencia». Hay ciertas relaciones entre eventos relativas a las cuales todos los hombres están de acuerdo. Esas relaciones en términos de causas y efectos son las llamadas leyes de la naturaleza, que es lo que estudia la ciencia. La ciencia comienza con leyes y a partir de ellas encuentra otras leyes usualmente más generales. Las cosas entre las cuales la ciencia determina relaciones invariables son ellas mismas caracterizadas por otras propiedades invariables asociadas.
  • 3. Antes de comentar más los aspectos del con- senso universal sobre las leyes de la naturaleza, abordo el aspecto biológico del proceso científico. Se considera que el proceso de aprendizaje es continuo desde organismos unicelulares hasta el hombre. Los hombres poseemos un aparato raciomorfo, semejante al de muchos animales, que nos permite percibir regularidades. Así Mosterin, J. (1984, p. 11) establece: "Nuestro cerebro, ass' como todo nuestro aparato nervioso 8enso- rial, han evolucionado para captar aquello8 rasgos del mundo que más conviene conocer para a8egurar nuestra supervivencia. Percibimos el mundo real, pero defor- rnado utilltaristamente en función de las necesidades de nue8tra especie". Después de este aparato raciom orfo, se desarrollan reflejos condicionados y la capacidad de razonar, es decir, entre otras cosas, de establecer conceptos, ideas y generalizaciones, a nivel individual. Al integrarse esto a una sociedad con características culturales dadas, produce el llamado sentido común. Cuando se quiere que el conocimiento sea más obje- tivo y verdadero surge la ciencia. Dinamos que esto se consigue en forma social. La siguiente cita nos aclara los aspectos sociales de la ciencia. Mosterin, J. (1984, p. 18) " ... actualrnente asociamos la palabra ciencia no con cualquier saber, sino con un saber colectivo, producido y transmitido por especialistas, expre8ado en un lenguaje preciso, controlado por rne'todos páblicos, y susceptible de ser utilizado para la explicación de los hecho8 pasados y la predicción de los futuros". ... "La ciencia es una compleja actividad 8ocial, que se lleva a cabo por parte de las comunidades científicas establecidas en las universidades y centros de investigación, y cuyos resultados se presentan en congreso8, revistas especializadas, y libros de texto. Esto8 resultados 80n, por un lado, descripcione8 o historias detalladas de ciertas áreas de la realidad observada8 con detenimiento o provocadas en los laboratorios, y, por otro, teorías ab8tractas que pueden ser usadas como ifl8trumentos intelectuales en la explicación de los datos registrado8 en la historia o en la predicción de futuras ob8ervaciones o de los resultados de futuros experimentos o en el diseiío de nuevas tecnologías o aparatos. Los resultados expuestos por los científicos son ptblicos y están sometidos al análisis, la crítica y el control de todo el mundo y en especial de los colegas, ávidos de refutar los resultado8 de sus companeros para así elevar su propio prestigio dentro de la comunidad científica". Los científicos desarrollan las teorías de las estructuras que ellos creen ver realizadas en los sistemas físicos, económicos, etc. con los que se enfrentan. Pero una cosa es que ellos crean que esos sistemas son modelos de aquellas teorías y otra es que lo sean de verdad. Si descubren que no lo son, pierden todo interés por la correspondiente estructura y cambian de teoría, modificando la anterior en el sentido que más les parezca para ofrecer esperanzas de que las mismas se realicen en el sistema estudiado. Con ello la teoría no ha quedado refutada, sino sólo arrinconada. 112 Objetividad, Subjetividad y Verdad Bohm y Peat (1988, p. 69) seFialan, "La actividad fundamental de la ciencia es el pen8arniento que surge de la percepción creativa y se expresa mediante el juego. Esto origina un proceso en el que el pensamiento se despliega en conocimiento provisional, que pasa después a acción para convertirse en nueva percepción y conocimiento... El hecho de que este conocimiento pueda proporcionar orden a la experiencia, e incluso predecir de manera correcta nuevos tipos de experiencia, muestra que de alguna manera tiene que estar directamente relacionado con una realidad situada md8 allá del conocimiento mismo ... toda btís queda de un conocimiento absoluto y determinado es pura ilusión, ya que todo conocimiento nace de la actividad cambiante de la percepción creativa, el juego libre, la exposición a
  • 4. la acción y su retorno corno experiencia". En relación a la pretendida objetividad absoluta que pretendía el positivismo, ahora debemos tomar en cuenta la llamada objetividad intersubjetiva. Aquí de nuevo la siguiente cita es muy ilustrativa (Regal 1990,p78): «La ciencia comienza con conceptos que son postulados cuidadosos y verificables acerca de propiedades físicas o relacionales de las cosas, intenta construir con ello8 temas más difíciles. La ciencia es un proceso poderoso, nece8ario y complejo, no un cuerpo de verdades absolutas. Su cuerpo de hechos es de confiabilidad muy heterogénea. Algunos están firmemente establecidos, otro8 son muy tenues. Sin un profundo conocimiento de la heterogeneidad de la confiabilidad científica es muy fácil subestimar o sobreestimar el significado de los hechos, leyes, o pensamientos científicos, y lo que significa la objetividad científica". «Los puntos de vista objetivos sobre el mundo son los que pueden ser comunicados por medio de lenguajes comunes, robustos y probados aunque evolucionando constantemente, que están abiertos a críticas pensadas y luchan por estar libres de sesgos por voluntad, autocomplacencia o super8tición. Las ideas están en tal forma que pueden sostenerse o caer por sus propios méritos - no están únicamente soportadas por las experiencias internas o creencias de alguno. Se espera que sean las mejores opiniones dado8 los datos disponibles." Longino (1990, p76) da un tratamiento muy com- pleto de la objetividad; por ejemplo, "He argumen- tado que dos cosas se requieren para la objetividad, la crítica desde puntos de vista alternativos y la sujeción de hipótesis y razonamiento evidencial a un escrutinio crítico, esto es lo que ¡imita la intrusión de preferencias subjetivas en el conocimiento científico"... "La objeti- vidad, por tanto, resulta ser un asunto de grado. Un método de inquirir es objetivo en el grado que permita criticismo transformativo. Su objetividad consiste no únicamente en la inclusión de criticismo intersubjetivo pero en el grado en que tanto sus procedimientos como sus resultados son responsivos a la clase de criticismo descrito"... «Las comunidades científicas serán objeti- vas en el grado en que satisfagan cuatro criterios ne- cesarios para la dimensión tran8formadora del discurso crítico: (1) Debe haber formas reconocidas para la crítica de la evidencia, los métodos, los supuestos y los razona- mientos; (2) Deben existir estándares compartidos que pueden ser invocados por los críticos; (8) La comunidad como un todo debe responder a esas críticas, y (.) La autoridad intelectual se debe compartir de igual modo entre los calificados que practican la disciplina". 113 Método Científico Al comentar la difundida fábula según la cual los científicos usan los procedimientos inductivos y deductivos prescindiendo de la intuición, y acaso también del talento; Bunge (1986, p. 93) se?iala, "Pocas cosas hay tan ridículas e ineptas que esta caricatura del trabajo científico. Quien quiera que haya trabajado alguna vez en ciencia sabe que el científico, sea matemático, naturalista o sociólogo, hace uso de todos los mecanismos psíquicos y que no es capaz de controlarlos todos ni puede determinar siempre cuál ha intervenido en cada caso. En cualquier trabajo científico, desde la búsqueda y el planteo del problema hasta el control de la solución, y desde la invención de las hipótesis-guías, hasta su elaboración deductiva, intervienen la percepción de las cosas, acontecimientos y signos; la imaginación o representación visual; la formación de conceptos de diverso grado de abstracción; la comparación que lleva a establecer analogías y la generalización inductiva junto con la loca conjetura; la deducción, tanto formal corno informal; análisis toscos y refinados, y probablemente muchas otras maneras de formar, combinar, y rechazar ideas, pues digamos de paso, la ciencia está hecha de ideas y no de hechos". Así, Sinderman (1985,p. 8-9) establece, «Entre- mezcladas con ideas y sugerencias -y difíciles de dis- tinguir claramente de ellas- está la conducción de in- ve8tigaciones mediante experimentación y observación.
  • 5. Las ideas y sugerencias 80fl por 8upue8tO loa pnncipale8 fundamentos de la investigación, pero tienen que estar acompanadas por la acción- mediante colección de datos y andlzss. Las ideas y la acción siguen camzno8 paralelos con frecuente8 cruzamientos y reforzamientos mutuos. El dise?io experimental (dise?ío de investigación) se muestra como una ventana movible por la que se mira el verdadero estado de la naturaleza. La posición (su grueso y color) en cada etapa, está motivada por las creencias, esperanzas y miedos. (Box G.E.P. 1976). Muchos profeasonales re8petados han desarrollado una serie de guías o consejos no e8critos que casi tncon8cienternente usan en 8u investigación". En relación a la contrastación de hipótesis y el papel del diseío experimental, Box (1976) ha elaborado un diagrama muy ilustrativo. Este se reproduce a continuación, pero aclaro que lo que él considera válido para la investigación experimental, lo extiendo a la investigación no experimental. Nótense también los aspectos subjetivos en el dise?ío. DI,,o Ep.r,m,ntiI D (disilo di lo lpc6o) Vwdad,ro sotad. 4. Ii I.i.rIIu Roldo Dato. Dito, t1j.i rioiplsza Noiva. DliporibLu A,ílt.l, di Dalai HIpdt.ats .odlflc*d I.docdóu + EiTo.'., do 14511 Co,,. ada, H1p64.Ñ 1 ) 1 si d,Kj D,dacdéi DiarimI O, Boo (tilO) aoCe Dls.to ExP@flrhtntti UI. CIENCIA ESTADISTICA Una pregunta que podemos plantear es si la estadística es una ciencia o no o es. Considero que no hay una respuesta definitiva, sin embargo me inclino a pensar que sí lo es. En algunas de las citas de esta sección, donde aparece ciencia estadística, he subrayado este concepto para resaltar que el autor citado, así lo considera. Para ubicar a la estadística como ciencia, parto de los siguientes aspectos: se tiene un objeto de conocimiento bien definido, los fenómenos aleatorios. Se tiene una serie de conceptos científicos claros con los que se pueden establecer teorías, usualmente en términos matemáticos; por ejemplo, la ley de grandes números, el concepto de funciones de distribución y sus propiedades, etc. Además, hay métodos generales aunque no se usen siempre, como métodos de estimación, de construcción y comparación de modelos (pruebas de hipótesis), los métodos de análisis de datos (Tukey), etc. Existe una comunidad internacional de personas dedicadas a investigar sobre los aspectos anteriores, que someten a crítica y validan los resultados de sus miembros. Podremos distinguir claramente dos fases en la estadística, la parte formal, que comunmente se conoce como estadística teórica, estadística matemática o teoría de probabilidad, que como las matemáticas en general, trata con conceptos abstractos y a partir de ciertos axiomas deduce un gran número de consecuencias. Por otro lado, está la estadística aplicada, que busca la aplicación de los conceptos y teoremas a casos concretos de fenómenos aleatorios. Esta última actividad puede llamarse justamente "matemáticas aplicadas". El objetivo fundamental de la misma es encontrar los modelos que describan mejor algún aspecto particular de la realidad, en parte para entenderla mejor, en parte para poderla controlar o modificar, o por lo
  • 6. menos para efectuar predicciones con poco error. En esta última actividad es necesaria la interfase con otras ciencias como la biología, ingeniería, química, medicina, sociología, etc. Otro aspecto importante es el llamado "análisis de datos", que aunque formalmente no provee modelos, sí busca describir la estructura o características relevantes de un conjunto de datos. Como se expuso en la sección sobre la ciencia, cualquier área científica se encuentra fuertemente in- fluenciada por los aspectos filosóficos de la misma. Así también la estadística y las llamadas "escuelas" o tipos de razonamiento estadístico, surgen al darle más pre- ponderancia a uno u otro aspecto de la filosofía. En el texto de Dempster (1990,p. 264) se tiene, "Una posición realista trata los fenómenos que la ciencia pretende en- tender como si tuvieran una existencia objetiva dura en el mundo exterior, entonces la ciencia alcanza la objeti- vidad por la concentración en la construcción de reflejos exactos de la realidad objetiva. Lo8 e8tadísticos de e8ta posición son más propensos a enfatizar lo deseable de explicar los fenómenos estadísticos ezclu8ivarnente me- diante frecuencias calculables en rnuestra8 grandes (long run), en principio a base de conteos y medicione8 obje- tivas, con la idea de obtener una verdad real y objetiva» "otros racionalistas buscan la verdad en la forma de sistemas de axiomas que pueden ser percibidos di- rectamente como objetivamente válido8 y cuyas conse- cuencias incluyen todos los razonamientos correctos re- queridos para generar conocimiento científico. Los mo- dernos Bayesianos a menudo argumentan su caso so- bre estas bases. !víi punto de vista es que entender la axiomática es menos importante filosóficamente y cier- tamente no los desplaza, que los esfuerzos para explicar el complejo sistema de construcción de modelo8 y los tra- bajos de inferencia que constituyen el razonamiento so- bre los fenómenos. El empirismo entra en la estadística mediante la ética muy difundida que los estadísticos de- ben limitarse a reportar y analizar hechos. Una posición correlativa fuertemente atrincherada en el campo es que la ciencia de la estadística está dedicada casi exclusiva- mente a especificar métodos de análisis estadístico para cada esquema de colección de datos. En particular, el método inductivo del empirismo clásico se reduce a un estudio extenso de las propiedades de los métodos. En- cuentro asombroso la ausencia de razonamientos sobre las circunstancias actuales, de esta difundida manera de la práctica e8tad(stica". La inferencia estadística es un caso particular de inducción y por tanto comparte los problemas de esta forma de adquirir conocimiento. Toda la discusión filosófica de Hume, Kant y Popper entre otros, afecta a la inferencia estadística. En particular, el hecho de que una generalización empírica (por ejemplo, el uso de la distribución normal tan común en estadística) no es verificable pero sí es falsificable. Esto implica que una ley empírica es susceptible de ser sometida a prueba, a pesar de que no se pueda probar su validez Se somete a prueba mediante los intentos sistemáticos de refutarla o rechazarla. Una buena parte de los resultados de la estadística tienen bases teóricas, pero otros no; sin embargo, ambos tipos se usan empíricamente si se demuestra que tienen utilidad en su aplicación al mundo real. De acuerdo al criterio de demarcación de Popper, la estadística es una ciencia. Porque sus teorías y con- ceptos pueden ser sometidos a prueba al contrastar- los con la realidad. Esto se refiere fundamentalmente a la utilidad de los modelos para representar la reali- dad. Algo muy reciente es el hecho de que algunas conjeturas estadísticas que no pueden ser derivadas matemáticamente a partir de axiomas básicos, pueden ser "contrastados con la realidad" al simular fenómenos aleatorios en una computadora. A esto último, ex- tendiéndolo, le han llamado la forma de hacer experi- mental la matemática. Box en su artículo "Science and Statistics" (1976), diserta sobre las relaciones entre la ciencia y la estadística; de ese excelente trabajo tomo algunas citas: "Al aplicar las matemáticas a temas como la física o la estadística hacemos suposiciones tentativas sobre el mundo real que sabemos que son falsas pero
  • 7. que de todos modos son titiles" ... «el estadíat:co 8abe por ejemplo, que en la naturaleza nunca ha exzstzdo una distribución normal, nunca ha habido una línea recta, sin embargo con la normal y suposicione8 de linearidad, que se conoce que 80n falsas, a menudo se derivan resultados que corresponden en un grado de aproximación t1til con los encontrados en el mundo real. Se desprende que no podremos estar seguros de que una técnica estadística que de8arrollernos sea útil, hasta que la usemos. Los grandes avance8 en la ciencia y en la ciencia de la estadí8tica en particular ocurren usualmente, entonces, como re8ultado de la iteración teórica-prdctica». A pesar de que la gran mayoría de los filósofos y estadísticos consideran ciencia a la estadística, hay algunos que no están de acuerdo y que la ubican como una técnica, así por ejemplo Healy (1978, p. 391) establece, «como un estadístico profesional creo que la distinción y balance entre ciencia y tecnología es un a8unto vital para nuestra profesión... Propongo que hay principios tecnológicos generales que son aplicables a lo largo de grandes dreas de investigación; esos principios, la tecnología de la investigación misma, consisten en la metodología estadística. Como estadísticos, ciertamente como estadísticos aplicados, mejor pensamos de no8ot ros no como matemdticos ni como científicos, sino como tecnólogos". Vemos así que Healy considera que el estadístico es el tecnólogo de la investigación científica. Sin embargo, para que el trabajo de "tecnólogo" de la investigación pueda ser satisfactorio, se deben conocer los aspectos teóricos de la estadística y del área de aplicación; esto desde mi punto de vista, esto hace que el estadístico aplicado debe ser un científico para que pueda producir nuevos conocimientos en el área de aplicación y preferiblemente también en la estadística. IV. PAPEL DE LA ESTADISTICA EN LA INVES- TIGAC ION IV.1 Estrategias generales Ante las consideraciones de lo que es ciencia y las recomendaciones metodológicas, expuestas en el apartado II; queda claro que la estadística se convierte en una "ayuda" más al proceso de la investigación científica. Sin embargo, para que ésta sea efectiva deben borrarse las diferencias entre lo que es la estadística y la ciencia en la que se aplica. Es decir, los planteamientos de supuestos, hipótesis, métodos de investigación específicos, formas de medir y evaluar resultados, etc.; deben hacerse combinando los conceptos y métodos del área de estudio con los de la estadística, sin que exista una división clara. La estadística no debe convertise solamente en la validadora de resultados cualitativos, ni la que determine totalmente el diseio de la investigación. Ciertamente en muchas investigaciones puede contribuir a una mejor conceptualización del problema, a un diseío con más correspondencia entre los postulados y supuestos teóricos, dentro de las restricciones prácticas; a un mejor análisis de resultados; y a una obtención de conclusiones que ponderen de mejor manera los resultados, por un lado y por otro las hipótesis conceptos, ambos mediados por el dise?ío de la investigación. En relación a estas consideraciones es útil reforzar el punto con algunas citas: Maxwell y Delaney (1989, p. 5) establecen, "Los datos no se pueden colectar sin algunas ideas preexi8tentes acerca de lo que puede ser relevante, debido a que son esas decisiones las que determinan las variables a manipularse o medirse en un diseno experimental particular. No hay fórmulas lógicas que le digan a un científico qué variables en particular deben ezaminarse en un estudio... Similarmente, los patrones observados en un conjunto de datos catón influenciados por las ideas que el investigador trae a la investigación...
  • 8. Aunque 108 análisis estadí8ticos pueden objetivizar en alguna medida el proceso de buscar patrones en 108 datos, los métodos estadísticos aunque estén correctamente aplicados, no aseguran que se encuentren las forma8 más apropiadas para organizar los datos». Por su parte Dempster (1990, p. 269) se?íala, "La práctica actual, espec2almente en e8tadí8tica, siempre involucra esquemas de colección de datos imperfecta- mente controlados, que reflejan fenórrzenos de gran com- plejidad. El análisis preformal entonces debe proceder a tamizar entre muchas imágenes causales hipotéticas, que pueden ser acomodada8 en una red de efecto8 inte- ractuantes para explicar parcialmente el funcionamiento de fenómenos aparentemente aleatorios». Como un ejemplo claro de que la práctica de la investigación científica se ve afectada por la predominancia o no de una determinada posición filosófica, Payer (1990, p. 40) comenta, "En la medicina francesa la tradición intelectual se ha de8crito a menudo como racionalista, dominada por la metodología de su más grande filósofo René De8cartes... Sin embargo en otros lados, el pensamiento Cartesiano no se ve tan favorablemente, ya que a menudo se manifiesta como una teoría elegante respaldada por evidencia e8casa" "más recientemente, los trabajadores médico8 france8es en una conferencia de prensa, anunciaron el uso de ciclo8porina para tratar el SIDA - aunque sus re8ultados se basaron en una tnica semana de uso de droga por justamente seis pacientes. Los iflVe8tigadore8 y editorialistas americanos podían haber estado menos perplejos por este anuncio, si hubieran entendido que en Francia, la evidencia o resultados no son tan importantes como el grado de sofisticación del enfo que intelectual». Esto indica además que el tama?o de la muestra puede ser menor para una posición más de tipo racionalista que para una con mayor componente empirista. Así, Box (1976) indica, "La retroalimentación entre teoría y práctica requiere un ciclo cerrado. Cuando por alguna razón el ciclo se rompe, el progreso se detiene. Las enfermedades que pueden resultar pueden llamarse "libro de cocina» y «maternatiquería". Los síntomas de la primera son la tendencia a forzar todos los problemas dentro de los moldes de una o dos técnicas rutinarias, con poca reflexión sobre los objetivos reales de la investigación o la relevancia de los supuestos que requieren los métodos impuestos. La "rnatematiquería" se caracteriza por el desarrollo de la teoría por la teoría misma, que como rara vez baja a tocar la práctica, tiene la tendencia a redefinir los problemas en lugar de re8olverlo8". Finalmente, Box establece, "Continuará aumentando la demanda por estadísticos competentes que puedan expulgar los hechos mediante el análisis de datos, la planeación de investigaciones, y el desarrollo de las necesarias nuevas teorías y técnicas». Dempster (1990, p. 262) apunta, "Los es- tadísticos participan directa o indirectamente en des- arrollos científicos en muchas áreas donde se aplica la metodología científica, de modo que están en buena po- sición para desarrollar una filosofía de la ciencia, inclu- yendo la ciencia estadística, que está de acuerdo con las realidade8 de la práctica». .... Más adelante (p. 263) continúa, "la estadística se desarrolla con mucha filo- sofía, mucha de ella tácita, y la mala filosofía es mejor evitarla haciéndola explícita». Considero que un es- tadístico al participar tanto en la parte formal de la ciencia, los aspectos lógicos de las derivaciones ma- temáticas, como en la parte aplicada; puede y debe te- ner un panorama amplio de lo que es la investigación y en consecuencia poder criticar y proponer nuevos métodos y posiciones filosóficas. Un buen número de estadísticos han sido excelentes científicos y filósofos, baste citar a K. Pearson, R.A Fisher, G. Box y D. Cox, entre muchos otros. Los Modelos Estadísticos deben construirse a partir de los siguientes aspectos: a. Conjeturas derivadas de las preguntas o teorías que propone el investigador.
  • 9. Información sobre la forma en que fueron co- lectados los datos. El 'dise?o" de investi- gación. Información adicional y/o conjeturas sobre la naturaleza del fenómeno que se modela'. En la estadística aplicada un modelo estadístico no es un 'constructo" matemático de los estadísticos, sino que debe ser la traducción de las ideas y conocimientos de los investigadores a una forma estadística. Como vemos, el uso que hace la estadística aplicada de aspectos teóricos y prácticos, de la inducción y deducción, la objetividad y la subjetividad, no difiere de la de otras ciencias prácticas. Es importante sealar que el modelaje estadístico, para un problema de investigación, requiere de los aspectos teóricos de los modelos, su lógica, su construcción y limitaciones; pero también mucho de los conocimientos teóricos y prácticos de la ciencia a la que se aplican. Los científicos requieren de la estadística como un auxilio para contestar las preguntas o contrastar las hipótesis que se han planteado. Sin embargo los textos de estadística presentan los métodos estadísticos según los supuestos distribucionales y de muestreo. Por ejemplo, para comparar dos promedios, presentan la prueba de z, cuando las distribuciones son normales y se conocen las varianzas, la prueba de t, cuando no se conocen (con sus variantes), la de Kruskai-Wailis cuando no hay normalidad y las muestras son chicas; algunos textos hacen la liga con el Análisis de Varianza, el cual vía reparametrización puede también tratarse con regresión múltiple. Algunos textos pueden introducir métodos robustos y/o distintas maneras para investigar si se cumplen o no, los supuestos de los métodos mencionados. Ante esta diversidad de posibilidades es muy difícil que un científico con conocimientos superficiales de estadística pueda seleccionar el o los métodos más adecuados para su investigación. Aquí, el papel de un estadístico será entender el problema, identificar qué se requiere; por ejemplo, comparar dos promedios, averiguar el dise?ío con que se colectaron los datos (o mejor aún participar en él); a mi juicio, quizá la parte más difícil, es traducir los aspectos del dise?fo aplicado a ese problema en particular, las conjeturas y supuestos sobre la naturaleza del fenómeno y sus implicaciones al modelo estadístico a usarse. IV.2 Causalidad y significancia estadística Quizá una de las fallas más extendidas en la estadística aplicada, es pretender establecer causalidad entre dos o más eventos, a partir de que se tiene significancia estadística. Determinar la causalidad ha sido un problema tratado extensamente en la filosofía de la ciencia. La ciencia, de acuerdo con Popper, se interesa en contrastar hipótesis. Aparentemente, la estadística en las pruebas de significancia también contrasta hipótesis. Sin embargo, hay diferencias importantes por dos razones: es un acuerdo muy amplio entre estadísticos (aunque no tanto entre los usuarios de la estadística) que las pruebas de significancia no constituyen todo el propósito de una investigación. Además, muchas investigaciones (fertilizantes en la agricultura o medicamentos contra la hipertensión) se conducen para averiguar la magnitud de un efecto de un tratamiento y no para averiguar si hay efecto. En realidad se sabe de antemano que Ho = 1h2 es una idealización que con seguridad no es cierta, entonces lo que se quiere es conocer la magnitud de Jul - ,a. Es así que hay que distinguir los estudios encaminados a descubrir asociaciones, posiblemente causales, de aquellos cuyo propósito es determinar la forma y magnitud de una asociación. Aunque en ambos se usen las pruebas de significancia.
  • 10. Maxwell y Delaney (1989, p. 17) sealan lo si- guiente, «debido a que nunca se alcanza una conformi- dad exacta con la hipótesis nula, la inferencia estadística sirve la función de ayudar al científico a clasificar los patrones de datos como predicciones confirmadas o fal- sificadas, o en algunos casos, resultado8 ambiguos». El problema de las pruebas de significancia es el hecho de que para muestras muy grandes aún efectos muy peque?íos son significativos y con muestras pequeas, efectos grandes no se detectan como significativos. En este último caso se comete un error tipo II de importancia con mucha probabilidad. Ante esto, Good (1988) ha sugerido que los valores de p se estandaricen a un tama?ío de muestra fijo, digamos 100, entonces se_reemplaza la p de la prueba por: min(1/2,s./N/100) donde N es el tamaío de muestra de la prueba de significancia. La necesidad de salir del estrecho marco de las pruebas de hipótesis ha sido ya sealado por estadísticos y por usuarios de la estadística, así Gardner y Altman (1986) proponen que se usen siempre que se pueda intervalos de confianza, en lugar de las pruebas de hipótesis. Por su parte, Maxwell y Delaney (1990, p. 96 y 97) proponen que se reporten medidas del efecto en estudio. Consideran que una estadística de prueba es igual al tamaio del efecto por el tama?o del estudio. Por ejemplo SCErnr - SCEmc gIme Feai= x SCEmc 9l r - glmc donde SCE denota suma de cuadrados de error, mr es modelo reducido, me modelo completo y gi grados de libertad. IV.3 DiseTfo de la investigación Se ha comentado ya que es conveniente que durante el diseo de una investigación se contemplen los aspectos estadísticos, porque de esta manera se podrán alcanzar con más eficiencia y eficacia sus objetivos. Además, considero que por una posición filosófica cercana al positivismo hay fallas conceptuales en el uso de la estadística, por ejemplo en la aseveración "los rendimientos en Kg de plantas de maíz tienen distribución normal" o "los valores del cociente intelectual tienen distribución normal" o "los tiempos de encendidos de focos o tubos de T.V. tienen distribución exponencial" o "el número de ingresos de pacientes cardíacos a un hospital por día, tiene distribución de Poisson", y muchos otros postulados semejantes que abundan en los textos de estadística. Considero dichas aseveraciones como fallas por dos razones: en primer lugar es necesario definir la población de interés ¿qué plantas de maíz? ¿en qué condiciones? o ¿qué personas, en qué condiciones se mide el CI.? ¿qué focos, cómo se producen, cómo se usan? o ¿en qué ciudad, qué hospital, qué tipo de pacientes?, esto involucra ya un dise?Ço de investigación. La segunda razón es porque la adecuación de un modelo estadístico para describir la realidad, depende del fenómeno modelado, y de cómo se mide, mediado o modificado por el diseo de investigación. Los supuestos de forma de la distribución, sus parámetros, la aleatoriedad de muestras y otros dependen del dise?ío. Además, el dise?ío debe contemplar cumplir los objetivos de la investigación. En la nomenclatura estadística se habla de "dise?ío de experimentos" y aunque con menor frecuencia "dise?o de muestras"; sin embargo, muchas veces el contenido de textos o capítulos con ese nombre, no abordan o lo hacen muy pobremente, el diseo sino el análisis de experimentos o muestras. Ante esta situación, es necesario poner más énfasis en los aspectos del dise?o, tanto en la formación de estadísticos como en la ense?íanza sobre estadística que reciben otros científicos o profesionistas.
  • 11. En relación a esto cito a Kish (1987, p. vi) "El inicio típico de la estadística -dado8 n C580s aleatorios de alguna variable-, es en cada palabra erróneo para los datos reales. La mayoría de los datos no SOfl dados - tienen que tomarse, atraerse, capturarse o extraerse. La n generalmente no es fija sino que varía debido a muchas imperfecciones en la colección. La selección no es aleatoria simple, sino en conglomerados, estratos o compleja. Tampoco se obtienen variable8 verdaderas, sino que son observaciones sujetas a error, que el analista debe reconocer y controlar. E8tos son problemas tratados en el diseo estadístico». Hay incluso muestras de tamaio uno, o bien, que no cumplen con la condición de aleatoriedad, son los elementos o unidades de estudio a los que tiene acceso el investigador. Aún así, se hacen interencias. El diseo de experimentos y el diseo de muestras son áreas del disejÇo estadístico bien reconocidas y con sólidas bases matemáticas. Sin embargo, entre estas dos formas de diseíío estadístico, existe una vasta gama de posibilidades que los textos de estadística no abordan. Sin embargo, estas formas ocurren en la mayoría de las investigaciones y frecuentemente también están presentes en la superestructura o entorno del dise?ío de un experimento o muestra. Cochran (1965, p. 234) establece su definición de estudios observacionales: "(1) El objetivo ea elucidar relaciones de causa a efecto, o por lo menos investigar las relaciones entre un conjunto de variables específicas Xi y un segundo conjunto Y de manera que sugiera o informe sobre la causalidad y (2) No es po8ible usar experimentación controlada...» Más adelante (p. 235) indica: "Este tipo de investigación, que trata con la adquisición de conocimiento que puede capacitamos para disfrutar una vida más saludable y armo nioa, es importante potencialmente, sin embargo, tengo la impresión de que ha sido desdenado en cierto modo por la profesión estadística". Considero que lo se?alado en 1965 para E.U. aún sigue siendo válido en la década de los 90's, por lo menos en México. Winsten (p. 257), al comentar el trabajo de Cochran seíala, "la investigación en estudios no experimentales debe hacerse por personas que tienen un dominio amplio del área de estudio y un entendimiento de la plau8ibilidad de diferentes teorías. En otras palabras, si los estadísticos toman este trabajo deben dejar de ser "hombres de métodos" y convertirse en investigadores en el área estudiada. En alguna medida e8to debería también ser cierto en estudios expe rime ntales, pero aquí la necesidad no es tan grande". Ehrenberg sentencia respecto al trabajo de Cochran (p261), es "Mi conclusión es que los problemas que ha discutido el profesor Cochran no tienen que ver con una distinción entre e8tudios controlados y ob8ervacionales". González Casanova (1987, p. 23) indica lo siguiente en relación a los estilos de investigación cualitativo y cuantitativo; "Segtn los matemáticos y los -sociólogos matemáticos-, la decisión de medir implica la distinción entre los -tipos de cosas- que hay en el mundo y -el tamano de las cosas-. La formación de estos -tipos de cosas- depende de una operación que precede cualquier clase de medición: la formación de las categorías en términos de las cuales se van a medir los objetos. La inmensa mayoría de los problemas y generalizaciones en ciencias sociales es cualitativa: -la8 generalizaciones cualitativas (por ejemplo: Si X crece, Y crece) basadas en la experiencia ordinaria o en la investigación, junto con diversos pedacitos de información, constituyen las bases empíricas usuales de la teoría de las ciencias sociales. ... Cuando olvidamos estos postulados, establecidos sin discusión de ninguna especie y elaboramos nuestros modelos de investigación dando prioridad a los problemas matemáticos y no a los sociales, dejamos implícitas y sin control todas -las
  • 12. operaciones que preceden cualquier tipo de medición-. Al llegar (Iv siempre llegamos!) a nue8tra8 snferenc;as cualitativas las rcve8timog de un rigor del que carecen en realidad. Así aparece un proceso penoso que termina en la -superstición- del rigor matemdtico de8ligado del rigor lógico y político ». Esto también lo he comentado, por ejemplo en Méndez (1989d). Es lamentable observar cómo se rodea de un áurea de "magia" muchos usos de la estadística, por los que no la conocen. Considero, por supuesto, que son también fallas por la posición filosófica. El dise?o estadístico de la investigación debe contemplar la forma de "controlar", es decir eliminar o por lo menos hacer improbable la presencia de las fuentes de sesgo más importantes para su inveshgación. Kish (1987) y Méndez y cols. (1984). V. CONCEPTOS GENERALES SOBRE TEC- NICA A.R. Wallace sealó que el hombre es el único animal capaz de efectuar una evolución dirigida no orgánica, él hace herramientas. Sin embargo, la identificación de esas herramientas con artefactos materiales es arbitraria. El lenguaje y los conceptos abstractos también son herramientas. De hecho, todas las disciplinas parten de distinciones arbitrarias como ésta. Así se define como herramientas el ábaco y el compás, y por tanto como tecnología, pero la tabla de multiplicación o de logaritmos no lo son. El objeto de la tecnología es "como hacer las cosas". Sin embargo debiera de ser de acuerdo a Wallace "como el hombre hace las cosas". El propósito es superar las limitaciones del hombre como animal. Este enfoque de la biología humana, concluye que la tecnología no tiene que ver nada más con cosas: herramientas, procesos y productos. Tiene que ver con trabajo: la actividad específicamente humana por medio de la cual el hombre vence las leyes de su biología, que condenan a todos los otros animales a dedicar todo su tiempo y energía para mantenerse vivos el siguiente día o la siguiente hora (Davis y Col., 1979). Podemos definir la tecnología como la acción humana sobre objetos físicos o como un conjunto de objetos físicos caracterizados para servir a los propósitos humanos. Las herramientas disponibles y las técnicas in- fluencían fuertemente el trabajo que se puede hacer y cómo se hace. Pero el trabajo, su estructura, organi- zación y conceptos también influyen poderosamente en las herramientas, las técnicas y su desarrollo. La organi- zación del trabajo, es en sí misma una de las principales formas de lograr esa evolución dirigida no orgánica, que es específicamente humana; es en sí misma una impor- tante herramienta del hombre. No toda técnica es científica. La "revolución" del paleolítico con el uso y fabricación de instrumentos de piedra, la agricultura y domesticación de animales, re- presentó el desarrollo de muchas técnicas; posterior- mente la navegación, fabricación de instrumentos con bronce, luego hierro y finalmente acero. Practicamente todo el desarrollo de la humanidad hasta la edad me- dia, se basó en técnicas no apoyadas en la ciencia. Ya que la ciencia surge con el Renacimiento, principal- mente en Italia. Podremos pensar que aún hay desarro- llos técnicos no basados en la ciencia, aunque cierta- mente mientras más avanza la ciencia, hay más tecno- logía apoyada o basada en ella. Como un ejemplo de que la técnica no requiere el conocimiento científico, tenemos que los aztecas y aún hoy muchos campesinos mexicanos hacen pulque, fermentando el aguamiel del maguey, sin conocer la
  • 13. existencia de los microrganismos que provocan la fermentación. Sin embargo, sí saben como iniciar y terminar el proceso (Ver por ejemplo Box (1987), y Box y CoIs. (1 988)). Los impactos de la tecnología en la sociedad se pueden resumir esquemáticamente en tres aspectos: Un cambio tecnológico importante crea la ne- cesidad de innovaciones políticas y sociales, puede hacer obsoletas las relaciones institu- cionales existentes. Los cambios tecnológicos específicos deman- dan innovaciones políticas y sociales, también específicas. El cambio tecnológico, no hace invitable ciertas instituciones, requiere cambio social y económico, pero la dirección del cambio depende de los propósitos, valores y otros aspectos específicos de la sociedad. Vg. las civilizaciones americanas no separaron ley de costumbre, ni inventaron la moneda, ¡no usaron la rueda! VI RELACIONES ENTRE INVESTIGACION - CIENTIFICA Y TECNOLOGIA La estadística juega un papel importante en la contrastación o prueba de hipótesis científicas, cuando involucran fenómenos aleatorios. Es importante que no se tome una posición Popperiana estricta. Se debe tomar una posición en el sentido de que se rechaza o no se rechaza una hipótesis, pero todo el proceso está condicionado al grado de validez de los supuestos adicionales y las circunstancias de a prueba. Esto se comenta brevemente en Méndez (1989a). Las pruebas de significancia estadística únicamente indican la probabilidad de que los resultados ocurran por azar sin que sea cierta la hipótesis científica. En un principio, a partir del renacimiento, la ciencia buscaba explicar por qué funcionaban muchas tecnologías; es decir, la ciencia busca el conocimiento por sí mismo, pero su inspiración es la naturaleza y la naturaleza modificada por la tecnología. Así por ejemplo, Pasteur explicó la fermentación y putrefacción conocida y orientada por el hombre desde 6 ó 7 mil a?ios antes. Clausius y Kelvin dieron una formulación científica al comportamiento termodinámico de la máquina de Watt. Esto impactó a la ciencia que se define como "la búsqueda sistemática de conocimiento racional". Pero conocimiento cambió su significado de ser "entendimiento" es decir, enfocado en la mente del hombre, para ser "control" es decir, enfocado a la aplicación en la tecnología. Podemos decir que nace entonces una "ciencia aplicada". Popper postuló un criterio de demarcación entre lo que es ciencia y lo que no. Para esto consideró que si una teoría o conocimiento empírico es susceptible de ser sometida a prueba, es científica. Si no es posible someterla a prueba no es científica. Es importante notar que alguna teoría puede no ser susceptible de someterse a prueba, por falta de desarrollo tecnológico; de modo que el avance en otras áreas de la ciencia y la tecnología pueden hacer científico algo que no lo era, al someterlo a pruebas y que no sea rechazado. Los científicos, con raras excepciones, hasta el final del Siglo XIX, no se preocupaban por las aplicaciones de su nuevo conocimiento científico y aún menos con el trabajo tecnológico necesario para hacer aplicable el conocimiento. Similarmente, el tecnólogo, hasta muy recientemente, rara vez tenía contacto con los científicos y no consideraba importantes sus hallazgos para el trabajo tecnológico. La ciencia requiere de su propia tecnología, una muy avanzada. Pero los avances tecnológicos logrados por el científico constructor de instrumentos, como una regla, no fueron extendidos a otras áreas y no condujeron a nuevos productos para el consumidor o nuevos procesos para
  • 14. el artesano y la industria. El primer constructor de instrumentos que se hizo importante fuera del campo científico fue Walt, el inventor del motor de vapor. Otros desarrollos aislados de científicos del Siglo XIX, fueron los fertilizantes de Von Liebig y los colorantes de Perkin; la ingeniería eléctrica partió del trabajo de físicos como Faraday, Henry, Helmholtz, Hertz y Maxwell. Con la Primera Guerra Mundial, todos los países beligerantes movilizaron a los científicos en el esfuerzo bélico y entonces la industria descubrió la enorme potencialidad de la ciencia para generar ideas tec- nológicas e indicar soluciones tecnológicas. También los científicos descubrieron el reto de los problemas tecnológicos. Cuando los conocimientos científicos no nos per- miten hacer una predicción aceptablemente exacta so- bre el comportamiento de la naturaleza o la socie- dad, entonces recurrimos a la exploración o experimen- tación empírica cuidadosa apoyada en la estadística. Así se han encontrado por ejemplo, las dosis de an- tibióticos adecuados, fórmulas de fertilización en cul- tivos agrícolas, proporción de componentes en una aleación metálica o algunas técnicas didácticas. Para mí ésta es una actividad ubicada claramente en la fron- tera de la técnica y la ciencia. Se usa una metodología rigurosa, eliminando factores que obscurecen el estudio, pero no hay una teoría que explique todo el proceso. Algunas ideas relativamente nuevas sobre la ciencia y la tecnología y su forma de generar nuevos hechos o artefactos, se encuentran en el refrescante texto de Latour (1987). Un extracto de algunas ideas expuestas parece relevante al tema tratado. Se considera que existe un conjunto de problemas y métodos comunes a todas las disciplinas y objetos de la ciencia y la tecnología. Un primer aspecto es que hay que estudiar la ciencia y la tecnología en proceso y no la ya establecida. Cuando un hecho, idea o artefacto es aceptado por la comunidad de científicos o tecnólogos, se trata como "caja negra", en el sentido de que ya no se cuestiona su veracidad o funcionamiento. Sin embargo, en el proceso de obtención del conocimiento o desarrollo del artefacto, si hay dudas, que se reflejan en referencias a otros conocimientos. Por ejemplo la estructura del ADN o los "chips" para computadoras se usan sin ser cuestionados. Este énfasis en el proceso determina la consideración de que una máquina "trabaja bien" cuando es aceptada por la comunidad y no al revés. También un conocimiento o un hecho se considera válido cuando es aceptado por la comunidad y no que es aceptado porque es válido. Esto se refuerza al seíalar que en el proceso de publicación de resultados de investigación las citas y las formas en que se hacen, son para apoyarse en otros autores o debilitar la posición de los que tienen otros resultados. Esto mismo ocurre con el desarrollo tecnológico, tanto con su publicación como el uso o no de las diversas componentes de un prototipo. La eficiencia de una máquina no es algo abstracto, sino que es definida en función de una comunidad de tecnólogos y usuarios del desarrollo. La manera de construir una "caja negra" es mediante dos acciones, una es enrolar a otros para que la crean, la compren y la diseminen en tiempo y espacio y la otra es controlarlos para que no la modifiquen en el proceso. Se considera que esto se aplica al conocimiento científico o al desarrollo tecnológico. Latour considera dos modelos para la construcción de teorías o artefactos. El modelo de difusión que considera que al aceptar la teoría o el artefacto y difundirlo a otros científicos o usuarios, se hace porque la teoría es válida o el artefacto eficiente. Sin embargo, como se mencionó, es precisamente esa aceptación lo que va validando la teoría o definiendo la eficiencia del artefacto. Este modelo de difusión tiende a exagerar el trabajo de los pioneros y minimizar el papel corrector y en cierto modo director de los cientos o miles de colaboradores o seguidores asignándoles un papel pasivo. Se considera así que la tecnociencia (nombre que usa Latour para ciencia y tecnología) está separada de la sociedad. El modelo de translación considera que la sociedad y el conocimiento científico o tecnológico
  • 15. no son separables, se tienen controversias aún no decididas que se trasladan de un grupo los originadores, a otros individuos que van a opinar, modificar y usar las ideas y artefactos y en ese sentido validarlas o hacerlas eficientes. El problema del constructor de "hechos" es semejante al de "objetos": ¿cómo convencer a otros, cómo controlar su comportamiento, cómo reunir suficientes recursos en un lugar, cómo hacer para que el hecho u objeto se propague en tiempo y espacio? En ambos casos son otros los que tienen el potencial para transformar el "hecho" o el "objeto" en un todo durable, en una "caja negra". Una diferencia es que el primer momento, cuando se reclutan nuevos e inesperados aliados es más visible en la ciencia y el segundo momento cuando se reunen recursos para actuar como un todo es más visible en las máquinas, motores o computadoras (la técnica en general). VII. EL PAPEL DE LA ESTADISTICA EN LA INGENIERIA En este apartado se discute brevemente la naturaleza de la estadística y para ello se emplean ejemplos de ingeniería. Para dar un panorama de las aplicaciones de la estadística en la ingeniería, se presentan algunos métodos estadísticos y un ejemplo de su uso en ingeniería. El panorama es incompleto, pero sí seííala la potencialidad e importancia del papel que tiene la estadística en la ingeniería. VI1.1 La Aleatoriedad y su Modelaclón La estadística busca modelos para describir la regularidad estadística de los fenómenos aleatorios. Por ello se describen los conceptos involucrados en esta definición. En el campo de la ingeniería hay procesos poco conocidos. Por ejemplo, no es posible predecir con exactitud, con base en leyes conocidas, la resistencia que tendrá una mezcla de concreto, grava y arena en función de las proporciones y calidad de los materiales, tiempo y condiciones de fraguado. Esto se extiende a las propiedades de casi cualquier material producido por agregación de substancias con propiedades conocidas; por ejemplo aleaciones metálicas, plásticos, telas, conglomerados de madera, etc. Todo fenómeno es aleatorio; pero si en la práctica se está satisfecho con el grado de aproximación que producen las leyes conocidas y su aplicabilidad es factible a ciertos fenómenos, éstos no se consideran aleatorios. Existe, sin embargo, un gran número de fenómenos que desde un punto de vista práctico son aleatorios. Por ello es importante contar con alguna ayuda meto- dológica para el estudio de dichos fenómenos. Esta ayuda es la estadística que, basándose en ciertos postulados probabilísticos, permite hacer descripciones, optimizaciones y predicciones en los fenómenos alea- torios. Los fenómenos aleatorios, cuando se estudian un gran número de veces en condiciones similares, presentan cierta regularidad denominada estadística. Esta regularidad estadística consiste en que las frecuencias relativas, porcientos o proporciones con las cuales ocurren las diferentes modalidades de una característica del fenómeno aleatorio son muy estables, desde luego si el número de veces en que se estudia el mismo es grande. Por ejemplo, la proporción de "águilas" al lanzar una moneda tiende a ser 1/2. 0 bien, la proporción de varillas de acero que se doblan a una fuerza de flexión fija es muy estable si se estudian muchas varillas en condiciones semejantes, todas con la misma fuerza de flexión (lo que define a llamada población).
  • 16. La probabilidad es un modelo matemático que se usa para representar las proporciones en las que se estabilizan las diferentes modalidades con las que ocurren los fenómenos aleatorios. Se dice que la probabilidad es un modelo para la regularidad estadística. Para que se presente la regularidad estadística se requiere que el número de veces en que se estudie el fenómeno, se desarrolle con ciertas condiciones constantes; por ejemplo, varillas de acero producidas con el mismo proceso y materia prima. La subjetividad ocurre al definir el tipo de condiciones en que se estudia un fenómeno y la objetividad en el hecho de que dadas esas condiciones el propio proceso determina la forma de la regularidad estadística. La estadística supone que por conocimientos previos sobre un fenómeno particular o por analogía con otros similares, se conoce la forma general de la función de distribución; por ejemplo, en los casos anteriores suponer que el modelo para el número de focos defectuosos es el de Poisson, por lo tanto, sólo se deben determinar los denominados parámetros para especificar totalmente esa función. A esto se le llama estadística paramétrica. Cuando no se conoce la forma de la función de distribución, se recurre a las llamadas pruebas de Bondad de Ajuste, donde básicamente se investiga si la información o mediciones sobre el fenómeno se consideran bien representadas por una función de distribución particular. Con base en la estructura matemática de la probabilidad se construyen las llamadas funciones de distribución, las cuales determinan con qué probabilidad ocurren los diferentes valores (o nombres) con los que se midió una propiedad del fenómeno aleatorio; es decir, predicen cuál será la proporción de veces que se presentará cualquier modalidad de la propiedad medida en el fenómeno, al haberse estudiado ésta varias veces en condiciones similares, de modo que la función de distribución caracteriza totalmente la aleatoriedad del fenómeno. La estadística está encaminada básicamente a determinar cuál es la función de distribución más adecuada para representar un fenómeno aleatorio particular y comparar las distribuciones para algunas variantes del fenómeno. Por ejemplo, determinar o caracterizar la aleatoriedad del número de piezas defectuosas en la producción de cajas con cien focos, o bien las proporciones en las que ocurren los accidentes de trabajo en una fábrica. Con esa caracterización se puede comparar un proceso productivo con otros, y buscar así las mejores condiciones para el proceso. También se puede estudiar o comparar (para va- riantes del fenómeno) algunas características principal- mente medidas de tendencia central, de la función de distribución sin llegar, por ello, a conocer esta función totalmente. A esto se le llama estadística no pa- ramétrica. Los usos prácticos más importantes de la es- tadística, radican en la comparación de algunas varian- tes de un mismo fenómeno, o sea, saber si las funciones de distribución que representen adecuadamente cada variante del fenómeno son diferentes y en qué grado. También se puede investigar como cambian algunas ca- racterísticas de las funciones de distribución en relación a cambios cuantifícables en los factores que intervie- nen en el fenómeno. Por ejemplo, '?cámo cambia la resistencia de una mezcla de concreto al cambiar las condiciones de fraguado? Así se pueden plantear una serie de preguntas de mucha utilidad práctica. De hecho, en a industria, agricultura, educación, y otras áreas, se ha progresado mucho al tener una metodología (la estadística) que
  • 17. permite contestar a preguntas semejantes a las anotadas. Vll.2 Algunas Aplicaciones de la Estadística en Ingenierla Se presenta de manera escueta y sin pretender ser exhaustivo, un panorama de algunas de las aplicaciones de la estadística en la ingeniería. V112.1 Evaluación de Procesos de Medición En la ingeniería se tienen fenómenos que se consideran como determinísticos con base en leyes de la mecánica clásica; por ejemplo, la distribución de cargas en la estructura de un edificio, o bien la presión del agua en varios puntos de un sistema de drenaje. También hay fenómenos considerados como aleatorios, así la resistencia de una mezcla de concreto, arena y grava es impredecible con exactitud, sobre todo si se trata de un concreto recientemente desarrollado. Ya sea que se consideren fenómenos aleatorios o determinísticos, es necesario medir las propiedades del proceso para poder manipularlo, así es necesario medir las llamadas constantes de resistencia de la estructura de un edificio; diámetros y resistencias de las tuberías en el sistema de drenaje, o bien la resistencia del concreto. En todo proceso de medición existen varias fuentes de error. Esto hace que las mediciones reportadas por laboratorios y casas de material y equipo no sean totalmente confiables. La estadística permite evaluar qué tan bueno es un proceso de medición al apreciar su precisión y exactitud. La precisión es el grado de concordancia de los resultados entre sí. La exactitud es el grado de concordancia de las mediciones con el valor real de lo que se pretende medir. La falta de precisión se origina debido a errores aleatorios y a la falta de exactitud por los llamados sesgos o errores sistemáticos. La precisión se mide de varias formas, por ejemplo, con desviación estándar, error estándar, intervalos de confianza, error probable, desviación media y otras formas. Así es usual que se reporte un resultado, por ejemplo, resistencia a la ruptura de un material como 1242 ± 1.4. El primer número es el promedio y el segundo una medida de la variabilidad como desviación o error estándar. Estos conceptos están muy bien tratados en el trabajo editado por Ku (1969). V1122 Concentración y Descripción de Información La llamada estadística descriptiva tiene como objetivo resumir y mostrar la información contenida en un conjunto de datos. Así la construcción de histogramas, gráficas de frecuencia bivariadas, diagramas de dispersión o bien cálculos de medidas descriptivas como promedios, varianzas, correlaciones; permiten una descripción de la información obtenida. Además pueden servir para sugerir algunos modelos que describan la regularidad estadística y la asociación entre variables. V112.3 Ajuste de Funciones de Distribución Como un paso importante en el trabajo estadístico o bien como un fin en sí mismo, a menudo se requiere encontrar el modelo o modelos probabilísticos que describan adecuadamente algún proceso. Por ejemplo, considerar que el modelo P(X = z) = con x = 0, 1, 2, ... sirve para describir el número de llamadas telefónicas que llegan a un conmutador en un minuto. Esto nos permite conocer el valor del parámetro y con ello estimar la probabilidad de que el conmutador de diez líneas se insuficiente. Así también si se considera que el tiempo en que se presenta una falla en una
  • 18. revolvedora de concreto se puede describir con una función del tipo 1(z) = fle donde O < z < oc, esto nos permite estimar la probabilidad de que con dicha revolvedora no se llegue a producir el concreto necesario para una construcción, y en consecuencia de tener otras revoivedoras o mejorar la existente. Además del beneficio de estimar probabilidades, el encontrar un buen modelo para la regularidad estadística de un fenómeno, nos permite comparar varias modalidades del proceso. Así podemos comparar varios periodos en las llamadas telefónicas y decidir si .) ha cambiado y posiblemente se requiera de un nuevo conmutador, o bien comparar varios tipos de revolvedoras. Hay una gran variedad de posibilidades de funciones de distribución, por lo que prácticamente cualquier proceso puede ser modelado con bastante aproximación. Los modelos de relaciones funcionales pueden ser utilizados como un medio para conocer los valores de X o de las X que producen una Y dada, en el proceso conocido como calibración. Lo que se hace es encontrar la función inversa de X como función de Y, pero hay que agregar una medida de la imprecisión en ella. Por ejemplo, para una relación funcional lineal del tipo Y = a + 9X + e, se estima la función con Y = T+b(z—), donde 6 es el coeficiente de regresión obtenido por mínimos cuadrados. Así si se observa una Y igual a y, entonces la estimación de la X que debe haber producido esa yo es Xo = (Yo - )/b + Y y su varianza es + + b2(z_)2]' donde 0.2 es la varianza de los errores de medición. Algo semejante se hace para los modelos de relación funcional más complicados. Un artículo general sobre el tema es el de Scheffé (1973). V112.5 Modelos de Regresión V112.4 Relaciones Funcionales y Calibración Se denomina una relación funcional cuando se investiga en realidad un fenómeno determinístico, pero hay errores de medición en las variables que depende funcionaímente de otra u otras. Por ejemplo, si ¡lamamos X a la temperatura de un metal y Y a la longitud del mismo o a ¡a resistencia eléctrica del metal, sabemos que hay una función tal que Y = 1(X); sin embargo, si no podemos medir Y con exactitud y precisión, se tendrá Y = 1(X) + e, donde e son errores de medición. La estadística permite encontrar la función, f, más adecuada para esa relación. Estas ideas se pueden extender a relaciones funcionales con varias variables y postular así modelos del tipo Y = f(X1, X2, ..., X) +e, donde e sigue siendo un error de medición nada más. Los modelos de regresión, son modelos es- tadísticos lineales para describir la asociación entre un conjunto de variables X1,X2, .... X,, y una variable Y. Esto se hace sin considerar necesario que Xi,...,X, estén causando los valores de Y, simplemente se con- sidera una variación conjunta. En este caso se cree que la variación de los valores de Y se debe a ¡a variación entre individuos u objetos en sus valores de las X, y en una menor medida a errores de medición. Así una forma muy general de un modelo de regresión es: k donde g, son funciones conocidas de las varia- bles X1, .... X9; fo, Si, ...,flk son parámetros descono-
  • 19. cidos. e representa errores aleatorios por la variación entre los elementos de estudios que se pueden generar en ciertos valores fijos de X1, ..., X,,, y en mucho menor proporción errores de medida. Usualmente se considera que los e tienen distri- bución normal con varianzas homogéneas para cada conjuntod e valores de las X1, .... X9. Brownlee (1965) presenta un ejemplo, en él estudia la operación de una planta de oxidación de amoníaco a ácido nítrico. La Y fue 10 multiplicado por el porciento de amoníaco que escapa de la columna de absorción, es decir una medida (inversa) de la eficiencia general de la planta. X1 representa la proporción de operación de la planta medida por la corriente de aire; X2 la temperatura del agua de enfriamiento, y X3 la concentración de ácido circulante (menor 50 por 10). Se llegó a una ecuación de regresión: Y = —39.919 + 0.7156X1 + 1.2953X2 - 0.1521X3 Así se tiene por ejemplo que al aumentar una unidad la corriente de aire la Y aumenta en 0.7156 unidades en promedio. Los modelos de regresión se usan para describir la asociación entre variables, para encontrar la influen- cia de una variable (Xi) sobre otra (Y) manteniendo constantes otras más (otras X) o para encontrar los va- lores de las X que maximizan (o minimizan) una Y, o bien para predicción de futuros valores de Y. Así en el ejemplo se?alado se pueden buscar los valores de X1,X2 y X3 que minimizan la pérdida de amoníaco en la planta. V112.6 Diseío de Experimentos Esta rama de la estadística fue desarrollada por R.A. Fisher para aplicaciones a la agronomía; posteriormente ha sido utilizada en muy diversas áreas. Lo que se pretende es dise?íar una manera de captar información de tal modo que permita estudiar la forma en que un conjunto de variables numéricas o categóricas (factores de estudio) modifica los promedios de una variable aleatoria Y. Se desea que este estudio se haga con la mayor precisión y al mínimo costo posible. El objetivo del dise?ío es controlar fuentes de variación ajenas a los factores en estudio y efectuar inferencias para comparar los promedios de las poblaciones (tratamientos) que se definen para algunos valores de esos factores en estudio. Se tiene así el dise?ib de tratamientos al especifi- caí cómo se definen esas poblaciones o tratamientos y además el dise?ío experimental al especificar cómo se asignan los tratamientos a las unidades experimentales. Debe recordarse que se tiene un experimento consis- tente en cierta manipulación de la realidad, se construye un modelo que represente lo más adecuadamente a la realidad y finalmente, con base en ese modelo, se ana- liza la información obtenida para hacer inferencias sobre la realidad. Se tiene una relación como la del esquema. Realidad Diseío de Modelo Análisis Investigación Estadístico Inferencias Cuando los experimentadores no son muy versa- dos en estadística, es frecuente que se tenga un mo- delo inadecuado para representar la realidad; por ejem- pb, el dise?ío usual de bloques completos aleatorizados es frecuentemente analizado con el modelo incorrecto Yjj = Ii + rt + fij + e, cuando el modelo adecuado
  • 20. es = ji + r + fl + (r$) + + en general i = 1,...,t;j = 1, .... b,k = 1,m = 1 donde *Ti y fij son efectos de tratamientos y bloques respectiva- mente. (rfl)5 es el término de interacción tratamientos por bloques; 8k(j) es el error de restricción por tener to- dos los tratamientos en cada bloque con condiciones de muchos factores aleatorios constantes, y E es el error aleatorio. Esto ha sido reportado por V.L. Anderson (1970) y posteriormente por Anderson y McLean (1974). Ambos autores reportan el caso de un experimentador en una compaTa manufacturera, quien realizó un experimento para probar una nueva aleación en la formación de ciertas piezas. Usó un horno con lingote de la nueva aleación y otro horno con un lingote de la aleación estándar. De cada lingote tomó 30 piezas de metal y en ellas midió la variable de interés (resistencia). Realizó un análisis de varianza con un criterio de clasificación y obtuvo una F con 1 y 58 grados de libertad, que fue significativa, esto indicó que la nueva aleación era "mejor" que la estándar. El experimentador convenció a la administración de la compaíía que se usara la nueva aleación. El cambio le costó a la compa?íía 200,000 dólares, y dos a?íos después se vio que el producto con la aleación nueva era igual que el de la aleación estándar. Lo sucedido fue que el modelo era inadecuado para representar el experimento. Se debió usar un error de restricción para la variación entre hornos y otro para la variación entre lingotes. La significancia encontrada, seguramente se debió a la variación entre los hornos o entre los lingotes y no a la variación entre aleaciones. Una exposición de algunos diseños y situaciones experimentales con ese error de restricción se encuentra en Méndez (1 989e). experimento, tomado de Anderson y McLean (1974): un ingeniero quería determinar el efecto de cinco factores en las propiedades de concreto asfáltico. Los factores eran: Agregado fino o grueso. Temperatura de compactación 200° F ó 300°F. Contenido de asfalto 5 ó 7/.. Condición de fraguado. Cubierto o descu- bierto. Temperatura de fraguado, 45°F ó 72°F. Se tienen 25 = 32 posibles combinaciones de ni- veles de factores o tratamientos; sin embargo, se usa- ron sólo 16 unidades experimentales en una fracción de 1/2 del total. Si se considera que las interacciones de tres factores o más son inexistentes y que se tiene una estimación del error experimental, el diseo es muy eficiente y barato. Esto permite llegar rápidamente a conocer el efecto de los factores estudiados y de sus posibles interacciones entre dos de ellos. El libro de Daniel (1978) da una serie de consejos a los experi- mentadores industriales, y el de Box, Hunter y Hunter (1988) un tratamiento muy completo de como construir modelos estadísticos utilizados fundamentalmente en la optimación de procesos industriales. V112.7 Superficie de Respuesta Esta es una técnica que toma ideas de dise?ío de experimentos y de regresión con el objetivo de optimizar procesos productivos, al encontrar rápidamente qué combinaciones de factores producen el máximo (o el mínimo) de los valores de las Y (la respuesta). Los ejemplos de diseio de experimentos son muy variados, únicamente para dar una idea de la potencialidad que el área tiene, se describe el siguiente Lo más común es que se use una secuencia de
  • 21. experimentos, se comienza con un dise?ío experimental llamado de primer orden ya que únicamente permite encontrar el cambio lineal de la variable de respuesta, la Y, por efecto de los factores experimentales, las X. Esto da una dirección en cambios de las X, por la que se obtienen mayores (o menores) valores de Y. así porque pretende ir variando poco a poco las condiciones de operación de cualquier planta industrial de manera que el proceso evolucione acercándose cada vez más a condiciones de producción más eficientes, con mayor producción y mayor calidad. V112.8 Análisis Multivariado Se efectúan más experimentos con diseños de primer orden hasta que se detecta que hay curvatura (la Y ya no cambia linealmente al cambiar las Xi). Se efectúa entonces un experimento con dise?ío de segundo orden, ya que permite estudiar relaciones de tipo cuadrático entre las Xi y las Y. Con este diseío se puede estimar el punto máximo (o mínimo) de los valores de Y. Como un ejemplo de esto, se tiene, el presentado por Johnson y Leone (1964), relativo a la búsqueda de porciento de componentes de un material a base de hule para encontrar la máxima elongación y resistencia a la tensión. El proceso se?íalado anteriormente llegó a determinar el tipo de forma de respuesta de la gráfica. , iCO.- f'iri A / OO / '•oo % di comu',,,,t, A u' P'ijli La técnica de superficie de respuesta es muy usada en todo proceso tecnológico para encontrar las condiciones de desarrollo que optimizan el proceso. En el área de ingeniería industrial se ha desarrollado, por Box y Draper (1969), la operación evolutiva, llamada Dentro del rubro de análisis multivariado hay una serie de técnicas, la mayoría de tipo exploratorio, que manejan diversas variables con propósitos diferentes. Sólo se mencionarán aquí algunas de ellas. En el análisis llamado "componentes principales" se tiene un conjunto de variables X1,X2,...,X,, de un fenómeno o proceso y se quieren reducir las dimensiones del problema al llegar a un nuevo conjunto Yi, Y2, ..., Yq con q mucho menor que p, de tal modo p p p que Y1 = ralAY2 = >. a2ÍXj , .... Yq = que Y1,Y2, ... ,Yq, sean no correlacionadas entre sí y expliquen la mayor parte de la variabilidad de las X. Jeffers (1967) presenta un ejemplo en el que se tenían vigas de madera para usarse en la construcción. En ellas se midieron 13 variables: diámetro, longitud, contenido de humedad, gravedad específica en las condiciones de prueba, gravedad específica al secado, número de anillos en la base y en la punta, arco máximo, distancia del arco máximo a la punta, número de nudos, longitud amplia, número de nudos por venticilo y promedio de diámetro de los nudos. Se llegó a seis nuevas variables Y1, .... Y6; que explican el 87% de la variación de las 13 originales. Y1 se interpretó como índice del tamaio de la viga; Y2 como índice de maduración; Y3 como índice de proporción de crecimiento y resistencia de la madera; Y4 como un contraste entre longitud y número de aniUos
  • 22. en la base; Y5 como número de nudos por venticilo; Y6 como promedio de diámetro de nudos y resistencia de la madera. Una técnica relacionada con el análisis de componentes principales es el 'análisis de factores" en el que no se pretende una descripción total de la variación en las variables; únicamente se describe parte de la variación y se considera que se tiene cierto error. Se tienen variables Xi, X2, ..., X, y se buscan factores comunes (Fjk) a las variables y que se suponen son los que causan la correlación (covarianza) entre ellas, tales que: Xii = aF + aF2 + + aNFN + = observación específica; j = 1, ..., p y Fk con k = 1, ..., N son los factores comunes y N <p. Las son las ponderaciones de los factores en las variables y es la parte no explicada por los factores comunes en la medición i de la variable X (este término no se contempla en componentes principales). Bajo ciertos supuestos se puede encontrar a las Fk como funciones lineales de las X. Stopher y Meyburg (1979) presentan el caso de una encuesta para encontrar características de los viajes al trabajo; se midieron 12 atributos de las personas que viajan en seis medios diferentes: tiempo de viaje, habilidad para llevar bultos, seguridad de accidentes, habilidad para estimar tiempo de llegada, tiempo de espera, habilidad para hacer otras tareas, protección contra clima, independencia de horarios, privacía individual, costo, disponibilidad de un asiento y habilidad para controlar temperatura y ventilación. Se encontraron seis factores que explican el 80.7/ de la variación de variables originales. Se hizo una rotación varimax para que los factores fueran más fácilmente interpretables y se encontró que el primer factor se relaciona con el confort (llevar bultos, protección contra el clima, privacía, asientos y control de temperatura). El segundo factor se asocia con costo; el tercero con exceso de tiempo (tiempo de espera y estimado); el cuarto con tiempo total; el quinto con conveniencias (independencia y privacía) y el sexto con seguridad. En el análisis de correlación canónica se tie- nen dos conjuntos de variables, X1,X2,...,X; y; Y1,Y2,...,Yg y se quiere encontrar una combinación II- p neal de las primeras W1 = >aiX y una de las segun- q das Z1 = flYj de tal modo que W1 y Z1 tengan la 3 máxima correlación. Después se busca otra pareja de p q combinaciones lineales W2 = > c2X y Z2 = i i de modo que W2 y Z2 tengan la máxima correlación y sean no correlacionadas con W1 y Z1. El proceso prosigue buscando nuevas parejas de combinaciones lineales con máxima correlación entre ellas y no corre- lacionadas con las anteriores. Stopher y Meyburg (1979) presentan un ejemplo de correlación canónica en el estudio de transportes en camiones de carga, donde X1 = volumen del envío, X2 = peso del envío, X3 = empacado especial, X4 = manejo especial. Por otro lado Yj = capacidad del camión, Y2 = tipo de camión, Y3 = amarrada o no amarrada la carga, Y4 = propietario, Y5 = número de paradas antes de cargar, Y6 = número de paradas después de cargar, Y7 = "edad" del camión, Y8 = tiempo de carga o descarga. La W1 resultó compuesta principalmente por el peso y volumen de la carga, la Z1 de la capacidad del camión, tipo de camión y propietario. La correlación entre W1 y Z1 fue de .519. No se estudiaron nuevas parejas por tener correlaciones bajas. Se concluye tentativamente que los envíos grandes (en peso o volumen) son más probables de llevar en camiones comunes y en vehículos
  • 23. b. ante un individuo, proceso u objeto que no se sabe a qué poblaciones pertenece, se le miden las p variables, se calculan sus valores de D1 y con ellos asignarlo (discriminarlo) a 3. una población con el mínimo error posible. que no son propiedad del que envía o recibe. Otra técnica multivariada de interés es el "análisis discriminante" en el que se tienen dos o más poblacio- nes (estudiadas con muestras) de individuos, proceso u objetos en los que se piden p variables, X1,X2,...,X. Se quiere encontrar una o más funciones del tipo D1 = p a1 X de tal modo que los promedios de las D1 para ls poblaciones queden lo más separado posible o bien que los valores de los D1 presenten los mínimos tras- lapes entre poblaciones. El análisis se hace con dos objetivos posibles: a. tipificar qué variables son más importantes para distinguir las poblaciones, y Se llama diseío de muestra a la especificación de la forma en que se va a tomar la muestra y la de formar estimadores del parámetro de interés con los n valores de la muestra. Las formas más comunes de tomar la muestra y que se pueden combinar una con otras son: Aleatorio Simple.- En donde cada posible muestra tiene la misma probabilidad de ser elegida. Los elementos se extraen de la población con igual probabilidad y sin reemplazo. Sistemático.- Se ordenan los elementos y con un inicio aleatorio entre 1 y K con K = rn se toma uno de ellos, después del cual se cuentan K elementos y se toma el siguiente, se prosigue así hasta tener el tama?ío de muestra deseado. Si el orden es aleatorio es equivalente al 1, pero puede ser mejor si hay un orden no periódico en los elementos. Estratificado.- Se efectúa una partición de la población en subconjuntos generalmente más homogéneos en sus valores entre sí que en toda la población, llamados "estratos", y en cada estrato se toma una muestra independiente. Este método produce muestras más representativas que los anteriores. V112.9 Muestreo El muestreo estadístico abarca aquellas técnicas encaminadas a conocer alguna propiedad general de un conjunto finito de seres, procesos u objetos (elementos), la llamada población. Las propiedades de interés son un parámetro como el total o promedio de la población para alguna variable numérica medible en cada elemento (variable de interés Y) o bien la proporción de elementos con alguna característica. Por ejemplo, la producción en número de piezas de una máquina durante un mes, o bien la proporción de varillas defectuosas en un lote de producción. Se debe partir de un medio físico que identifique a todos los elementos de la población (al número de ellos se le llama N) lo que se denomina 'marco de muestreo". 4. Polietápica- Se forman agrupaciones de ele- mentos (unidades primarias de muestreo) y sólo de ellas es necesario un marco de mues- treo, se toman algunas de ellas como mues- tra; en ellas se hace un marco particular y se seleccionan nuevas unidades de muestreo (de segunda etapa); en ellas se forma un marco y se seleccionan otras unidades de muestreo más peque?ías (de tercera etapa). El proceso continúa hasta muestrear las unidades ele- mentales o últimas. Este método aunque más ineficiente (produce más variación en los estimadores) es más práctico y barato que el 1 ó 2. Frecuentemente se combina con el estratificado.
  • 24. 5. PFT..- Si se tiene una variable auxUiar X, conocida en todos los elementos de la población, se pueden tomar tos elementos con probabilidad proporcional al tamao (FF1) de la X, es decir, con probabilidad Xi. Cuando hay buena proporcionalidad entre la variable de interés y la auxiliar, este método produce poca variación en los estimadores. Entre las maneras más comunes de formar estimadores están: 1. El promedio simple de la muestra para estimar el promedio de la población Y = (para un total el estimador es Y = N. Para conocer la proporción de un producto que no cumple con las especificaciones, los lotes de producción pueden ser estratos, y las cajas o embalaje unidades primarias de muestreo; y las cajas o embalaje unidades primarias de muestreo; dentro de ellas se tomaría una muestra del producto y se determinan los que no cumplen con las especificaciones. El tama?ío de muestra se elige de manera que la variabilidad de los estimadores y con ella el posible error de estimación, con elevada probabilidad esté dentro de límites fijos. Además que sea un diseío de muestreo práctico y económico. V112.10 Control de Calidad De razón. En ocasknes es menos variable el estimador de R = =Y que el de?, por lo que se estima 1? mediante A = y se estima Y con Y = R1', para esto se requiere conocer X el promedio de la variable auxiliar en la población y que la X y la Y sean proporcionales. De regresión. Si la variable de interés depende de la auxiliar en forma de rregresión linear, se puede estimar Y, mediante Y = + - donde Xyson los promedios de la población y la muestra para la variable auxiliar, y es el promedio de la muestra en la variable de interés y b es un estimador del coeficiente de regresión de Y en X. Si se quiere evaluar la producción de una máquina durante un mes, los días pueden ser estratos y muestrear durante cinco minutos cada cuatro horas sistemáticamente en un día. Si interesa estimar el total de agua potable o de electricidad que demanda una comunidad de personas, se pueden formar estratos por nivel socioeconómico; en cada estrato muestrear "manzanas" (o grupos de viviendas en zonas rurales) y en cada "manzana" muestreada, seleccionar una muestra de viviendas y en ellas evaluar la demanda. Una de las aplicaciones más usadas de la estadística en la industria, es el muestreo repetido del producto en un proceso de producción, con el objeto de detectar a tiempo posibles anomalías del proceso, que hagan que la producción sea de mala calidad. Usualmente se establecen límites de tolerancia en las variables numéricas o en la proporción de defectuosos. Estos límites se tienen en una gráfica en la que se van estableciendo los valores de muestras periódicas, contra el tiempo, lo que permite detectar tendencias hacia desviaciones graves antes que éstas ocurran, así es posible detener el proceso productivo y ajustarlo a las especificaciones. Davies y Goldsmith (1972) comentan el método de sumas acumuladas (cumsum) para una variable numérica, si K es el valor deseado en la especificación, se obtiene Sr = - K) donde son promedios de muestras sucesivas. Se grafica Sr contra el tiempo y si S, fluctúa alrededor de cero el proceso está dentro de control. Si se hace positivo o negativo y va creciendo, se va saliendo de control. Se puede evaluar la rapidez de crecimiento (o decrecimiento) al determinar -
  • 25. Un tratamiento muy sencillo y práctico del control de calidad se encuentra en Charbonneau y Webster (1988). V112.1 1 Datos Categóricos El análisis de datos categóricos o clasificados tra- dicionalmente, se concretaba a pruebas de independen- cia o de tendencias en proporciones mediante pruebas 'i" cuadrada. Recientemente se han usado los modelos logarítmicos lineales, en los que se modela el logaritmo de las frecuencias esperadas en cada celda de una ta- bla de contingencia múltiple, como una suma de efectos principales e interacciones. Resulta así un análisis se- mejante a los modelos estadísticos lineales (modelos de regresión y de dise?íos experimentales), pero en lu- gar de pruebas de F, se tienen pruebas G de razón de verosimilitud de estadísticas "ji" cuadrada. Así por ejem- plo, Fienberg (1977) reporta un estudio para clasificar a 1008 consumidores de detergentes de acuerdo con: dureza del agua usada (dura, media, blanda); uso previo de detergente M (SI, NO); C. temperatura del agua de lavado (fría o caliente); d. preferencia por etergente X o detergente M en una prueba. Se encontró un modelo logarítmico lineal que asocia la preferencia con la temperatura y con el uso previo (como interacciones). Además la dureza y temperatura de lavado tampoco son independientes. Con la disponibilidad de equipos de computación cada vez más rápidos y compactos, es posible efectuar cálculos para evaluar modelos estadísticos con muchas variables y que requieren técnicas de solución de los sistemas de ecuaciones no lineales que son iterativas. Esto ha hecho que proliferen nuevos métodos estadísticos basados en la llamada técnica "intensiva en cómputo", tal es el caso de los análisis de residuos para evaluar modelos, las técnicas de "bootstrap" o "Jacknife" que procesan la información tomando muchas posibles submuestras del conjunto de datos disponible. VIII. BIBLIOGPIAFIA Anderson, V.L. (1 970) "Restriction errors for linear models", (An aid to develop models for designed experiments). Biometrics, 25:255-268. Anderson, V.L and R.A. Mc Lean (1974) "Design of experiments: A reatistic approach". Marcel Dekker, Inc., Nueva York. Box G.E.P. and N.R. Draper (1969) "Evolutionary operation", John Wiley and Sons, Nueva York. Box G.E.P. (1976) "Science and Statistics". JASA 71: 791-799. Box G.E.P. (1987) "Empirical model building and response surfaces". John Wiley and Sons, Nueva York. Box G.E.P., W.G. Hunter y J.S. Hunter. (1988) "Estadística para Investigadores". Editorial Reverté, Espaa. Brownlee, K.A (1985) 'Statistical theory and methodology in science and engineering". John Wiley and Sons, Nueva York Buhm D. y D. Peat (1988) "Ciencia, orden y creatividad. Las raíces creativas de la ciencia y la vida". Editorial Kairos, Barcelona, p. 299 Bunge M. (1986) "Intuición y Razón". Editorial Tecnos. Madrid p. 175 Charbonneau, H.C. y G.L Webster (1988) "Control de calidad". Nueva Editorial Interamericana. México, D.F.
  • 26. Cochran W.G. (1965) 'The planning of observatio- nal studies of human populations". Jour. Royal. Stat. Society A Vol. 128: 234-265 Daniel, C. (1976) "Applications of statistics to industrial experimentation". John Wiley and Sons, Nueva York. Davies, O.L. and P.L. Goldsmith Editores (1972) "Statistical methods in research and production with special reference to the chemical industry". 4th Edition, Hafner Publishing Co., Nueva York. Davies D., T. Banfield y R Sheahan. 'El Técnico en la Sociedad. Ed. Gustavo Gui, S.A Barcelona (1979). Dempster, AP. (1 990) "Causality and statistics". Journai of Statistical Planning and lnference. 25: 261- 278 Fienberg, S.E. (1977) °The analysis of cross- classified categorical data". The MIT Press, Cambridge Massachusetts and London. Gardner, M.J. y D.G. Altman (1986) "Confidence intervais rather than P values: estimation rather than hypothesis testing". British Medical Journal 292: 746- 750 González Casanova, P "La falacia de la investi- gación en ciencias sociales. Estudio de la técnica so- cial". Editorial Oceano, p. 199 (1987). Good l.J. (1988) 'The interface between statistics and philosophy of science". Statistical Science 3: 386- 412 Healy M.J.R. (1 978) 'ls statistics a science?". J.R. Statist. Soc. A 141: 385-393 Holland, P.W. (1986) "Statistics and causal infe- rence". Jour. of Amer. Stat. Assoc. 81: 945-960 (comentarios 961-970) Jeffers, J.N.R. (1967) "Two case studies in the application of principal components analysis". Applied Statistics, V. 16, No. 3, 225-236. Johnson, N. y F.C. Leone (1964) "Statistics and experimental design in engineering and the physical sciences", Vol. II, John Wiley and Sons, Nueva York. Kish Leslie (1987) "Statistical design for research". John Wiley and Sons. New York, p. 266 Ku Harry H. (editor) (1969) "Precision, Measure- ment and Calibration. Selected NBS papers on Sta- tistical Concepts and Procedures", National Bureau of Standards, Special Publication 300, Washington, D.C. Latour Bruno (1987) "Science in Action". Harvard University Press, p. 274 Longino H. (1990) "Science as a social knowledge". Princeton University Press. p. 262 Maxwell S.E. y H.D. Delaney (1989) "Designing Experiments and Analyzing Data. A model comparison perspective". Wadsword Publishing co. California E.U., p. 902 Méndez, Rl. (1982) "El papel de la estadística en la ingeniería". Comunicaciones Técnicas IIMAS-UNAM, Serie Azul, No. 56. Méndez, R.l.; Namihira G.P.; Moreno AL y Sosa de M.C. (1984 la. impresión, 1988 tercera reimpresión) "El protocolo de investigación. Lineamientos para su elaboración y análisis". Trillas, México, p. 210 Méndez, Rl. (1986a) "Causalidad en medicina". Gaceta Médica de México, Vol. 122, Nos. 1 y 2 Méndez, R.I. (1986b) "La estadística y la epide- miología. Niveles de estudio de la ciencia y aspectos históricos". Revista de la Facultad de Medicina UNAM 29(6): 261 -266 Méndez, Rl. (1988) "La estructura de la investi- gación y estadística". Comunicaciones Técnicas lIMAS-
  • 27. UNAM, Serie Azul, No. 106 Méndez, Rl. (1 989a) "La ubicación de la estadística en la metodología científica". Ciencia 40: 39-48 Méndez, R.I. (1989b) "Problemas teórico concep- tuales de la investigación agrícola". Memorias dell Con- greso Mexicano de Historia de la Ciencia y la Tecno- logía", Tomo 1, p. 367-374 Méndez, R.I. (1989c) "La investigación en ciencias sociales y la estadística". Comunicaciones Técnicas IIMAS-UNAM, Serie Notas, No. 103. Méndez, Rl. (1989d) "El paradigma cuantitativo y cualitativo en la investigación". Comunicaciones Técnicas IIMAS-UNAM, Serie Monografías, No. 110. Méndez, R.l. (1989e) "El error de restricción en el dise?o y análisis de experimentos y pseudoexperi- mentos". Comunicaciones Técnicas IIMAS-UNAM, Serie Azul, No. 108. Méndez, Rl. (1990) "Relaciones téoricas y meto- dológicas entre investigación científica e investigación tecnológica". Conferencia Magistral, Simposio Nacional sobre Ciencia y Tecnología, octubre 2, UNAM. Méndez, R.I. (1990a) "La estadística como ciencia y su papel en la investigación". Conferencia Plenaria. y Foro Nacional de Estadística. Jalapa, Ver. septiembre 10-13. Méndez, R.I. (1 990b) "La relación entre investi- gación científica e investigación tecnológica". Quipu, Vol. 7, No. 2, p. 259-271. Mosterin J. (1981, 3er. reimpresión 1984) "Grandes temas de la filosofía actual". Temas Clave. Salvat. Barcelona, p. 63 Payer, L (1990) "Boderline cases. How medical practice reflects national culture". The Sciences, July/Aug. 1990, p. 38-42 Regal P.J. (1990) "The anatomy of judgment". The University of Minnesota Press, p. 368 Sánchez M., D. (1985) "Aproximación a la filosofía". Colección Salvat Temas Clave. Salvat. Barcelona, p. 63 Sheffé, H. (1 973) "A statistical theory of calibration". The Annais of Statistics, Vol. 1, No. 1, pp. 1 -37. Sindermann, Carl, J. (1985) "The joy of science. Excellence and its rewards". Plenum Press, New York and London, p. 259 Stopher, P.R. and AH. Meyburg (1979) "Survey sampling and multivariate analysis íor social scientists and engineers". Lexington Books, Lexington Massachu- setts.