Revista de Ingenieria

ISSN electrónico 2145—9371
ISSN impreso 0122—3461
Volumen 35, n.o 2 Julio—diciembre, 2017
Fecha de recepción: 26 de abril de 2016
Fecha de aceptación: 7 de marzo de 2017
DOI: http://dx.doi.org/10.14482/inde.35.2.10167


ARTÍCULO DE INVESTIGACIÓN / RESEARCH ARTICLE

Simulación de la precisión y el cubrimiento en experimentos con mezclas con respuestas binomial
y poisson analizados bajo modelos lineales generalizados y mínimos cuadrados ordinarios

Simulation of the accuracy and coverage in experiments including mixtures with binomial and poisson responses
studied using generalized linear model and ordinary least squares aproaches

Leandro González* Sandra Barragán**
Universidad de Bogotá Jorge Tadeo Lozano, Bogotá

* Universidad de Bogotá Jorge Tadeo Lozano UTADEO. Profesor Asistente. Departamento de Ciencias Básicas y Modelado. Máster en Estadística Aplicada. Magister en Modelado y Simulación. leandro.gonzalez@utadeo. edu.co

** Universidad de Bogotá Jorge Tadeo Lozano UTADEO. Profesor Asociado II. Departamento de Ciencias Básicas y Modelado. Magister en Ciencias Matemáticas. sandrabarragan@utadeo.edu.co

Correspondencia: Sandra Barragán. Teléfono: 057 2427030 Extensión: 1701. Carrera 4 No. 22-61 Módulo 6 Oficina 401 Bogotá, Colombia.

Fecha de recepción: 26 de abril de 2016
Fecha de aceptación: 07 de marzo de 2017


Resumen

En este artículo se muestra un análisis de diseños experimentales con mezclas simplex centroides con respuestas binomial y Poisson empleando un Modelo Lineal Generalizado. Se comparó la precisión y el cubrimiento de los intervalos de confianza, alrededor de las medias esperadas, obtenidos bajo un modelo de Mínimos Cuadrados Ordinarios que utiliza una transformación con los proporcionados por un modelo lineal generalizado; dicha comparación se hizo mediante dos simulaciones en donde se asume un modelo conocido. En dichas simulaciones se introdujo reiteradamente una perturbación aleatoria de las medias esperadas en cada punto experimental. Los nuevos vectores de respuestas fueron analizados con cada uno de los dos modelos. La precisión y el cubrimiento fueron reportados, en cada caso, en función de la magnitud de la perturbación inducida y fueron utilizados como medida de comparación de la incertidumbre de la estimación y para evaluar el comportamiento de ambos modelos. En el análisis en un diseño experimental con mezclas con respuesta no normal, el Modelo Lineal Generalizado produjo mejores resultados en términos de precisión y cubrimiento que el hecho con Mínimos Cuadrados Ordinarios basado en una transformación.

Palabras clave: cobertura, experimentos con mezclas, Mínimos Cuadrados Ordinarios, Modelo Lineal Generalizado, precisión.


Abstract

This article provides an analysis of experimental designs simplex cen-troid mixtures with binomial and Poisson responses using a Generalized Linear Model. Throughout a simulation process, in which a model was assumed known, it was compared accuracy and coverage of the confidence intervals around the expected average obtained under a model based on normal theory with that provided by a Generalized Linear Model. Simulations were carried out using specialized software, and random perturbation to the true average expected in each experimental point was introduced repeatedly. The new response vectors were analyzed in each of the two models. Accuracy and coverage were reported in each case depending on the magnitude of the induced disturbance and were used as a measure of comparison of estimation uncertainty and to evaluate the performance of both models. In an experimental design with mixtures including no normal reponse, a Generalized Linear Model produced better results in terms of accuracy and coverage than an Ordinary Least Squares based on a transformation.

Keywords: coverage, experiments with mixtures, Generalized Linear Model, Ordinary Least Squares, precision.


I. INTRODUCCIÓN

Los diseños experimentales con mezclas tienen origen en [1], [2]. Una mezcla es una combinación de ingredientes o componentes en proporciones particulares con la que se obtiene un producto [3]. La variación de las proporciones que componen la mezcla da lugar a productos con características diferentes. Uno de los propósitos en las investigaciones de experimentos con mezclas es la optimización de una característica de interés. En particular, se puede mencionar el estudio reciente de Rondón, León & Fernández, quienes analizaron el comportamiento de una mezcla asfáltica tibia tomando como variable respuesta la resistencia mecánica a la fatiga [4]. El problema general de los experimentos con mezclas fue ilustrado por Cornell con el siguiente ejemplo: Suponga que un combustible se produce con base en la combinación de tres diferentes hidrocarburos A, B y C. Una característica de interés de esta mezcla puede ser el rendimiento en kilómetros recorridos por un automóvil con un galón de este combustible. Entre las posibles combinaciones están:1/3, 1/3, 1/3 de A:B:C 1/2, 1/2 de A:B 1/2., 1/2 de A:C, etc. Uno de los objetivos de los investigadores es determinar las proporciones particulares de cada hidrocarburo que se deben considerar en la mezcla para obtener el mayor rendimiento posibl 1 [5].

Cornell hizo un estudio completo de los experimentos con mezclas donde la variable respuesta se supuso normalmente distribuida [5]. Sin embargo, en el uso extendido del diseño en áreas como la ingeniería, las ciencias y el mejoramiento de procesos, con frecuencia se encuentran variables que no son normales. Escenarios en donde la respuesta es no normal, están asociados a respuestas que miden una frecuencia (conteo de unidades defectuosas o sobrevivientes de un tratamiento), una proporción de una frecuencia (proporción de defectuosos), o una respuesta continua pero no negativa (tiempo hasta una falla). Estas respuestas probablemente siguen distribuciones Poisson, Binomial o Gamma y en su modelación no es posible asumir normalidad o varianza homogénea en diferentes niveles de la media. El objeto de este artículo es mostrar los estudios de varios diseños experimentales con mezclas conocidos como simplex reticulares y centroides, suponiendo que la respuesta es no normal, en particular, en donde esta es binomial y Poisson.

El diseño experimental con mezclas está enmarcado en la Metodología de Superficies de Respuesta (RSM) y dentro de sus objetivos están la evaluación de los factores que afectan la respuesta de un proceso y la optimización [6]. En estos diseños se asume que la respuesta es función de las proporciones de los ingredientes, pero no de la cantidad de la mezcla [5]. La región de operabilidad, es decir, el conjunto de puntos en donde el proceso puede ser operado coincide con la región experimental, la cual es el espacio delimitado por los rangos de experimentación utilizados en cada factor. Esto último se debe a que la suma de las proporciones de los ingredientes de la mezcla debe ser 1 [6].

Al igual que en la RSM, en los diseños con mezclas se intenta ajustar un modelo lineal sobre la región experimental y posteriormente determinar cuáles deben ser las proporciones de los componentes de la mezcla para alcanzar una respuesta óptima. La estimación usual de los parámetros del modelo se desarrolla bajo los supuestos de normalidad, homogeneidad de varianza y criterio de mínimo error cuadrático medio. Estas estimaciones resultan insesgadas y de varianza mínima [5]. Pero si la respuesta es no normal, particularmente binomial o Poisson, es necesaria la construcción de una metodología de modelación más adecuada. Un procedimiento ampliamente difundido, en estas circunstancias, es usar una trasformación que conduzca a la variable en estudio a un comportamiento cercano al modelo normal. Esto se puede lograr al reemplazar los datos y por z=f(y) con la intención de satisfacer las suposiciones de normalidad e igualdad de varianzas [7]. Las transformaciones permiten la aplicación del método de Mínimos Cuadrados Ordinarios (OLS) con estimaciones insesgadas de mínima varianza sobre la variable transformada. Sin embargo, se han resaltado dos problemas con el uso de transformaciones: 1) la dificultad en la identificación de la transformación apropiada, es decir, aquella que satisfaga simultáneamente el supuesto de normalidad y el de homogeneidad de varianzas; 2) la necesidad práctica de expresar las estimaciones de los datos transformados en las unidades originales [8]. Esta es una dificultad importante ya que las propiedades de insesgamiento y varianza mínima se garantizan solo para las estimaciones del modelo con datos transformados y no cuando se aplica la transformación inversa.

Los Modelos Lineales Generalizados (GLM) propuestos por Nelder y Wedderburn [9] permiten modelar datos no normales sin recurrir a una transformación de los mismos. Los GLM son una extensión del modelo lineal tradicional y permiten modelar una respuesta que sigue una distribución de la familia exponencial [9]. Por lo tanto, la modelación de respuestas normales se convierte en un caso particular de esta teoría. En un GLM se debe especificar la distribución de la respuesta: normal, Poisson, binomial, exponencial, o una de la familia exponencial y una función de enlace [10]. La función de enlace describe la relación entre la media de la respuesta y y el predictor lineal x'fí. Después se hace el ajuste del modelo y la estimación vía, por ejemplo, método de máxima verosimilitud [10]. Los GLM se han estudiado ampliamente en [10] y [11]. Myers, Montgomery & Vining mostraron que bajo el supuesto de no normalidad un GLM posee una mejor capacidad predictiva sobre uno construido con base en la teoría normal y el uso de transformaciones [11]. En [12], [13] y [14] se utilizó la amplitud de los intervalos de confianza (IC) construidos sobre las medias esperadas como medida de la capacidad predictiva en el análisis de diseños de experimentos factoriales. En [13] se usaron los GLM como una poderosa alternativa en el diseño de experimentos porque poseen una mayor capacidad predictiva.

A. Cubrimiento y precisión

Uno de los usos más comunes y útiles de la construcción de un modelo es la predicción de la respuesta en un nivel particular de un conjunto de variables explicativas. En el escenario del diseño experimental con mezclas es importante la estimación de la respuesta media en determinada combinación de los componentes de la mezcla y la construcción de IC alrededor de ella. El desempeño de los modelos, en términos de la incertidumbre de la estimación, puede ser evaluado a través de las longitudes de los IC construidos alrededor de la respuesta media estimada en cada punto experimental. Lewis afirmó que "los intervalos de confianza proporcionan un método efectivo para evaluar las estimaciones de la respuesta media dadas por un modelo en particular y para hacer comparaciones con otros modelos" [12]. Para realizar esta evaluación, se definió la precisión de un estimador como la mitad de la longitud de su intervalo de confianza, esto es, si i < y(x0) < s es el intervalo de confianza de 100 (1 - a) por ciento de y(x0), entonces tanto s-y(x0) como y(x0)-i miden la precisión del estimador [12]. Bajo este concepto, se asumió que IC estrechos están asociados con estimadores más precisos. Las longitudes de los IC también dependen de una adecuada estimación de la varianza. Si la distribución de la respuesta es no normal y los métodos de estimación de los parámetros del modelo se basan en la teoría clásica, con seguridad se obtendrá una estimación errada de la varianza y unos IC imprecisos. Un modelo que considere diferencias en la varianza en cada punto experimental cuando la respuesta es no normal proporcionará estimaciones más precisas [12].

II. METODOLOGÍA

Para profundizar en la modelación de experimentos con mezclas y respuestas no normales, se planteó un problema hipotético acerca de la resistencia de una tela de algodón. Este se analizó a la luz de los GLM y OLS para comparar la precisión de los IC. Enseguida, para observar el cubrimiento y la precisión en diseños con mezclas, se estudiaron diseños experimentales hipotéticos con mezclas y respuesta Poisson y Binomial bajo la teoría de los GLM. Al igual que en el problema inicial, con una simulación se comparó la precisión de los intervalos obtenidos en un análisis basado en la teoría normal usando una transformación convencional como en [13]. La precisión de GLM y OLS se evaluó con base en la longitud de los IC alrededor de la respuesta media estimada en cada punto experimental. En GLM los IC se construyeron con base en la inferencia de Wald [11]. Para evaluar el comportamiento del modelo en una simulación se calculó el cubrimiento, definido como el porcentaje de veces que IC abarca a la verdadera media en cada punto experimental [12]. La estimación de los parámetros del modelo lineal generalizado se calculó con el algoritmo Iterative Reweigh Least Squares (IRLS) [11] para las dos simulaciones elaboradas.

En las simulaciones se asumió que las respuestas en cada punto experimental provienen de un modelo conocido. La simulación consistió en un proceso de un número grande de etapas en las que a los valores esperados verdaderos se les introdujo una perturbación aleatoria, para posteriormente ser analizados bajo OLS y GLM. En cada etapa se construyeron los IC sobre las respuestas medias en cada punto experimental. Se calculó la precisión y se determinó si dichos intervalos contenían o no a la verdadera media. Al final del proceso se estableció la precisión media y cobertura en cada escenario de análisis (Fig. 1). La programación de la simulación fue realizada con el software libre R.

III. RESULTADOS Y DISCUSIÓN A. Resistencia de una tela de algodón

La resistencia de una tela fabricada con proporciones de dos tipos de algodón (x1 y x2) y un poliéster (x3) puede medirse como la fuerza mínima necesaria para producir ruptura en una de las fibras de la tela. Por consiguiente, las mediciones de la resistencia en diferentes muestras de fibra probablemente seguirán un patrón más o menos normal. Sin embargo, la resistencia puede tener una connotación más amplia. En la práctica, el estiramiento no es el único trabajo que debe soportar la tela. El comportamiento de la tela en condiciones de desgaste por fricción o de fuerzas mecánicas directas son características importantes de su calidad y pueden ser medidas a través del conteo de las alteraciones como perforaciones, desgarres y abrasiones.

La Tabla 1 muestra un conjunto de respuestas hipotéticas para este ejemplo, tomadas sobre un diseño simplex centroide .

La variable respuesta correspondió al número de alteraciones de la tela después de una prueba de desgaste. Esta variable abarcó más información de la resistencia de la tela que la suministrada por la fuerza mínima necesaria que produce una ruptura, pero no sigue una distribución normal.

B. Comparación de los IC bajo GLM y OLS para la resistencia de la tela de algodón

Según la metodología clásica, para el análisis se pueden reemplazar las respuestas por alguna transformación z=f (y) de ellas con la esperanza de que las suposiciones de los OLS se satisfagan, porque los conteos de productos defectuosos proporcionan un histograma con sesgo a la derecha que puede ser corregido por una trasformación logarítmica. El modelo clásico que se utilizó para el ajuste aparece en la Ecuación (1).

El IC para la media de los datos transformados se expresó en las unidades iniciales mediante la transformación inversa de la Ecuación (2)

Sin embargo, en general los conteos de alteraciones en muestras de tela se ajustan mejor a una distribución de probabilidad Poisson. Otra alternativa de análisis era un GLM con enlace log y distribución Poisson. La Tabla 2 presenta la yuxtaposición de los resultados de las estimaciones de las respuestas medias y los IC en cada uno de los puntos experimentales bajo OLS y GLM2 y sus correspondientes IC de Wald [11]. Aquí se observa que los IC en GLM son mucho más estrechos, es decir, que la capacidad predictiva del GLM es mejor que la del modelo de OLS. En contra de este último punto se vio que uno de los IC para la respuesta media de la segunda mezcla binaria posee un límite que está fuera del dominio de la variable.

La Tabla 3 muestra la precisión media de los dos modelos y su correspondiente suma de cuadrados del error. La información de la deviance en GLM fue útil para comparar este modelo con uno más parsimonioso. Se halló que el uso de un GLM fue más preciso y tuvo una menor suma de cuadrados residual (SCE). Las estimaciones de los parámetros variaron ligeramente, pero los errores estándar de los mismos fueron más grandes en GLM que en OLS (ver Tabla 4).

Los efectos detectados como significativos en el análisis de OLS fueron interpretados como los efectos de primer orden y la interacción entre la primera y tercera variable ( Tabla 5). Ehl análisis del GLM señaló los efectos principales como significativos, pero no lo hizo con la interacción entre las variables uno y tres (Tabla 6).

Los datos de la Tabla 6 motivaron el ajuste de un modelo más parsimonioso. Para lograrlo se ajustaron dos nuevos modelos: un GLM (solo con efectos principales) y uno de OLS (con una transformación log, efectos principales y la interacción entre las variables uno y tres). La Tabla 7 muestra que la precisión de GLM mejoró al pasar aproximadamente de 3,14 a 2,02, mientras que la precisión del modelo de OLS aumentó aproximadamente de 3,92 a 4,52 (Tablas 3 y 8). Los efectos detectados como significativos se mantuvieron estables para los dos modelos (Tablas 10 y 11). Las estimaciones de los parámetros fueron diferentes en los dos modelos, pero en OLS la estimación del parámetro correspondiente a la interacción entre las variables 1 y 3 presentó un error estándar bastante grande.

La deviance en el modelo inicial que contenía los efectos de orden dos y tres fue 0,8601424 (Tabla 3), mientras que para el modelo que se redujo a los efectos principales fue 3,085268 (Tabla 8). La diferencia entre las deviance de los dos modelos fue 2,2251256. Este valor se comparó con la cola superior de una distribución x2 con 7-3=4 grados de libertad. El valor p de esta estadística fue 0,694432 lo que implicó que el modelo con efectos principales ajustó el modelo tan bien como el que incluía las interacciones de orden dos y tres. Dicho de otra manera, no hubo evidencia de que el ajuste se mejorara con la inclusión de parámetros para las interacciones de orden dos y tres. Por lo tanto, el modelo sugerido se muestra en la Ecuación (3).

En este punto se compararon las proporciones de los componentes que determinaron los valores máximo y mínimo de la variable respuesta en la mezcla dados por los modelos GLM y OLS. La Tabla 12 muestra que el número mínimo estimado de alteraciones en la tela fue aproximadamente 3 en ambos modelos, sin embargo, en OLS este valor se alcanzó en la mezcla del 44,1% de x1 y 55,9% de x3, mientras que en GLM este mínimo se alcanzó en la mezcla de 47,7% de x1 y 52,3% de x3. Por el contrario, el máximo en los dos modelos se alcanzó con la misma mezcla. Aquí resultó particularmente útil la estimación de la mezcla que produjo el mínimo de alteraciones en la tela.

Aunque no es posible hacer una generalización, con base en este problema hipotético se pudo ver que: 1) los efectos detectados por el análisis con OLS y GLM no son los mismos; 2) existen pequeñas diferencias en las estimaciones del óptimo en estos dos modelos; 3) el GLM produce estimaciones comparativamente más precisas que un modelo de OLS.

A continuación, se detallan dos diseños experimentales con mezclas: en uno se asumió que la respuesta sigue una distribución de probabilidad binomial y en el otro Poisson. En cada caso se aceptó conocido el modelo que generaba las respuestas medias sobre la región experimental y a la cual se le introdujo repetidamente una perturbación aleatoria para analizar la precisión y el cubrimiento de los intervalos de confianza construidos bajo OLS y GLM. La introducción de la perturbación aleatoria simuló lo que en la práctica está constituido por el error aleatorio o de medición y permitió comparar el comportamiento de las metodologías utilizadas.

C. Análisis de diseños experimentales con mezclas y respuesta Poisson

En la primera simulación se evaluó la precisión y el cubrimiento de los IC construidos alrededor de la media esperada en cada punto experimental de un diseño con mezclas centroide. Se siguió el proceso de la Fig. 1 bajo las siguientes consideraciones: 1) los factores incluidos en el modelo eran x1, x2 y x3; 2) la variable respuesta correspondía a un conteo; 3) la matriz de diseño es X y 4) el modelo era como en la Ecuación (4).

En consecuencia, los verdaderos valores ji en cada punto experimental eran conocidos. En la simulación se introdujo una perturbación aleatoria aditiva a la media de cada punto experimental. A partir del vector de respuestas que contenía la perturbación inducida se estimaron los parámetros del modelo y luego se construyeron los IC del 95% alrededor de la respuesta media en cada punto experimental. Los IC en la modelación con OLS fueron los usuales, aunque para expresarlos en las unidades iniciales se les aplicó la transformación inversa de la Ecuación (5).

En GLM se usaron los IC de Wald como en la Ecuación (6)

En cada etapa de la simulación se calcularon la precisión y el cubrimiento de los IC. Cada combinación de tratamientos se simuló 500.000 veces. De esta manera, con siete puntos experimentales y dos réplicas en cada uno, se calcularon 7.000.000 IC tanto en OLS como en GLM. Las Tablas 13 y 14 resumen la cobertura y precisión de las simulaciones basadas en GLM y OLS respectivamente. La precisión reportada correspondió al promedio de cada uno de los valores de la precisión de los IC del 95%.

El cubrimiento de la estimación bajo GLM tuvo un buen comportamiento, aun cuando la media de la perturbación inducida era grande. Se observó una cobertura superior al 97% con medias de perturbaciones menores o iguales a 5. La precisión en la estimación fue bastante estable (superior a 11) en los diferentes valores medios de la perturbación. Esta precisión se consideró aceptable, dado que, en el modelo conocido, los conteos oscilaron entre 20 y 244. Por el contrario, el cubrimiento en la estimación bajo OLS fue muy deficiente. Se observó que aun cuando la media de la perturbación inducida era pequeña, por ejemplo 2, la cobertura fue tan solo del 60,87%. El que la precisión en la estimación con OLS fuera inferior a la obtenida en GLM (ver Tablas 13 y 14) no representó una ganancia pues en un número muy inferior de oportunidades abarcó a la verdadera media. Por lo tanto, el GLM fue superior (en el análisis de una respuesta tipo Poisson en un diseño con mezclas) al modelo de OLS basado en una transformación de los datos.

D. Análisis de diseños experimentales con mezclas y respuesta Binomial

En la segunda simulación se evaluó la precisión y el cubrimiento de los IC construidos alrededor de la media esperada en cada punto experimental de un diseño con mezclas centroide. Siguiendo el proceso de la Fig. 1, se adoptaron los siguientes supuestos: 1) los factores incluidos en el modelo eran x1, x2 y x3; 2) la respuesta seguía una distribución binomial con n = 10; 3) la matriz de diseño es X y 4) el modelo era como en la Ecuación (7).

Por lo tanto, eran conocidos los verdaderos valores ¡i. en cada punto experimental. En esta simulación se introdujo una perturbación aleatoria a la media de cada punto experimental. Con el vector de respuestas que contenía la perturbación inducida se estimaron los parámetros del modelo y luego se construyeron los IC del 95% alrededor de la respuesta media en cada punto experimental. Los IC en la modelación con OLS fueron los usuales, aunque para expresarlos en las unidades iniciales se les aplicó la transformación inversa como en la Ecuación (8).

En GLM se usaron los IC de Wald como en la Ecuación (9).

En cada etapa de la simulación se calcularon la precisión y el cubrimiento de los IC. Cada combinación de tratamientos se simuló 500.000 veces. De esta manera, con siete puntos experimentales y dos réplicas en cada uno, se calcularon 7.000.000 de IC tanto en OLS como en GLM. Las Tablas 15 y 16 resumen la cobertura y precisión de las simulaciones basadas en GLM y OLS respectivamente. La precisión reportada correspondió al promedio de cada uno de los valores de la precisión de los IC del 95%.

El cubrimiento de la estimación bajo GLM fue superior a 96% cuando la media de la perturbación inducida es menor o igual a 0,3. La precisión en la estimación fue estable (entre 0,1536 y 0,1616) como se aprecia en la Tabla 15. Por el contrario, en OLS los valores grandes en la precisión indicaron un modelo que generó amplia incertidumbre en las estimaciones. Adicionalmente, el porcentaje de cubrimiento fue bastante bajo, siempre inferior a 72,05%. En cuanto a cubrimiento y precisión, el GLM mostró un mejor comportamiento que el OLS. Por lo tanto, en este caso el análisis de una respuesta tipo binomial en un diseño con mezclas usando GLM tuvo mejores precisión y cobertura que cuando se utilizó OLS.

IV. CONCLUSIONES

Los escenarios a los que el diseño de experimentos se ha acercado en años recientes han generado la necesidad de concebir métodos para estudiar variables no normales. Entre estos escenarios se pueden citar los conteos de artículos defectuosos o proporciones de artículos defectuosos que no siguen una distribución normal y que no poseen varianza constante. En estos casos, si se recurre a un mecanismo como la transformación de la variable de estudio para acercarla a un comportamiento más o menos normal, se afrontan varias dificultades que no son superficiales en términos de precisión y cobertura.

Tomando como criterios de comparación, la precisión de un modelo y la longitud de los IC, en el marco del problema mostrado en este escrito, se observó que el análisis de un diseño experimental con mezclas basado en un GLM produjo mejores resultados que la aproximación tradicional que utiliza una transformación y OLS. En consecuencia, en el escenario planteado en este artículo, la modelación con GLM resultó una herramienta útil en el análisis de un diseño experimental con mezclas en donde la variable respuesta es no normal.

Sobre la base del diseño experimental con mezclas de la resistencia de la tela analizado en el presente documento, se encontró que cuando las respuestas son binomial o Poisson un modelo lineal generalizado produjo estimaciones más precisas de las respuestas medias que uno basado en mínimos cuadrados ordinarios bajo la transformación de la variable respuesta, lo cual favorece la capacidad predictiva del modelo.

En las simulaciones, se mostró que un diseño con mezclas y respuesta no normal, analizado a través de un GLM, tuvo un desempeño admisible aun cuando los tamaños de las perturbaciones introducidas sobre la verdadera respuesta eran grandes. Mientras que, en esta misma situación, un modelo basado en OLS, mostró una baja cobertura, es decir, GLM fue resistente a la presencia de perturbaciones grandes en la respuesta.

El resultado de la optimización de la variable respuesta en un diseño con mezclas analizado con OLS fue muy similar al que se consiguió bajo GLM. El uso de un GLM mejoró la certidumbre en la estimación, pero no se observaron alteraciones importantes en las estimaciones puntuales.


1 Traducción y adaptación elaborada por los autores.

2Los dos ajustes fueron obtenidos con el software libre R.


Agradecimientos

Se agradece a la Universidad de Bogotá Jorge Tadeo Lozano, institución en la que los autores son profesores de tiempo completo en el Departamento de Ciencias Básicas y Modelado.


REFERENCIAS

[1] H. Scheffé, «Experiments with mixtures,» Journal of the Royal Society, vol. 20, n° 2, pp. 344-360, 1958.

[2] H. Scheffé, «The simplex-centroid desing for experiments with mixtures,» Journal of the Royal Statistical Society, vol. 25, n° 235-263, pp. 235-263, 1963.

[3] D. Montgomery, Design and Analysis of Experiments, Sexta ed., New York: Wiley, 2005.

[4] H. Rondón, O. León y W. Fernández, «Comportamiento de una mezcla asfáltica tibia fabricada en una planta de asfalto,» Revista Ingeniería y Desarrollo, vol. 35, n° 1, pp. 152-173, 2017.

[5] J. Cornell, Experiments with mixtures. Designs, models and analysis of mixture data, New York: Wiley, 2002.

[6] R. Myers y D. Montgomery, Response suface methodology. Process and product optimization using designed experiments, New York: Wiley, 2016.

[7] S. Bisgaard y H. Fuller, «Analysis of factorial experiments with defects or defectives as response.,» Quality Engineering, n° 7, pp. 429-443, 1995.

[8] J. Neyman y E. Scott, «Correction for bias introduced by transformation of variables,» Annals of mathematical statistics, vol. 31, n° 3, pp. 643-655, 1960.

[9] J. Nelder y R. Wedderburn, «Generalized linear models,» Journal of Royal Statistical Society, vol. 135, n° 3, pp. 370-384, 1972.

[10] P. McCullagh y J. Nelder, Generalized linear models, Londres: Chapman and Hall, 2000.

[11] R. Myers y D. Montgomery, Generalized linear models, New York: Wiley, 2002.

[12] S. Lewis, Analysis of designed experiments using generalized linear models, Tempe: Universidad estatal de Arizona, 1998.

[13] S. Lewis, D. Montgomery y R. Myers, «Confidence interval coverage for designed experiments analyzed with GLMs,» Journal of quality technology, vol. 33, n° 3, pp. 279-292, 2001.

[14] S. Lewis, D. Montgomery y M. Raimond, «Examples of designed experiments with non normal responses,» Journal quality of technology, vol. 33, n° 3, pp. 265-278, 2001.


Ingenieria
Revista de Ingenieria de la Universidad del Norte
http://rcientificas.uninorte.edu.co/index.php/ingenieria
dparamo@uninorte.edu.co

Universidad del Norte
Barranquilla (Colombia)
2015
©