ISSN 0718-3291 Versión Impresa

ISSN 0718-3305 Versión en línea

Volumen 23 N° 3, Julio - Septiembre 2015

pdf Índice

Optimización de sistemas simulados a través de técnicas de superficie de respuesta

 

 

Oscar Oviedo-Trespalacios1 Rita Patricia Peñabaena1

 

1Departamento de Ingeniería Industrial. Universidad del Norte. Km. 5 vía Puerto Colombia. Barranquilla, Colombia. E-mail: ooviedot@gmail.com; ooviedo@uninorte.edu.co; rpena@uninorte.edu.co


RESUMEN

El propósito de este artículo es mostrar la aplicabilidad y ventajas de las técnicas estadísticas de diseño de experimentos como una alternativa útil para la optimización de modelos de simulación discreta. Los sistemas simulados son representaciones computacionales de sistemas reales, se definen como dinámicos debido a que evolucionan en el tiempo por medio de la ocurrencia de eventos discretos, su ventaja es que permiten analizar y experimentar evitando los costos y riesgos que tendría una intervención en un sistema real. En este artículo, mediante un caso de estudio, se desarrolla una metodología que muestra las ventajas de la aplicación de la técnica de superficie de respuesta para la optimización de sistemas simulados. El caso de estudio corresponde a un sistema de producción diseñado con la filosofía empresarial Justo a Tiempo (traducción del inglés Just in Time, JIT), específicamente un sistema KANBAN/CONWIP, donde se analizó el impacto que tienen ciertos factores operacionales acerca de la eficiencia, haciendo uso de técnicas de diseño de experimentos para la optimización estocástica. Los resultados obtenidos demuestran la efectividad que tiene la integración de las técnicas de diseño de experimentos y simulación discreta en la definición de parámetros operacionales de los procesos productivos, además de mejorar la confiabilidad de las metodologías encontradas en la literatura con una nueva consideración estadística.

Palabras clave: Diseño de experimentos, sistemas de producción, simulación discreta, superficies de respuesta, optimización.


ABSTRACT

The purpose of this article is to show the applicability and benefits of the techniques of design of experiments as an optimization tool for discrete simulation models. The simulated systems are computational representations of real-life systems; its characteristics include a constant evolution that follows the occurrence of discrete events along the time. In this study, a production system, designed with the business philosophy JIT (Just in Time) is used, which seeks to achieve excellence in organizations through waste reduction in all the operational aspects. The most typical tool of JIT systems is the KANBANproduction control that seeks to synchronize demand with flow of materials, minimize work in process, and define production metrics. Using experimental design techniques for stochastic optimization, the impact of the operational factors on the efficiency of the KANBAN / CONWIP simulation model is analyzed. The results show the effectiveness of the integration of experimental design techniques and discrete simulation models in the calculation of the operational parameters. Furthermore, the reliability of the methodologies found was improved with a new statistical consideration.

Keywords: Design of experiments, production systems, discrete simulation, response surface, optimization.


INTRODUCCIÓN

Con la aplicación de técnicas de simulación discreta y diseño de experimentos en el estudio de sistemas productivos, se ha logrado evaluar independientemente la interacción de las variables del proceso con el objeto de mejorar su eficiencia operativa. Recientemente se ha discutido acerca de la utilidad que brindan las técnicas de diseño de experimentos para el análisis de modelos de simulación, principalmente cuando se cuenta con muchos factores o se quiere analizar si existen iteraciones importantes entre ellos o alguna relación no lineal influyente [1].

Entre las ventajas metodológicas que ofrece la integración del diseño de experimentos y los modelos de simulación discreta está la oportunidad de realizar un análisis de sensibilidad con los parámetros del proceso a diferentes niveles [2-3]. Esto proporciona mayor confianza a la hora de tomar decisiones e incrementa la fiabilidad de las medidas de desempeño de los modelos [4]. No obstante, los recientes avances en el uso de diseño de experimentos con fines de optimización no son frecuentemente utilizados en la literatura especializada, en contraste a los modelos matemáticos y algoritmos exactos/heurísticos con sus limitaciones para determinar los parámetros del proceso [5].

Este artículo toma como base el estudio propuesto por B, Ekren, y A, Ornek [6], con el fin de mejorar su propuesta para la integración de sistemas simulados y técnicas de diseño de experimentos. En [6] se presenta una evaluación de alternativas para aumentar el tiempo de flujo de producción mediante un diseño experimental y simulación discreta. En dicho experimento se analiza y evalúa por medio de un diseño factorial de niveles mixtos el efecto que tienen los parámetros del proceso sobre el desempeño operativo de un sistema manufacturero simulado. Aunque el diseño experimental ejecutado guarda coherencia con el propósito del estudio, es importante notar que como datos de entrada al diseño experimental se utiliza el número total de repeticiones realizadas en cada condición experimental, si bien es posible extraer información de una sola réplica, en una situación típica un programa de simulación se ejecuta n veces con un generador independiente de números aleatorios, estas corridas del modelo de simulación constituyen una muestra aleatoria de estimaciones de ?. Esto implica que cada muestra es idéntica e independientemente distribuida por cada experimento.

En el análisis de los resultados se podría usar entonces estas muestras aleatorias para generar un valor compuesto como estimación de ?, a base de las n réplicas, en orden de incrementar la confiabilidad estadística de la estimación de ? [7]. La confiabilidad estadística es necesaria para asegurar la validez y precisión de los análisis estadísticos posteriores, por tanto los autores deberían haber utilizado una estimación de las réplicas para cada una de las diferentes condiciones experimentales evaluadas.

Este investigación propone un estudio teórico-experimental para el desarrollo de una metodología que permita optimizar, con ayuda de técnicas de superficie de respuesta, un proceso productivo simulado, esto con el fin de discutir los supuestos metodológicos encontrados en la literatura y mostrar las ventajas que se obtienen a partir de la aplicación de estas técnicas. Para esto se ha mejorado la confiabilidad estadística de la propuesta de [6], al utilizar un valor compuesto de los resultados de las réplicas de simulación para realizar la optimización.

El caso de estudio utilizado para validar esta propuesta es un sistema elemental de producción Kanban/ CONWIP, que tiene como principal característica que la demanda es la que dirige el flujo de materiales a lo largo del proceso. Este tipo de sistemas se ven motivados por la filosofía Just in Time (JIT), cuyo objetivo es lograr sincronización entre la producción y el mercado [8]. En efecto, este tipo de sistemas permiten el ingreso de materiales a medida que varias señales se emiten como respuesta a cambios de estado en la línea [9]. La diferencia más sutil entre los sistemas jalar y empujar se encuentra en el hecho de que un sistema empujar controla el envío de órdenes de trabajo, mientras que el sistema jalar controla la planta [10-11]. La relevancia de esta aplicación se muestra debido a que existe muy poca literatura que realiza un análisis multifactorial para la implementación y graduación de un sistema de control de la producción tipo jalar, que permita la consecución de una tasa de producción eficiente, para asegurar un excelente nivel de servicio del sistema [12].

En la primera parte de este artículo se presenta el marco de experimentación, luego se plantea el modelo de simulación y se fijan posteriormente las condiciones de corridas. El diseño de experimentos se realiza en dos etapas, la primera corresponde al tamizado de factores, para terminar con la construcción de superficies de respuesta y optimización. Al final se presentan las conclusiones.

ANÁLISIS TEÓRICO

El objetivo de este trabajo es identificar y optimizar los factores que afectan el tiempo de flujo promedio de las unidades fabricadas en un sistema manufacturero Kanban/CONWIP representado mediante un modelo de simulación discreta (ver Figura 1). La metodología utilizada para lograr la optimización del sistema simulado se muestra en la Figura 2.



Figura 1. Modelo del sistema Kanban en Arena ®.



Figura 2. Metodología propuesta.

El primer experimento requirió la definición de varios factores recurrentes en este tipo de sistemas, realizando una revisión de la literatura y consultando a expertos, para concluir en la delimitación de una región factible de operación (ver Tabla 1).


Tabla 1. Factores y niveles del experimento.

La variable respuesta para este experimento corresponde al tiempo de flujo promedio (ver ecuación (1), que individualmente muestra el tiempo que tarda una unidad de producción en pasar a lo largo de todo un proceso. Donde f corresponde al tiempo de ciclo promedio, oi y 1i corresponden al tiempo de llegada y salida de la entidad i al sistema y N es el número total de entidades producidas.

(1)

A partir de definir los diferentes factores y la variable respuesta sobre los que se va a experimentar, se procedió a diseñar el modelo de simulación, haciendo uso del software de simulación Arena 12 © de Rockwell Automation, como se observa en la Figura 1. El modelo utilizado corresponde al caso elemental del sistema Kanban/CONWIP, semejante a una estación de trabajo monitoreada con un número de tarjetas determinado de forma manual.

La ejecución del modelo de simulación se realiza 10 veces en cada condición experimental, esto después de verificar que el half-width (valor que proporciona el software Arena para formar un intervalo de confianza, que permita asegurar que el 95% de las corridas obtenidas se encuentran dentro de los valores formados por la media + - half width o "semirrango") del Tf tiempo de flujo promedio fuera lo suficientemente bajo para tener confianza en la información en los resultados del modelo que deben ser ingresados posteriormente al experimento. Cada ejecución del modelo de simulación tiene una duración de 8 horas, en representación de una jornada laboral.

RESULTADOS

Debido a la cantidad de factores se plantea un experimento de tamizado factorial 25 sin réplicas y 5 puntos centrales, este es un experimento muy común en la industria debido a las grandes ventajas que presenta en términos de economía para realizar el tamizado de factores [13]; debido al nivel de half-width definido del estadístico respuesta y la buena estabilización del sistema, el valor llegó a mantenerse estable y coherente con la confiabilidad deseada en el análisis. La toma de datos se realizó directamente de Arena 12 ® en la medida que se realizaban las modificaciones al modelo y se cumplía con las condiciones de corrida.

Los resultados obtenidos se llevaron a una gráfica de probabilidad normal de los efectos (Figura 3), que muestra aquellos factores e interacciones que se comportan como una distribución normal y por lo tanto pueden ser considerados error puro. En efecto, solo existen tres factores principales significativos, que corresponde al A-Número de Tarjetas, la B-Capacidad y E-Velocidad de operación del proceso. Adicionalmente el impacto de las AB y AE debe ser estudiado, pues resultaron significativas. Interacciones de orden superiores fueron rechazadas.



Figura 3. Gráfico de probabilidad normal de los efectos.

La decisión de incluir puntos centrales permitió tener un estimado del error y realizar un análisis de varianza tradicional, a pesar de tener réplicas en un punto central, el diseño 2k original se mantiene como no replicado, ya que las condiciones experimentales básicas no lo fueron [14]. Los experimentos ejecutados en los puntos centrales nos proveen de un estimado del error puro e información acerca de la presencia de curvatura.

Según los resultados de la Tabla 2, hay suficiente evidencia para asegurar que la curvatura es significativa estadísticamente. Antes de adoptar las conclusiones del análisis de varianza, deberá verificarse la adecuación del modelo fundamental. Para ello inicialmente se realiza el análisis de residuales, donde con ayuda del gráfico de probabilidad normal de los residuos se comprueba que no hay evidencia para creer que los residuos no siguen la distribución normal.


Tabla 2. ANOVA con análisis de curvatura.

Adicionalmente, con un análisis de los gráficos de residuales contra el número de la corrida se verifica el principio de independencia, esto es esperado por tratarse de un modelo de simulación discreta basado en corridas independientes e idénticamente distribuidas. Los gráficos de residuos contra predichos totales y los de cada uno de los factores, muestran que la varianza es consistente para cada uno de ellos y los datos se encuentran entre 3 y -3 veces la desviación estándar, por tanto no se presentan problemas de homocedasticidad.

Para el planteamiento de la superficie de respuesta se planteó un nuevo experimento con diseño de 3k. Los factores que fueron retirados en el experimento anterior por su baja significancia se fijaron en las condiciones más bajas de operación utilizando un criterio de costo/beneficio, suponiendo que a medida que operaban en niveles más elevados, requieren una mayor cantidad de recursos.

A partir del diseño propuesto anteriormente se construyó el modelo asociado al proceso, para esto se tuvo en cuenta que el modelo global y todo sus términos sean significativos (ecuación (2)). Igualmente, los residuales resultaron aleatorios afirmando el poder explicativo del modelo. La ANOVA del modelo de regresión de ajuste a los datos, nos muestra los resultados del análisis de varianza, en esta el modelo global resulta significativo, al igual que cada uno de sus términos del modelo (Tabla 3). Esto se debe a que el valor P se mantiene menor que 0,05.


Tabla 3. ANOVA del modelo de regresión.

(2)

Siendo xA: Número de tarjetas, xB: Capacidad y xE: Velocidad.

En las gráficas de residuales también se observa que los residuos se ajustan a una distribución normal, no se aprecian problemas de independencia al analizar los residuos contra el orden de corrida, y las gráficas de residuales contra predichos se encuentran entre los límites de -3 y 3.

Las superficies de respuesta 3D se graficaron con ayuda del software Design Expert ®. El tiempo mínimo de flujo se minimiza cuando E llega a su nivel más bajo, mientras que la interacción entre A y B presenta la mayor área de niveles bajos de tiempo de flujo promedio (ver Figura 4. Gráfico de superficie de respuesta de AB con E en BAJO, que presenta la zona más clara que indica niveles bajos de tiempo de flujo). En la Figura 4 se encuentra que los incrementos de capacidad no modifican considerablemente el tiempo de flujo de promedio, más aun cuando disminuye el número de tarjetas en el sistema.



Figura 4. Gráfico de superficie de respuesta de i) AB con E en BAJO y ii) AB con E en ALTO.

Los resultados muestran que cuando B se encuentra en su nivel más alto, la interacción entre A y E presenta la mayor área de niveles bajos de tiempo de flujo promedio (ver Figura 4), Gráfico de superficie de respuesta de AE con B en ALTO, que presenta la zona más clara indicadora de niveles bajos de tiempo de flujo.

Con el análisis de superficies de respuesta se puede concluir que los sistemas Kanban/CONWIP el número de tarjetas o señales dentro del sistema es concluyente en su desempeño, esto ha sido reportado antes por [9]. Así mismo, la interacción que tiene con otros factores resulta significativa en la determinación del tiempo de ciclo. En definitiva los niveles de una velocidad de producción por unidad BAJA y una capacidad ALTA son condiciones deseadas del sistema, pero no estrictas para conseguir un tiempo de flujo promedio bajo para las unidades del sistema.

Para realizar la optimización del proceso se utilizó Design Expert ® y su módulo de optimización estocástica, que trabaja mediante el método desarrollado por [15]. Para esto se debe seleccionar la meta de optimización para cada factor y respuesta, que para el caso específico de este estudio se constituye en la minimización de tiempo de flujo promedio. Adicionalmente se debe mantener la región factible de operación (ver Tabla 4).


Tabla 4. Condiciones de Optimización.

La búsqueda empieza en un punto de partida aleatorio y continúa a lo largo de la pendiente más pronunciada hasta que encuentra un óptimo (en este caso busca un mínimo). Posiblemente pueden existir varios puntos óptimos en la superficie debido a la curvatura, en este estudio se evaluaron 57 puntos distintos, utilizando el valor predefinido del paquete de optimización. Los resultados de la optimización muestran que en el punto 28 se logró minimizar el tiempo de flujo promedio a 0,065, con unas condiciones experimentales de 2,18 tarjetas (A-Número de tarjetas), 2,74 sets hombre/máquina (B-Capacidad) y 7,34 minutos en promedio por unidad (E-Velocidad). Al repetir estas condiciones no se observan cambios en el resultado por encima del 0,001 de flujo promedio

CONCLUSIONES

En este trabajo se ponen en evidencia las ventajas operacionales que representa el uso de simulación discreta en conjunto con técnicas de diseño de experimentos para la optimización de sistemas, esto debido a que mediante diseños experimentales podemos describir la interacción y relaciones que tienen diferentes factores acerca del sistema. Además, haciendo uso de esta metodología es posible evaluar el efecto de las interacciones o curvaturas de los planos de operación.

La metodología propuesta se puede tomar como referente para la realización de estudios similares, Además los resultados mostrados cumplieron con todos los supuestos necesarios para hacer uso de las herramientas de simulación y diseño de experimentos, esto es algo que no se considera en la literatura científica relacionada del tema. En el caso de estudio se logró consolidar la importancia que tiene sobre el tiempo de flujo promedio de las unidades en un sistema Kanban/CONWIP el número de tarjetas dentro del sistema y además se encontró y describió la forma en que estas se relacionan estrechamente con la capacidad y la velocidad promedio de producción de cada unidad de producto. También se logró descartar la influencia de variables del sistema como el porcentaje de no conformes y la variabilidad del proceso de fabricación.

Se encontró que el modelo que explica la variable respuesta en términos del número de tarjetas, capacidad y la velocidad promedio de procesamiento por unidad, se compone de variables de segundo orden o cuadráticas, a partir de esto se logró hallar la superficie de respuesta y utilizar la técnica de optimización estocástica. Los valores en los que se debe fijar el proceso es 2,18 tarjetas (A-Número de tarjetas), 2,74 sets hombre/máquina (B-Capacidad) y 7,34 minutos en promedio por unidad (E-Velocidad), mientras que los factores eliminados de porcentaje de no conformes (C) y variabilidad del sistema (D) se pueden ubicar en cualquier nivel, con preferencia un criterio económico que consuma menos recursos.

La información que se encontró con este trabajo es muy valiosa para caracterizar las relaciones en este tipo de procesos industriales, además de ofrecer una alternativa para el análisis de este tipo de entornos y las posibilidades que hay en términos de optimización mediante la simulación discreta y el diseño de experimentos. Como futuras investigaciones se propone replicar estas técnicas en la determinación de los parámetros en los sistemas de calidad [16].

REFERENCIAS

[1] S. Sánchez, F. Moeeni and P. Sánchez. "So many factors, so little time ... Simulation experiments in the frequency domain". International Journal of Production Economics. Vol. 103, pp. 149-165. September, 2006. ISSN: 0925-5273.

[2] J. Kleijnen. "Experimental Design for Sensitivity Analysis of Simulations Models". Proceedings of EUROSIM 2001, 2001.

[3] D. Kelton and R. Barton. "Experimental Design for Simulation". Proceedings of the 2003 Winter Simulation Conference. 2003.

[4] B. Bettonvil and P. Kleijnen. "Identifying the important factors in simulation models with many factors". Tilburg University. Departament of information Systems and Center for Economic Research. Netherlands, 1994.

[5] R. Peñabaena-Niebles, O. Oviedo-Trespalacios, K. Ramírez y M. Morón. "Diseño Económico-Estadístico de Cartas con Parámetros Variables Totalmente Adaptativas en Presencia de Datos Autocorrelacionados". Revista Iberoamericana de Automática e Informática Industrial RIAI. Vol. 11, pp. 247-255. Abril 2014. ISSN: 1697-7912.

[6] B. Ekren and A. Ornek "A simulation based experimental design to analyze factors affecting production flow time". Simulation Modelling Practice and Theory. Vol. 16 N° 3, pp. 278-293. March, 2008. ISSN: 1569-190X.

[7] T. Altiko and B. Melamed. "Simulation Modeling and Analysis with Arena". Academic Press. 2007.

[8] M. Di Mascolo, Y. Frein and Y. Dallery "An Analytical method for performance evaluation of kanban controlled production systems". Operation Research. Vol. 44, pp. 50-64. January, 1996. ISSN: 0030-364X.

[9] T. Hochreiter. "A comparative simulation study of Kanban, CONWIP, and MRP manufacturing control systems in a flowshop". Master of Science Thesis. University of Florida. Gainesville, USA. 1999.

[10] D. Sipper y R. Bulfin. "Planeación y control de la producción". Mc Graw Hill. 1998.

[11] M. Spearman and M. Zanzanis. "Push and pull systems: Issues and comparison". Operation Research, Vol. 40, pp. 525-532. May, 1992. ISSN: 0030-364X.

[12] M. Lage Junior and M. Godinho Filho. "Variations of the kanban system: Literature review and classification". Int J Prod Econ. Vol. 125, pp. 13-21. May, 2010. ISSN: 0925-5273.

[13] D.C. Montgomery. "Design and Analysis of Experiments". John Wiley & Sons, New York. 1996.

[14] Reliasoft. DOE++ User's Guide. ReliaSoft's DOE++ software. 2008. URL: http://www.weibull.com/DOEWeb/

[15] W.R. Myers, D.C. Montgomery and C.M. Anderson-Cook. "Response Surface Methodology". 3rd edition, John Wiley and Sons. New York, USA. 2009.

[16] R. Peñabaena-Niebles, O. Oviedo-Trespalacios, S. Cuentas-Hernández y E. García-Solano. "Metodología para la implementación del diseño económico y/o estadístico de cartas de control x-barra con parámetros variables (VP)". Dyna. Vol. 81, pp. 150-157. Abril 2014. ISSN: 0012-7353.


Recibido 31 de marzo de 2014, aceptado 25 de septiembre de 2014


Artículos Relacionados

# Título Ver
1
Reconfiguración de redes eléctricas de media tensión basada en el algoritmo de Prim (2007)
Angely Cárcamo-Gallardo, Luis García Santander, Jorge E. Pezoa
HTML | PDF
2
Modelo ACO para la recolección de residuos por contenedores (2009)
Eduardo Salazar Hornig, Nelson Ruiz Fuentealba
HTML | PDF
3
Algoritmos evolutivos multiobjetivo aplicados a los proyectos de antenas microstrip (2009)
Juliano Rodrigues Brianeze, Carlos Henrique da Silva-Santos, Hugo Enrique Hernández-Figueroa
HTML | PDF
4
Un algoritmo genético para el problema de Job Shop Flexible (2011)
Rosa Medina Durán, Lorena Pradenas Rojas, Víctor Parada Daza
HTML | PDF
5
Modelación de los efectos de la compensación de potencia reactiva en sistemas de suministro eléctrico (2012)
Davel Borges Vasconcellos, Ignacio Pérez Abril, Vicente León Martínez
HTML | PDF
6
Un procedimiento para evaluar el riesgo de la innovación en la gestión del mantenimiento industrial (2012)
Fernando F. Espinosa, Acires Dias, Gonzalo E. Salinas
HTML | PDF
7
Compensación de potencia reactiva en sistemas desbalanceados utilizando algoritmos genéticos (2012)
Davel Borges Vasconcellos, Ignacio Pérez Abril, Vicente León Martínez
HTML | PDF
8
Producción de biohidrógeno a partir de residuos mediante fermentación oscura: una revisión crítica (1993-2011) (2012)
Sergio Andrés Blanco Londoño, Tatiana Rodríguez Chaparro
HTML | PDF
9
Planeamiento de expansión de la transmisión considerando múltiples escenarios de generación e incertidumbre en la demanda (2014)
Carlos Adrián Correa, Ricardo Bolaños, Antonio Escobar
HTML | PDF
10
Aplicación del método de composición musical al problema de asignación de unidades de enseñanza y aprendizaje (2014)
Rafaela Blanca Silva López, Rosa Elena Cruz Miguel, Eric Alfredo Rincón García, Roman Anselmo Mora Gutiérrez, Antonin Ponsich
HTML | PDF
11
Optimización topológica bidireccional con esquema de penalización de material y restricciones de desplazamiento (2015)
Patricio Uarac P., Patricio Cendoya H., Juan Pablo Sanhueza O.
HTML | PDF
12
Simulación y optimización para dimensionar la flota de vehículos en operaciones logísticas de abastecimiento-distribución (2015)
Yasel José Costa Salas, Néstor Jaime Castaño Pérez
HTML | PDF
13
Nuevo enfoque para la localización óptima de reconectadores en sistemas de distribución considerando la calidad del servicio y los costos de inversión (2016)
Oscar D. Montoya G., Ricardo A. Hincapié I., Mauricio Granada E.
HTML | PDF
14
Modelos de optimización para el diseño sostenible de cadenas de suministros de reciclaje de múltiples productos (2016)
Michael Feitó Cespón, Roberto Cespón Castro, Manuel Alejandro Rubio Rodrí­guez
HTML | PDF
15
Optimo despliegue y enrutamiento de UDAP para infraestructura de medición avanzada basada en el algoritmo MST (2017)
Cristian Ganán, Esteban Inga, Roberto Hincapié
PDF
16
Nuevo enfoque para resolver el problema de planeamiento de sistemas de distribución considerando reconectadores automáticos (2017)
Oscar D. Montoya G., Alejandro Grajales O., Ricardo A. Hincapié I., Mauricio Granada E.
PDF
17
Diseño de una red de distribución a través de un modelo de optimización considerando agotados (2017)
Harol Mauricio Gámez-Albán, Christopher Mejía-Argueta, Ricardo Arturo León Espinosa de los Monteros
PDF
18
Localización óptima y confiable de instalaciones en una cadena de suministro (2017)
Fernando González-Solano, Juan Escorcia-Caballero, Luis Patiño-Toledo
PDF
19
Selección óptima de conductores en sistemas de distribución empleando el algoritmo búsqueda tabú (2018)
O.D. Montoya G., A. Grajales, R.A. Hincapié I.
PDF
20
Márgenes de contribución óptimos en servicios de alimentación usando control de inventarios con dependencia estadística (2019)
Fernando Rojas
HTML | PDF


Otros Artículos

# Título Ver
1
Modelo de referencia para la integración del modelado de negocio a la ingeniería de requisitos: una propuesta desde la industria del software (2018)
María Claudia Bonfante, Luis Alfredo Blanquicett, Enrique Díaz Infante
HTML | PDF
2
Un estudio de las pérdidas de calor a través de los tubos de inyección de vapor utilizando CFD (2019)
Sara Saraiva de Lira Araújo, Oldrich Joel Romero
PDF
3
Síntesis de películas delgadas de TiO2 por el método SILAR y estudio de la influencia del recocido en las propiedades estructurales, morfológicas y ópticas (2015)
F. N. Jiménez-García, B. Segura-Giraldo, E. Restrepo-Parra, G.A. López-López
HTML | PDF

Desarrollado por: Cristian Díaz Fonseca - cfonseca@matiasluke.cl