memorias CNIA

84
MEMORIA DIGITAL

description

Memoria digital Congreso Nacional de Ingeniería CNIA2012

Transcript of memorias CNIA

Page 1: memorias CNIA

1

MEMORIA DIGITAL

Page 2: memorias CNIA

MEMORIA DIGITAL

CONGRESO NACIONAL DE INGENIERÍA APLICADA – CNIA2012

UNIVERSIDAD DE IBAGUÉ

Carrera 22 Calle 67, Barrio Ambalá

PBX (8) 2709400 Ibagué, Tolima (Colombia)

www.cnia2012.net.co

ISSN:2322-9632

Recopilación de Información

Adriana Isabel Linares Vanegas

Digitalizado en Colombia

Todos los derechos reservados. Esta es una publicación de la Universidad de Ibagué. Se prohíbe

la reproducción parcial o total de su contenido, la recopilación en sistema informático, la

transmisión en cualquier forma o por cualquier medio, por registro o por otros métodos, sin el

permiso previo y por escrito de los editores.

Page 3: memorias CNIA

Congreso Nacional de Ingeniería Aplicada

Construyendo Futuro

Memoria Digital

Noviembre de 2012

Page 4: memorias CNIA

Organización del Congreso

El Congreso fue organizado por los grupos de investigación GINNOVA, GMAE y

D+TEC de la Universidad de Ibagué y el grupo de investigación CEDAGRITOL de la

Universidad del Tolima.

Líder del comité organizador: Helga Patricia Bermeo Andrade, Ph.D.

Facultad de Ingeniería, Universidad de Ibagué

Directora de Investigaciones

Comité organizador:

Aldemar Muñoz, José Fernando Solanilla, Henry Vaquiro, Leonardo Mauricio

Rodríguez

Facultad de Ingeniería Agrondustrial, Universidad del Tolima

Nelson Javier Tovar, Jorge Luis Enciso, Agustín Valverde Ganja, Mauricio Hernández,

Oscar Barrero, Alfonso Muñoz, Adriana Isabel Linares

Facultad de Ingeniería, Universidad de Ibagué

Apoyo Logístico:

Oscar Javier Cárdenas Barón, Juan Felipe González Martínez, Carlos Andrés Pérez Vargas,

Monica Tatiana Perdomo Pérez, Sandyra Masiel Cubillos Bonilla, Jennny Alexandra Pérez,

Angee Lorena Rengifo Hernández, Leydi Camila Hernández Carrillo, Rubén Dario Conde

Carvajal, Germán Ramírez Murillo, Ingrid Vanesa Guevara Cortés, Juan Sebastián Díaz

Bonilla, William Gerardo Rivas Duarte, Jaime Andrés Jiménez Enciso, Sandra Arias, Anny

Carolina Cortes Jaramillo, Luis Alejandro Ramírez Rojas, Jonathan Steven García Patiño,

Francisco Javier Tocora Susa, Wilson Andrés Sánchez Romero, Luis Felipe Aguirre, Jesika

Maria Rangel, Ivonne Quesada Pérez, Alejandra Quesada Pérez.

Page 5: memorias CNIA

CONTENIDO

PRESENTACIÓN ......................................................................................................................... 7

SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA

RADIACIÓN SOLAR .................................................................................................................. 9

DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS

PARA LA REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA

CO2 EN LA PRODUCCIÓN DE ESTIRENO ............................................................................ 11

SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA

LA PRODUCCIÓN DE BIOGÁS .............................................................................................. 13

METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS

PREDICCIONES REALIZADAS CON MODELOS HIDROLÓGICOS .................................. 21

DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL

SALVADO DE ARROZ ............................................................................................................. 24

VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA

CONSUMO HUMANO .............................................................................................................. 26

MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO

EN UN REACTOR BATCH....................................................................................................... 29

TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS

FOTOVOLTAICOS .................................................................................................................... 30

VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE

CASTILLA ................................................................................................................................. 32

CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES

VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA ........................... 36

ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA

BIOLOGICA DE LA FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS ......... 39

CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO ........ 41

HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE

LA CALIDAD DE LOS PROCESOS ....................................................................................... 43

ANÁLISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCÁSTICA ............. 49

LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL

TOLIMA ..................................................................................................................................... 51

MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS ............ 53

OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA

AGROINDUSTRIA PESQUERA .............................................................................................. 56

ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO

DEL ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ ......... 62

SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA

SUPERFICIE DE INGENIERÍA - EFECTO DE LA FORMA .................................................. 64

MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045

..................................................................................................................................................... 66

SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA

PARTÍCULA .............................................................................................................................. 68

Page 6: memorias CNIA

IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN

RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA .................................. 70

ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE

SISTEMAS FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA .................................... 72

CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE

REFERENCIA SÍNCRONO ....................................................................................................... 73

DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO

PROCESAMIENTO DIGITAL DE IMÁGENES ...................................................................... 75

DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS

BASADAS EN ESPECTROMETRÍA DE INFRARROJO CERCANO .................................... 77

CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA 79

PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE

FABRICATO FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM ................................ 80

REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA

MEJORAR LA EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL ................. 83

Page 7: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 7

PRESENTACIÓN

El Congreso Nacional de Ingeniería Aplicada – CNIA2012, es un claro ejemplo de alianza

interinstitucional entre la Universidad de Ibagué y la Universidad del Tolima. La denominación

de „aplicada‟ obedece a la clara intención del Comité organizador de promover la difusión de

nuevos conocimientos y tecnologías que resulten próximos para su potencial aplicación o

transferencia a la solución de problemas sentidos de esta región centro de Colombia. Por ello, en

este Congreso participaron reconocidos conferencistas y estudiosos de temas vinculados a la

áreas de energía, medio ambiente, informática, materiales y alimentos. Todos estos temas, sin

duda, de relevancia para el futuro desarrollo regional.

No cabe duda que las soluciones que requiere el Tolima, han de venir a la dedicación y el

trabajo colectivo y apasionado de muchos. Para reforzar esta idea, hago alusión a uno de los

mensajes anecdóticos del escritor Gonzalo Gallo, publicado en su libro Oasis. Haciendo

referencia a la „Pasión‟ escribe:

“El espacio de los inventos es apasionante y casi siempre nacen para solucionar

problemas y necesidades. De pronto a alguien lo ilumina la chispa creativa, más

porque se consagra a investigar con paciencia y sabe observar, que por azar.

Los casos abundan y uno bien interesante es el del húngaro Ladislao Biró y el

bolígrafo. Biró era corrector de pruebas en una imprenta y un día se cansó de

recargar su estilográfica y de mancharse las manos con tinta.

Entonces decidió reinventar el bolígrafo creado por Loud en 1888 y mejorado por

Evans, ambos americanos. Esos aparatos rudimentarios usaban tinta común, su

letra era gruesa y sólo servían para marcar cajas o fardos.

Biró había viajado a Buenos Aires, hizo muchos ensayos con un hermano, recibió

apoyo del inglés Henrry Martin y logró su cometido. Poco después el australiano

Frank Seech creó la tinta que se secaba al contacto con el aire. Ojo: su bolígrafo

es el fruto de la dedicación y la pasión de muchos.

¿Eres un ser apasionado por los que amas y por lo que haces?

El Congreso ofreció la oportunidad de ver los resultados de muchos estudiantes, profesores y

empresarios, que de manera colectiva y dedicada, abordan actividades investigativas con el

noble propósito de contribuir al desarrollo de una sociedad sana, justa y equilibrada.

De manera especial, agradezco a todas las personas e instituciones que hicieron posible la

realización del Congreso. A los invitados especiales, quienes nos permitieron lograr un evento

académico de alto nivel; a los ponentes por su activa participación; al Codecyt y ACOFI por su

apoyo institucional, quienes no dudaron en respaldar el desarrollo de este Congreso; a la

Gobernación del Tolima y la Cámara de Comercio por facilitar las instalaciones locativas.

Finalmente agradezco a cada uno de los integrantes del equipo organizador y logístico por su

apoyo, sin cuyo trabajo y dedicación, este Congreso no hubiera sido posible.

Helga Patricia Bermeo Andrade

Líder del comité organizador

Page 8: memorias CNIA

PONENCIAS

Page 9: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 9

SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA RADIACIÓN SOLAR

S.M. Aragón-Avilés1, A. Valverde-Granja

1, O. López-Santos

2

1GMAE, Universidad de Ibagué, Ibagué.

2D+TEC, Universidad de Ibagué, Ibagué.

Palabras claves: Radiación solar, panel solar.

Problema

Entre las diferentes formas de utilización de energías renovables en el mundo, los sistemas fotovoltaicos se

presentan como una alternativa promisoria, destacándose su alta confiabilidad, posibilidad de generación

descentralizada, carácter modular, ausencia de residuos, renovabilidad y, desde el punto de vista económico, una

tendencia a la disminución de los precios con un aumento de la eficiencia. También resulta una opción

interesante para el abastecimiento de energía eléctrica a consumidores que se encuentren distanciados de la red

de distribución de energía (Marini J. e Rossi L., 2003).

Debido a la gran utilización que han tenido los sistemas fotovoltaicos en los últimos años en el mundo, por las

ventajas que estos aportan, se ha planteado la necesidad del estudio del rango de la intensidad de radiación solar

que es recibido en la ciudad de Ibagué, más específicamente en el campus de la Universidad de Ibagué, durante

cierto periodo del año, para analizar la viabilidad de posibles proyectos fotovoltaicos.

Metodología

Para el desarrollo del proyecto se tienen en cuenta varias etapas con las cuales se llevará a cabo el proceso

metodológico. La primera etapa es una fase documental, donde se proyecta la realización de una búsqueda

bibliográfica, su clasificación, selección y estudio de la información obtenida sobre medidores de radiación

solar. La segunda etapa es la selección de las variables experimentales que intervienen en la estimación de la

radiación solar. Y la última fase del proceso, es el dimensionamiento e implementación del prototipo que

permita realizar la estimación de la radiación solar recibida en la ciudad de Ibagué.

Avances

Para llevar a cabo el desarrollo del proyecto se realizó en primera instancia una búsqueda bibliográfica, en donde

se seleccionaron algunos artículos investigativos, en los cuales se utiliza como herramienta principal para la

supervisión de las variables determinantes de la radiación solar, el software LabVIEW [1, 2]. La adquisición de

datos en distintos casos es realizada mediante la utilización de una tarjeta de adquisición o por conexión

mediante puerto serial con el computador [2]. En uno de los artículos investigativos encontrados, se diseño el

software PV-Size que simula instalaciones fotovoltaicas mediante la utilización de bases de datos y algoritmos

[3]. En este artículo los autores mencionan que se debe realizar un seguimiento detallado y “analítico” del

sistema. Las variables meteorológicas y eléctricas analizadas por el sistema de supervisión caracterizan el

funcionamiento de la instalación fotovoltaica durante el intervalo de tiempo normalizado.

Posteriormente, se definió como mecanismo de adquisición de datos la utilización de una tarjeta de adquisición

y se seleccionaron las variables relevantes para la estimación de la radiación solar. Las variables definidas son la

temperatura del panel solar, la temperatura del ambiente y la máxima potencia entregada por el panel solar. Con

base en estas variables se diseñaron e implementaron los circuitos electrónicos para el acondicionamiento de las

señales obtenidas a partir de los sensores de temperatura, voltaje y corriente utilizados. Además, se construyo un

convertidor de potencia DC-DC de topología elevadora que permite estimar el máximo punto de potencia del

panel solar a partir de la variación del ciclo útil de trabajo utilizando el método de perturbación y observación [4,

5, 6] (Ver Figura 1). La interfaz grafica actual implementada en LabVIEW, muestra la mediciónde las variables

con un periodo de muestreo de un segundo para las temperaturas y de 70 segundos para cubrir el rango de ciclo

útil definido para la perturbación en el convertidor (Ver Figura 2). La información obtenida es almacenada y

clasificada en una base de datos que acumula mediciones históricas por día que permitan comparar las

mediciones del sistema con las mediciones realizadas por una subestación de monitoreo meteorológica

comercial ya instalada en el campus de la universidad. La comparación detallada entre cada una de las

Page 10: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 10

mediciones obtenidas de las variables con el prototipo experimental en relación con la radiación solar medida

con la subestación permite encontrar el comportamiento que las correlaciona, dando así, una estimación de la

función que determina la radiación solar dependiente de la potencia entregada por unidad de área de panel solar

y de la temperatura del panel solar.

Figura 1. Montaje circuito convertidor de potencia DC-DC de topología elevadora.

Figura2. Interfaz gráfica estación de monitoreo en LabVIEW.

Referencias

[1] F. Chico, J. A. Aristizabal y G. Gordillo, “Desarrollo de Sistema de Medición y Evaluación del Potencial de

Radiación Solar Usando Instrumentación Virtual”, Revista Colombiana de Física, vol. 41, No. 1, Enero, 2009.

[2] N. Forero, F. Mesa y G. Gordillo, “Medición y análisis estadístico de radiación solar y temperatura

ambiente, medidos en Bogotá”, Revista Colombiana de Física, vol. 35, No. 1, 2003.

[3] Características de la Planta Solar Fotovoltaica del Laboratorio C.I.B.A. de la Universidad de Valladolid

[Online]. Available:(www3.uva.es/renova/esp/proyectos/descripcionplantapvweb.doc), Agosto, 2011.

[4] D.P. Hohm y M.E. Ropp, “Comparative study of maximum power point tracking algorithms”.Progress in

Photovoltaics: Research and Applications, pp. 47–62, 2003.

[5] T. Esram y P.L. Chapman, “Comparison of photovoltaic array maximum power point tracking

techniques”.IEEE Transactions on Energy Conversion , vol. 22, No. 2, pp. 439–449, 2007.

[6] A. Mellit, H. Rezzouk, A. Messai y B. Medjahed, “FPGA-based real time implementation of MPPT-

controller for photovoltaic systems”, Renewable Energy, vol. 36, pp. 1652-1661, 2011.

Page 11: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 11

DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS PARA LA

REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA CO2 EN LA

PRODUCCIÓN DE ESTIRENO

R.E. Causado-Escobar1 y A. Liliana Barbosa López

2

1 Universidad de Cartagena, Campus de Zaragocilla, Cartagena de Indias, Colombia

2 Laboratorio de Investigaciones en Catálisis y Nuevos Materiales de la Universidad de Cartagena, LICATUC Campus de

Zaragocilla, Cartagena de Indias Colombia

Introducción

El estireno es uno de los monómeros más importantes en la producción de polímeros, tales como resinas,

cauchos sintéticos y plásticos, siendo uno de los intermediarios químicos de gran valor comercial y de gran

utilización y consumo en la actualidad [1,2].La deshidrogenación catalítica de del etilbenceno es la vía de

producción comercial más importante y también la que arroja mejores resultados. Sin embargo, este proceso

presenta varias desventajas, asociadas principalmente a su carácter reversible y endotérmico y al excesivo vapor

requerido. Las implicancias económicas de las mismas sobre el costo del proceso. Una alternativa interesante, a

fin de superar estos inconvenientes y para la cual se ha señalado ventajas comparativas respecto a la

deshidrogenación directa, es el proceso de deshidrogenación con dióxido de carbono de etilbenceno a estireno,

Carmo Rangel y col (2008), muestran que la introducción de CO2 en la alimentación, produce el hidrocarburo

insaturado e hidrogeno, alcanzándose las siguientes ventajas respecto al proceso de deshidrogenación directa: La

reacción es irreversible y por lo tanto, la conversión no está limitada por el equilibrio [3]. El proceso es

exotérmico en lugar de endotérmico. Las temperaturas de operación pueden ser mucho más bajas, razón por la

cual varios grupos de investigación se enfocan en desarrollar nuevos catalizadores. Considerando estos aspectos,

en este trabajo se desarrollaron diferentes alternativas en materia catalítica no disponibles en el mercado

destinadas a la deshidrogenación de etilbenceno en presencia de dióxido de carbono.

En una primera fase se tuvo en cuenta sistemas catalíticos novedosos tales como molibdatos de níquel, de hierro

y de cobre, los cuales en trabajos como los realizados de manera independientes por Mazzocchia y col y Abello

y col.han mostrado gran actividad y rendimiento en reacciones de deshidrogenación de alcanos [4,5], y se

trabajó además con el ya conocido sistema férrico en forma de hematita, Fe2O3, dado sus grandes valores de

selectividades pero soportándolo en carbón activo nanoporoso y óxido cálcico comercial. En una segunda y

última fase se caracterizaron estos materiales para conocer distintas propiedades de estas especies y así poder

correlacionarlas con sus respectivas actividades y selectividades catalíticas.

Experimental

Preparación De Los Catalizadores

Preparación del catalizador másico de NiMoO4 y NiMo/CaO: El catalizador estequiométrico de NiMoO4 se

preparó por coprecipitación de una solución equimolar de ácido molíbdico y Nitrato de níquel (0.25M), a 85°C

con un pH ajustado a 5.25 por adición de amoníaco. El precipitado obtenido se filtró en caliente y se secó a

120°C por 15 horas, entonces se calcinó a 550°C por 2 horas. Para la preparación del catalizador de NiMo/CaO

se preparó primero la fase activa de igual forma como se preparó el catalizador másico de molibdato de níquel

(coprecipitación ) y se impregnó sin interacción la fase activa en el soporte de CaO comercial con un

porcentaje de 10% NiMo. Se sometió luego a secado a 393 K (120°C) por 15 horas y a calcinación a 773 K

(500°C) por 2 horas.

Preparación del catalizador másico de FeMo y CuMo: Los catalizadores másicos de FeMo se prepararon por el

método de coprecipitación adicionando una solución de heptamolibdato de Amonio (HMA) de pH 4.7 y

temperatura 80°C con otra de sulfato ferroso-férrico amónico (o de sulfato de cobre, CuSO4, para el CuMo) de

igual pH y temperatura. Se filtró el precipitado resultante y se secó a 383 K (110°C) por 20 h. Posteriormente se

calcinó a 773 K (500°C) por 2 h.

Preparación del catalizador de Fe2O3/ CaO y Fe2O3 /C: Se prepararon por el método de impregnación sin

interacción utilizando como fuente de hierro la sal cloruro férrico, la cual después de calculada la cantidad de

hierro a soportar fue tratada con hidróxido de amonio para producir la precipitación de todo el hierro como

hidróxido ferrico. Posteriormente se procedió a filtrar el precipitado lavándolo con abundante agua destilada.

Seguidamente se colocó en agitación una suspensión acuosa del soporte (sea oxido cálcico comercial o el

Carbón nanoporoso obtenido) y se le fue adicionando poco a poco pequeñas cantidades del hidróxido férrico con

Page 12: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 12

un intervalo aproximado de una adición cada dos minutos. Se sometió luego a secado a 377 K (104°C ) por 12

horas y calcinó al aire a 1023 K (750°C) durante 5 horas. La carga de Fe fue de 10% en CaO y 1 al 3% en

Carbon nanoporoso.

Preparación del carbón nanoporoso: Una mezcla 1:2 de Resorcinol (99%, reactivo ACS) y Formaldehido (37 %

solución acuosa, reactivo ACS) se adicionó a una solución acuosa coloidal de sílica sol (Ludox HS-40, Aldrich,

40 %), la mezcla de reacción se mantuvo a 85ºC por una semana ajustando el pH inicial hasta 8 con NaOH 1 N

para obtener la composición de sílica y gel resorcinol-formaldehido (gel RF). A continuación la mezcla

resultante se secó a 85ºC por dos días, y se carbonizó a 850ºC con una velocidad de calentamiento de 5ºC/min,

por 3h en atmósfera de N2. Para remover el agregado de sílice en la composición sílice- carbón, se agitó en una

solución acuosa de HF al 48% en peso por 12h, seguida por filtración y lavado con agua desionizada hasta pH

del filtrado aproximadamente 7. La relación molar de los reactivos resorcinol: formaldehido: sílica: agua fue

1:2:7.5:86.

Caracterización De Los Catalizadores

Se caracterizaron los distintos materiales sintetizados por técnicas tales como la espectroscopia de absorción

atómica (AAS), la difracción de rayos X (DRX), la espectroscopia infrarroja con transformada de Fourier

(FTIR) , el método BET y el análisis de reducción a temperatura programada (TPR).

Resultados y Discusión

AAS: los valores de absorción atómica para los catalizadores reflejaron los porcentajes metálicos

esperados.

FT-IR: en los catalizadores NiMo/CaO, FeMo, se observaron estiramientos correspondientes a grupos

Mo=O [O], Mo-O-Mo, H2O estructural, en el caso del FeMo se registraron bandas correspondientes a

polimolibdatos de hierro, Mo=O[O] PoliMo, Fe-O [T], Mo-O-Mo, Fe-O-Mo. En el soporte de CaO

comercial se presentaron estiramientos Ca-O, y se observó la presencia de carbonatos.

TPR: Los catalizadores de CuMo, NiMo y FeMo presentaron una reactividad mayor frente al hidrogeno

siendo más fácilmente reducibles que el Fe2O3 / CaO en el que se aprecio la aparición de un solo pico

correspondiente a la reducción de la especie Fe3+

a Fe2+

, con una temperatura máxima de reducción de

779 °C ligeramente mayor que la reportada para la hematita másica.

XRD: En todos los catalizadores se aprecian picos definidos y agudos, lo que permite considerar que los

sólidos son bastantes cristalinos. Al comparar los sólidos NiMo/CaO y NiMo se pudo observar que se

estabiliza la fase beta (β) del Ni. En los catalizadores de oxido férrico de 10% soportado en CaO se apreciaron

picos correspondientes a la fase hematita, posiblemente en partículas pequeñas y ampliamente dispersas.

Importancia

Este tipo de reacciones gozan de profundo interés debido a su uso potencial en el renglón petroquímico y en los

polímeros [10-12], por lo que se hace importante la búsqueda de nuevas y mejores alternativas catalíticas que

mejoren el rendimiento de la reacción y reduzcan los costes del mismo.

Referencias

[1] Saito, M., Kimura, H., Mimura, N., Wu, J. Y Murata, K. Applied Catalysis A: General. 239 (2003) 71-77.

[2] Lee, E. Catálisis Review. 84 (1963) 285.

[3] Botelho, S., Pereira, D., Melo, A., Rabelo, D. y Rangel, M. Catalysis Today 133–135 (2008) 92–98.

[4] Mazzochia, C.; Anouchosky, R.; Kaddouri, A.; Sautel, M. Y Thomas, R. J of ther Anal. 40 (1993). 1253-

1265.

[5] Abello, M., Gomez, M., Rivarola, J. Y Ferretti, O. XVI Simposio iberoamericano de catálisis. Cartagena de

Indias. Colombia.23 al 28 de Agosto de 1998. Tomo3. 1998. Pag. 1575-1580.

Page 13: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 13

SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA LA

PRODUCCIÓN DE BIOGÁS

F.E. Muñoz., H. Numpaque., I.A Ruge.

Universidad de Cundinamarca

Palabras Claves: Instrumentación, Interfaz Hombre Maquina, Supervisión vía internet, Adquisición Remota.

Introducción. La problemática de los RSU ha venido aumentando como consecuencia de rápido crecimiento y

la concentración desmesurada de la población, del desarrollo industrial, las actividades agrícolas y falta de

políticas para una adecuada gestión de residuos sólidos urbanos. Un manejo y tratamiento inadecuado de los

RSU provocan entre otros aspectos enfermedades, contaminación de recursos hídricos, deterioro del suelo y

contaminación del aire afectando en corto tiempo la calidad del medio ambiente y la vida de las comunidades.

En miras de encontrar posibles soluciones a dicha problemática, la Universidad de Ibagué en alianza con la

Universidad de Cundinamarca formularon el proyecto de investigación titulado “Modelización, simulación,

control y optimización la producción de metano e hidrogeno por vía digestión anaerobia de residuos orgánicos,

urbanos y agrícolas”. El cual busca aprovechar dichos residuos en la producción de biogás e hidrogeno, para tal

fin, el proyecto tiene como objetivo principal optimizar la producción de metano e hidrogeno por vía biológica

en fase de fermentación de la Fracción Orgánica de Residuos Urbanos y Agrícolas en la planta piloto de la

Universidad de Ibagué, aplicando sistemas de monitoreo en línea y estrategias de modelización, simulación,

control no lineal y optimización de procesos.

Este trabajo presenta el desarrollo de la primera fase del proyecto, en la cual se ha venido trabajando el diseño e

implementación de un sistema de supervisión y adquisición de datos vía internet en el software LabVIEW.

Dicho sistema permite crear registro histórico de las variables temperatura, pH, flujo de biogás, concentraciones

volumétricas de CO2 y CH4, con su respectiva visualización en tiempo real. El registro histórico de estos datos

será aprovechado para realizar el tratamiento de los mismos y posteriormente realizar la identificación dinámica

del proceso y diseñar estrategias de control.

Descripción del sistema: Como muestra la Figura 1, la plata piloto de biogás de la universidad de Ibagué cuenta

con un bioreactor continuo (CSTR). En el tanque A se almacena el sustrato a tratar, en el B se lleva a cabo el

tratamiento del sustrato mediante digestión anaeróbica y se genera el biogás. Cada uno de los tanques están

construidos en acero inoxidable con una capacidad de 50L, en donde 24L son para el almacenamiento de

sustrato y 26L son para el almacenamiento inicial de biogás.

Figura 1. Diagrama de bloques del sistema.

La instrumentación que se emplea para monitorear las variables del sistema se encuentra instalada en el tanque

B. El modulo de instrumentación está compuesto por una termocupla tipo J para medir la temperatura del

proceso, una sonda de pH, un sensor de flujo de gas construido a partir de un sensor de presión diferencial

acoplado a un tubo con placa de orificio y un sensor infrarrojo que permite cuantificar las concentraciones

volumétricas de CO2 y CH4. Los sensores son conectados una tarjeta de adquisición de datos NI-USB6009, que

está a su vez está conectada a una computadora personal dentro de la planta, que esta conectada

Page 14: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 14

permanentemente a internet, a esta computadora se le asigna el nombre de PC-servidor. El PC-servidor mediante

una interfaz HMI (Interfaz Hombre Maquina) desarrollada en LabVIEW, adquiere y elabora un registro histórico

de las variables del proceso, para posteriormente enviar vía internet dichas variables a un una computadora

personal remota a la cual se le asigna el nombre de PC-cliente, donde las variables pueden ser visualizadas en

tiempo real. El cliente cuenta con una HMI y un registro histórico de las variables supervisadas.

Desarrollo del sistema de adquisición y supervisión remota de datos. El sistema de adquisición y

supervisión de variables se divide en tres etapas:

Instrumentación y Adquisición.

Comunicación Remota.

Interfaz Grafica de Usuario.

Nota: En el desarrollo del sistema de supervisión se hace uso del software LabVIEW 9.0 a 32bit de Nacional

Instruments. LabVIEW se describe por sus fabricantes como un extenso entorno de desarrollo que brinda a

científicos e ingenieros integración con hardware sin precedentes y amplia compatibilidad. La principal

característica de LabVIEW es el uso del lenguaje G, es decir grafico, donde la herramienta permite el desarrollo

de aplicaciones mediante el uso de bloques funcionales que deben ser interconectados entre sí de acuerdo con las

entradas y salidas que se cuente en cada bloque.

Instrumentación y Adquisición de Datos.La instrumentación se compone de los siguientes sensores:

Sensor de temperatura: El sensor de temperatura empleado es una termocupla tipo J, la cual cumple con las

siguientes especificaciones según el fabricante:

Rango de operación de -40 °C a 750°C.

Sensibilidad ~52 µV/°C.

Material de fabricación en Hierro-Constantana

A razón que la señal de salida de la termocupla tipo está dada en milivoltios, es necesario implementar una etapa

de amplificación a partir de un Amplificador de Instrumentación INA128P. El circuito necesario para realizar la

amplificación en la termocupla es el presentado en la Figura 2.

Figura 2. Circuito amplificador para termocupla tipo J con Amplificador de Instrumentación INA128P.

Implementado el circuito de la Figura 2 con la termocupla, se halla la curva característica del sensor, Figura 3.

Figura 3. Curva característica de termocupla tipo J con Amplificador de Instrumentación INA128P.

Page 15: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 15

Finalmente la ecuación característica del sensor es:

T °C =0.001 ∗ y − 0.6569

0.0289

(1)

Sensor de pH: El sensor empleado es la sonda pH_03 de la empresa LUTRON ELECTRONIC, las

especificaciones del fabricante de esta sonda son las siguientes:

Rango de medición del pH de 1 a 14.

Rango temperatura de operación del sensor de 0°C a 60°C.

Igual que en sensor anterior, es necesario implementar un circuito de adecuación de señal, para tal fin se

implementa el circuito presentado en la Figura 4 con el amplificador de instrumentación de referencia INA114.

La caracterización de la sonda es realizada en los valores de temperatura de 25°C, 30°C, 35°C, 40°C, 45°C, y

50°C.

Figura 4. Circuito amplificador para sonda pH_03 con Amplificador de Instrumentación INA114.

Las curvas características halladas para este sensor es la presentada en la Figura 5.

Figura 5. Curva característica del sensor de pH.

Mediante una regresión polinómica de las curvas anteriores se halla la ecuación característica de la sonda.

𝑝𝐻 = −5.781𝑉3 − 24.27𝑉2 − 42.25𝑉 − 20.5 (2)

Sensor de CO2 y CH4: Para la medida de estas dos variables se cuenta con un sensor que posee doble propósito,

el cual permite medir concentraciones volumétricas de CO2 y CH4, El sensor empleado es el IR15TT-R, el cual

funciona por el principio de Absorción Infrarroja. Las especificaciones del fabricante son las siguientes:

Dos canales para detección simultánea de Dióxido de Carbono y Metano.

0 2 4 6 8 10 12 14-2.2

-2

-1.8

-1.6

-1.4

-1.2

-1

-0.8

-0.6

Temperatura [°C]

pH

Caracterización sonda de pH en función de la temperatura

25°C

35°

40°C

47°C

50°C

Page 16: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 16

Medición de 0 hasta 100% Vol. de Dióxido de Carbono.

Medición de 0 hasta 100% Vol. De Metano.

Resistente a la corrosión.

Según (R. Ilber, 2011) para poder hacer uso de este sensor se requiere de una etapa de amplificación y filtrado,

tanto para el canal de medición del Dióxido de Carbono como para el canal de medición del Metano. El circuito

utilizado es el presentado en la Figura 6.

Figura 6. Circuito amplificador y filtrado para sensor infrarrojo de gas IR15TT-R.

Adquisición de datos: La adquisición de datos para el Sistema de Supervisión Remota se desarrolla con una

tarjeta de adquisición de datos USB de National Instruments, referencia NI USB-6009. Esta tarjeta de

adquisición cuenta con las siguientes características:

- Sistema Operativo: Linux, Mac OS, Windows

- Tipos de Medida: Voltaje

- Entradas analógicas: 8 Canales de una sola terminal y 4 Canales Diferenciales, con una resolución de 14 bits y

una velocidad de muestreo de 48 kS/s, con un máximo voltaje de entrada analógica de 10V y un rango de voltaje

máximo de -10 V - 10 V.

- Entradas y salidas TTL: 12 canales bidireccionales con resolución de 12 bits.

En el aplicativo de LabVIEW el bloque usado para adquirir las señales a través de la tarjeta de adquisición es el

DAQ assistant, el cual es configurado de tal forma se puedan recibir cinco señales a la vez, con un periodo de

muestreo de 1kS/s. Los valores adquiridos por la tarjeta de adquisición deben ser convertidos a un formato de

8bit para poder ser usados en las siguientes etapas, por lo cual son convertidos en un formato extendido y luego

multiplicados por un factor de 51, con el fin de obtener a la salida un valor entre 0 a 255 en formato de 8bit. En

la Figura 7 se muestra el código desarrollado en LabVIEW para esta sección, donde cada hilo corresponde a

cada una de las cinco variables, temperatura, pH, CO2, CH4, y flujo de gas a supervisar [7].

Figura 7. Programa para la adquisición de datos con la NI USB-6009.

Comunicación Remota. La comunicación remota permite que el sistema comparta información de forma

bidireccional entre el PC-servidor ubicado en la Universidad de Ibagué y el PC-cliente ubicado en la

Universidad de Cundinamarca. A la hora de realizar los estudios del funcionamiento de los bloques de

comunicaciones se elije el uso de los bloque de comunicación de datos con el protocolo TCP. Es elegido este

protocolo porque es orientado a la conexión y va a garantizar que el enlace entre el servidor y el cliente siempre

Page 17: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 17

este activo y en caso de caída de la conexión la reporta. Estudiando el funcionamiento de los bloques TCP se

encontró que la comunicación entre dos equipos puede realizarse dentro de una red de área local, siempre y

cuanto el PC-servidor y el PC-usuario estén conectados a dicha red de área local, es decir, si los dos equipos se

encuentran conectados a un router se puede realizar la comunicación sin ningún inconveniente, lo único es

definir una dirección IP estática a cada equipo y utilizar esa IP a la hora de realizar la comunicación entre los

equipos. El inconveniente en el desarrollo de este proyecto se encontraba en la topología de red con que se

cuenta, donde es imposible realizar la conexión entre los dos equipos a una red de área local, debido a la gran

distancia que se encuentran ubicados, por tal razón es necesario recurrir al uso de una Red Privada Virtual, VPN.

La función de la VPN es generar una red de área local virtual mediante un túnel a través de internet. Con la VPN

se genera determinado número de direcciones IP que van a corresponder a una sola red privada virtual y dichas

direcciones IP pueden tener determinados privilegios de acceso y comunicación, según los criterios que se hallan

definido en la VPN y en cada uno de los equipos que pertenezcan a esa VPN. La Figura 8 muestra la topología

de red que utiliza una VPN para realizar la conexión entre dos equipos que pertenecen a diferentes segmentos de

red dentro de internet y el esquema que representa el túnel que permite la comunicación entre dos segmentos de

red.

Figura 8. Esquema de configuración típica de una VPN

Para la implementación de la VPN el software utilizado es Hamachi de la empresa LogMeIn, versión 2.1.0.210,

el cual es de licencia gratuita en su versión más básica. Este software permite establecer una red segura entre dos

o más equipos como si estuviesen conectados físicamente. La razón de elegir Hamachi para la implementación

de la VPN es su capacidad de posibilitar la conexión entre los equipos sin importa la presencia de firewall

lógicos o por hardware y antivirus. También es una herramienta muy fácil de utilizar con una GUI, tal como se

presenta en la Figura 9, es muy amigable para el usuario más novato en el tema de VPN.

Figura 9. Vista preliminar de la GUI de Hamachi

Los bloques de comunicación de datos con el protocolo TCP, fueron el bloque TCP Listen.vi, Figura 10, el cual

es utilizado en el servidor y cumple la función de estar a la escucha de cuando el usuario se conecte a la red. Si

este tiene dentro de su identificador la dirección IP asignada al servidor permite realizar la conexión. Tiene

como parámetro de entrada el puerto del protocolo TCP por el que se desea realizar la comunicación y el

connection ID que es el hilo por el que se realiza la conexión TCP, a través de este es donde se lleva a cabo la

conexión y es por donde se interconectan todos los Bloques TCP, por lo que esta entrada o salida se va a

encontrar en todos los bloques del protocolo TCP.

Page 18: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 18

Figura 10. Bloque de comunicaciones TCP Listen.vi

El bloque TCP Open Conecction.vi se muestra en la Figura 10, y es el encargado de abrir la conexión entre el

PC-usuario y el PC-servidor. Este bloque se utiliza en el PC-usuario y tiene como parámetros de entrada la

dirección IP del PC-servidor, el puerto del protocolo TCP por el que se desea realizar la comunicación y el

connection ID. En tal caso la dirección IP que se ha de ingresar en este bloque es la entregada por software

encargado de la gestión de la VPN, LogMeIn Hamachi que está instalado en el PC-servidor, tal como se mostro

en la Figura 11.

Figura 11. Bloque de comunicaciones TCP Open Conecction.vi

Otro bloque utilizado es el TCP Close Conecction y se función es cerrar la conexión entre los dos computadores.

Solo es necesario conectarle la entrada de connection ID como se muestra en la Figura 12.

Figura 12. Bloque de comunicaciones TCP Close Conecction.vi

Con estos tres bloques mencionados hasta el momento se tiene la conexión por protocolo TCP, ahora para

realizar la lectura de datos y escritura se usan los bloques TCP Read.vi, y TCP Write.vi, los cuales cumplen la

función de recoger la información para luego ser transportada por el protocolo TCP, después bajarla en el host

de llegada y finalmente escribirla en un arreglo string. Para el caso del TCP Read.vi es el encargado de subir la

información por la comunicación establecida por protocolo TCP y para el cado del TCP Write.vi es el encargado

de bajar la información enviada por el computador.

Se puede observar en la Figura 13 el código mínimo para el transporte del valor de una variable, para este caso

flujo de biogás. Este es un fragmento del código total implementado en el PC-servidor. En esta figura se puede

observar el uso del bloque TCP Write.vi.

Figura 13. Fragmento del código implementado en el PC-servidor.

Cabe resaltar la existencia de un bloque en particular dentro de la Figura 15, que se presenta individualmente en

la Figura 14, este cumple una función muy específica de aplanar los datos que se van a llevar por el protocolo

TCP [8].

Page 19: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 19

Figura 14. Bloque Flatten To String Function, para aplanar datos.

Para el caso del PC-Usuario, en comparación al código implementado en el del PC-Servidor, se van a notar

algunas diferencias, Figura 15, la primera es que ya no se usa el bloque TCP Write.vi, en cambio de este se usa

el bloque TCP Read.vi, cuya función es bajar los datos que provienen desde el PC-Servidor, vía internet.

Figura 15. Fragmento del código implementado en el PC-Usuario.

La segunda diferencia en el PC-Usuario frente al PC-Servidor, es que en este hay que desaplanar los datos para

regresarlos de nuevo a un formato string y la tercera es que el bloque usado para establecer la comunicación es

el TCP Open Conecction.vi. Como se menciona antes en este bloque hay que ingresar la dirección IP de

gestionada por LogMeIn Hamachi.

Interfaz Grafica de Usuario. La Interfaz Grafica de Usuario (GUI), es el elemento donde es posible visualizar el

comportamiento de las variables supervisadas en tiempo real y el registro histórico de dichas variables del

proceso que se está llevando a cabo en el reactor anaeróbico ubicado en la Universidad de Ibagué. Para el

caso de la Universidad de Cundinamarca, la GUI es muy similar a la GUI de la Universidad de Ibagué. La

única diferencia que existe en las dos interfaces es que la de la Universidad de Cundinamarca tiene una

pequeña caja de dialogo donde es posible ingresar la dirección IP de la estación a la que se desea conectar, en

este caso, la de la Universidad de Ibagué.

La GUI que cuenta tanto el PC-Servidor, como PC-Usuario son iguales y se cuenta con un display donde puede

observarse el comportamiento en tiempo real de cada una de las variables que se han dedicado a supervisar por

el sistema. Figura 16.

Figura 16. Fragmento de la GUI de visualización de las variables supervisadas en tiempo real.

Page 20: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 20

También se cuenta con una serie de pestañas donde puede visualizarse el registro histórico y una visualización

grafica (variable vs. Tiempo). En la Figura 17 se observa el comportamiento del flujo del biogás.

Figura 17. Fragmento de la GUI de del registro histórico del flujo de biogás.

Análisis de resultados. La prueba realizada para calcular la latencia del sistema de supervisión, se realizó

mediante el comando ping de DOS de un equipo a otro, donde la latencia promedio fue de 860ms, un valor muy

aceptable teniendo en cuenta que las dos universidades cuentan con redes de internet que son administradas por

servidores que poseen un alto trafico de información.

Conclusión. Con el desarrollo del sistema de supervisión se ha garantizado el transporte de información en

tiempo real; considerando el bajo tiempo de latencia, de tal forma que los datos del proceso pueda ser utilizados

por ambas partes (Universidad de Ibagué y Universidad de Cundinamarca) para poder desarrollar modelos de

identificación que permitan conocer mejor los procesos de la digestión anaeróbica de residuos sólidos orgánicos

para propósitos de producción alternativa de energía como lo es el biogás, y por otro lado, contar la información

suficiente para diseñar estrategias de control que permitan a futuro poder normalizar una producción de biogás

de forma eficiente.

Referencias

National Instruments. Data Acquisition Basics Manual, January 2000 Edition Part Number 320997E-01.

Disponible en internet en: http://www.ni.com/pdf/manuals/320997a.pdf LAJARA. José, LabVIEW, entorno grafico de programación, Alfaomega-marcombo, 2007, ISBN por marcombo

84-267-1426-29 y por alfaomega 970-15-1133-6

BAILEY. David, Practical SCADA for Industry, ELSEVIER, First published 2003, ISBN: 07506 5805. Disponible

en internet en: http://www.fer.unizg.hr/_download/repository/Practical_SCADA_for_Industry.pdf RUGE. Ilber, Modulo De Entrenamiento Para El Aprendizaje De Comunicación Usb Entre Microcontrolador Pic

Y Delphi Borland. 2010. Segundo Congreso Virtual, Microcontroladores y sus Aplicaciones. Disponible en:

http://www.areacapacitacion.com.ar/ Ruge, Ilber. Control difuso basado en microcontrolador para la producción de biogás en digestión anaerobia tipo

batch de fracción orgánica de residuos sólidos, articulo publicado en: Memorias Segundo Congreso Internacional

De Instrumentación Control Telecomunicaciones, ISBN: 978-958-8561-26-4, Universidad Santo Tomas, Tunja

Boyacá, 2011.

PEREZ. Yohan, Implementación de Comunicación USB con Microcontrolador PIC18F4550 y LabVIEW.

Disponible en:

http://www.pcbporladerecha.com/descargas/USB%20con%20PIC18F4550%20y%20LabVIEW%20-

%20rev%202012.pdf

Manual de usuario de la tarjeta de adquisición NI USB-6009. Disponible en internet: http://www.ni.com/white-

paper/8985/es

Page 21: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 21

METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS PREDICCIONES

REALIZADAS CON MODELOS HIDROLÓGICOS

J. C. Múnera-Estrada

Programa Ingeniería Civil, Universidad de Ibagué, Ibagué

Palabras claves: Evaluación de Incertidumbre, Modelos Hidrológicos, Métodos Bayesianos

Problema

Al igual que ocurre con cualquier modelo matemático, los modelos hidrológicos pueden son herramientas útiles

para representar de una forma simple la realidad física de un sistema muy complejo como es una cuenca

hidrográfica. Muchos hidrólogos aluden a la dificultad que conlleva emular el comportamiento de una cuenca

con un modelo matemático y resaltan la necesidad de incorporar en el análisis la incertidumbre derivada de este

ejercicio. Por otro lado, los modelos hidrológicos están compuestos por sub-modelos que representan diversos

procesos físicos interrelacionados en la cuenca entre el agua, la energía, el suelo y la vegetación.

La dinámica de cada uno de ellos se estudia mediante ecuaciones matemáticas relativamente simples que actúan

como representaciones agregadas de los mismos, que suelen tener una marcada variabilidad espacio-temporal.

Por esta razón, los parámetros involucrados en las mismas no siempre representan una entidad física medible en

forma directa, razón por la cual los valores estimados adquieren la connotación de "parámetros efectivos" [1].

Por otro lado, para su estimación o calibración se recurre con frecuencia a métodos indirectos basados en la

dinámica de los flujos de entrada (precipitación) y de salida (caudal) en un período de tiempo determinado. No

obstante, la variabilidad espacio-temporal de los primeros suele estar pobremente representada, y los errores de

estimación de los segundos pueden ser apreciables, especialmente durante las crecidas; ambos efectos inducen

sesgos considerables en la identificación de los parámetros del modelo. En este contexto, se puede afirmar sin

lugar a dudas que las simulaciones o predicciones realizadas con modelos hidrológicos no están exentas de error.

Por este motivo, un marco metodológico conceptual de modelación lluvia escorrentía no sólo debe describir y

cuantificar los procesos hidrológicos, sino también incluir una evaluación objetiva de la incertidumbre en la

modelación. Este análisis debe considerar tres aspectos fundamentales interrelacionados como son: el

entendimiento, cuantificación y reducción de la incertidumbre [2].

Metodología

En los últimos años se ha dado un debate en la comunidad científica de hidrólogos y meteorólogos sobre cuál es

el marco metodológico más robusto para estimar e interpretar la incertidumbre vinculada a la modelación

hidrológica, de modo que se obtenga su máximo potencial práctico, tanto en propósitos de investigación como

en la práctica hidrológica operacional. Una corriente amplia coincide en que ese marco conceptual debe basarse

en la teoría Bayesiana formal, mientras que otro grupo se ha orientado hacia métodos simplificados que se

pueden considerar pseudo-probabilísticos.

Los métodos del primer tipo intentan descomponer y propagar las diversas fuentes de incertidumbre que

aparecen en el proceso de modelación (datos de entrada, parámetros, estructura del modelo, datos de salida),

utilizando técnicas de simulación tipo Montecarlo para estimar los cuantiles de la variable simulada en cada paso

de tiempo. Algunos ejemplos son: Markov Chain Montecarlo (MCMC), Bayesian Total Error Analysis

(BATEA), Bayesian Recursive Analysis (BARE). Los segundos permiten analizar la sensibilidad del modelo

ante las posibles variaciones en los datos de entrada o los valores que puede adoptar el espacio de parámetros.

Algunos de éstos son: Generalized Likelihood Uncertainty Estimation (GLUE), General Sensitivity Analysis

(GSA), Dynamic Identifiability Analysis (DYNIA).

Incertidumbre de validación versus incertidumbre predictiva

Es importante diferenciar entre la incertidumbre de validación y la incertidumbre predictiva (IP). Todas las

aproximaciones mencionadas antes hacen referencia a la primera, la cual expresa la capacidad del modelo para

emular la realidad [3] y se define como la incertidumbre de una predicción realizada por un modelo (ŷt), dado el

Page 22: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 22

conocimiento de lo que en realidad ha ocurrido, es decir, el valor observado (yt) al que se refiere tal predicción.

Esta incertidumbre se expresa en términos de la función de densidad de probabilidad (fdp) condicionada

fy y y y=y* (Figura 1) y es una información muy importante para evaluar la calidad del modelo con el claro

propósito de mejorarlo modificando su estructura, los valores de los parámetros, etc. En contraste con lo

anterior, en los casos de predicción lo que interesa es expresar la incertidumbre sobre el valor real que puede

ocurrir en un futuro (yt), teniendo como única información disponible la predicción realizada con el modelo (ŷt).

Este tipo de incertidumbre es la que se denomina incertidumbre predictiva (IP) y debe considerar explícitamente

la fdp de un valor futuro desconocido de la variable de interés, condicionada a las predicciones realizadas con el

modelo: fy y y y =y * (Figura 2).

Figura 1. Representación de la incertidumbre de validación

Figura 2. Representación de la incertidumbre predictiva

Page 23: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 23

La metodología Bayesiana Model Conditional Processor (MCP) [4] está inspirada en el pos-procesador

Hydrologic Uncertainty Processor (HUP) [5] y en la técnica Bayesian Model Averaging (BMA) [6]; esta última

permite combinar predicciones realizadas con varios modelos. El MCP se basa en la idea de generalizar el uso

de la transformación Normal Quantile Transform (NQT) para convertir la serie histórica observada y las

predicciones de los modelos a un espacio Multi-Normal (ó Meta-gaussiano) para estimar la IP. La combinación

de más de un modelo de predicción se realiza en tres fases: en la primera, se procesan las series originales de las

observaciones y los modelos y se calcula el valor esperado por separado para cada modelo; en la segunda, se

calcula el valor esperado de la combinación de valores esperados de cada uno de los modelos, y en la tercera, se

procesa la serie del valor esperado de la combinación como si fuese un único modelo.

Resultados

Para la aplicación de la metodología propuesta se seleccionó la cuenca Baron Fork en Eldon (afluente del Río

Illinois), con un área de drenaje de 795 km2. Esta cuenca está incluida en la segunda fase del proyecto de

intercomparación de modelos hidrológicos distribuidos (DMIP2) del National Weather Service (NOAA/NWS).

El MCP se ha aplicado por separado a las predicciones obtenidas con 3 modelos hidrológicos: dos modelos

distribuidos físicamente basados (TETIS y TOPKAPI) y un modelo de Redes Neuronales Artificiales (ANN).

Posteriormente se ha realizado la estimación de la IP para las 3 combinaciones posibles de dos modelos, y por

último, la combinación de los 3 modelos.

Para el evento de validación analizado (enero de 1998), la combinación de los dos modelos distribuidos parece

más robusta, permitiendo reducir la banda de incertidumbre respecto a los dos modelos individuales, lo cual es

un resultado esperable. En cuanto a la combinación de los 3 modelos, los resultados muestran un estrechamiento

de la banda de incertidumbre que refleja el papel dominante del modelo ANN. Igualmente, se observa una

mejora importante en la rama ascendente del hidrograma respecto a este modelo, aunque el valor esperado de la

triple combinación infravalora el caudal pico del hidrograma. No obstante, la probabilidad de excedencia

estimada en este último caso para el umbral de caudal prefijado (350 m3/s) es la que mejor se ajusta al

comportamiento observado.

La aplicación del MCP al caso de estudio evidencia que la esta metodología es una herramienta robusta y muy

útil para estimar la IP asociada a la predicción de una avenida de magnitud considerable con uno o varios

modelos. La metodología del MCP fue concebida como un pos-procesador de incertidumbre, de modo que

permite utilizar como herramienta de predicción cualquier tipología de modelos hidrológicos, hidráulicos o

basados en los datos que resulten adecuados al problema, beneficiándose de las diferentes potencialidades y

características de cada uno de ellos.

Referencias

[1] Francés, F., J. I. Vélez, and J. J. Vélez “Split-parameter structure for the automatic calibration of

distributed hydrological models”, Journal of Hydrology, 332(1-2), 226-240, 2007.

[2] Liu, Y., and H. V. Gupta, “Uncertainty in hydrologic modeling: Toward an integrated data assimilation

framework”, Water Resources Research, 43(7), 1-18, 2007.

[3] Todini, E., “History and perspectives of hydrological catchment modeling”, Hydrology Research, 42(2-

3), 73-85, 2011.

[4] Todini, E., “A model conditional processor to assess predictive uncertainty in flood forecasting”,

International Journal of River Basin Management, 6(2), 123–137, 2008.

[5] Krzysztofowicz, R., “Bayesian theory of probabilistic forecasting via deterministic hydrologic model”,

Water Resources Research, 35(9), 2739, 1999.

[6] Raftery, A. E., T. Gneiting, F. Balabdaoui, and M. Polakowski, “Using Bayesian Model Averaging to

Calibrate Forecast Ensembles”, Monthly Weather Review, 133(5), 1155-1174, 2005.

Page 24: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 24

DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL SALVADO

DE ARROZ

H.M. Hernández Sarabia1, B. De Meulenaere

2

1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué

2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.

Palabras claves: Cinética de sorcion, calor isosterico, salvado de arroz.

Problema

La determinación de la cinética de sorción y el calor isosterico para el salvado de arroz (SA) es un cálculo

determinante para establecer los requerimientos energéticos y el tiempo necesario para llevar el SA a una

condición de equilibrio, pensando en los procesos de estabilización que son fundamentales para evitar la

hidrolisis enzimática y el consecuente deterioro por alta acidez y enranciamiento del SA que limita su uso para

nutrición humana, donde se tiene por su contenido de aceite y de proteína una fuente para obtener y desarrollar

nuevos productos que le den valor agregado a este subproducto de bajo valor comercial y se puedan así, las

utilidades en la molinería y en la cadena productiva del arroz.

Metodología

La determinación del calor isosterico y la cinética de sorción y desorción para el SA, fue realizada, aplicando los

modelos GAB, BET, Henderson, Chung Pfost, Halsey y redes neuronales. Los modelos fueron verificados con

datos obtenidos de experimentación realizada en el laboratorio de NutriFoodChem de la facultad de

Bioingeniería de la Universidad de Gent en Bélgica. La experimentación se llevo a cabo por espacio de 4 meses

para la determinación de las curvas de equilibrio por el método gravimétrico para la absorción y desorción del

salvado de arroz. Para el cálculo de la cinética de desorcion y adsorción, las muestras fueron incubadas en

recipientes plásticos con control de humedad relativa desde 40 hasta el 80% y almacenadas en cámaras con

control de temperatura a 30 y 37 grados centígrados, hasta alcanzar el equilibrio final. El contenido de humedad

fue determinado por mediciones constantes de peso, durante el tiempo de incubación. Los datos obtenidos en la

parte experimental entonces, fueron procesados y los modelos mencionados, se obtuvieron utilizando

Matlab/Simulink.

Resultados

Los resultado para las curvas de absorción y de sorción del SA obtenido por el molido del arroz paddy variedad

Fedearroz 60, se presentan en las Figuras 1 y 2 para las temperaturas de 30 y 37 °C respectivamente. En las

Figuras podemos observar el valor de la humedad en equilibrio (EMC) por sus siglas en ingles (Equilibrium

Moisture Content) expresada en gramos de agua por 100 gramos de materia seca frente a la fracción de actividad

de agua para el SA. Las muestras fueron medidas por triplicado y en las graficas se observa que la desviación

estándar no fue significativa para el EMC en cada una de las fracciones de actividad de agua. El EMC fue

alcanzado al tener por más de tres días en la incubación valores con una variación inferior de peso de 0,1 %.

El EMC fue alcanzado primero en tiempo para la sorción a 37 °C, indicando que el intercambio de humedad

entre el SA y el ambiente se incrementa al aumentarse la temperatura. Para las figuras se selecciono el modelo

GAB (Líneas continuas) que fue el que mejor se ajusto a los valores experimentales (datos punteados). Estos

resultados concuerdan con los obtenidos por diversos estudios de investigación desarrollados que se encuentran

en las referencias [1], [2], [3] y [4], quienes seleccionaron como el modelo más ajustado el de GAB. El criterio

de selección utilizado fue el porcentaje de error medio relativo (Pe) y el grafico de residuos recomendados por

[1] y [2] en sus trabajos de investigación. El EMC para 30 °C se alcanza por debajo del 14% que es el valor al

que se llega al equilibrio para las isotermas de sorción a 37°C, con los cual se evidencia que especialmente para

la de sorción más rápidamente se alcanza el EMC a 37 °C. La histéresis generada por las curvas de adsorción y

de sorción son similares para las curvas a las dos temperaturas trabajadas. El calor isosterico fue calculado

aplicando la ecuación de Claussius Clapeyron de acuerdo con lo recomendado por [1] y el valor obtenido es de

7,11 k/mol. En Colombia realizada una exhaustiva revisión bibliográfica no se encontraron datos reportados

Page 25: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 25

confiablemente para el SA obtenido de la variedad de arroz paddy Fedearroz 60, con lo que no se pudo hacer

una comparación a nivel local.

Figura 1. Isotermas de sorción para el salvado de arroz a 30 °C

Figura 2. Isotermas de sorción para el salvado de arroz a 30 °C

Referencias

[1] B. S. Reddy y A. Chakraverty.Equilibrium Moisture Content of Raw and Parboiled Paddy, Brown Rice

and Bran. Drying Technology. Vol. 22, No 4, pp. 837 – 851. 2004.

[2] S. Samapundo, F. Devlieghere, B. De Meulenaer, A. Atukwase, Y. Lamboni yJ. Debevere.

Sorptionisotherms and isosteric heats of sorption of whole yellow dent corn. Journal of Food Engineering 79 pp.

168 – 175. 2007.

[3] Ernesto O. Timmermann. Multilayer sorption parameters: BET or GAB values?.Colloids and Surfaces

A: Physicochem. Eng. Aspects 220, pp. 235 – 260. 2003.

[4] A. Vega Gálvez, E. Lara Aravena y R. Lemus Mondaca. Isotermas de adsorción en harina de maíz. Ciencia

y Tecnología Alimentaria, 26(4), pp. 821-827. 2006.

0,0

2,0

4,0

6,0

8,0

10,0

12,0

14,0

16,0

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8

EMC

(g

agu

a/1

00

g m

s)

Actividad de Agua

Adsorción

Desorción

0,0

2,0

4,0

6,0

8,0

10,0

12,0

14,0

16,0

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8

EMC

(g

agu

a/1

00

g m

s)

Actividad de Agua

Adsorción

Desorción

Page 26: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 26

VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA CONSUMO

HUMANO

O.E. Ospina Zúñiga1, H. Ramírez Arcila

2

1-2 Departamento de Ingeniería Civil, Grupo Investigación AQUA, Universidad Cooperativa de Colombia,

Ibagué

Palabras claves: Vulnerabilidad, contaminantes, tratamiento

Problema

Las diversas y altas concentraciones de contaminantes incorporados a cuerpos de agua, ponen de manifiesto la

vulnerabilidad de las plantas de tratamiento convencional de agua para consumo humano, con consecuencias en

la salud pública. Colombia como reflejo de muchas regiones latinoamericanas, es víctima de una irresponsable

actitud estatal y de particulares, que por ausencia de controles de calidad, legislación y tratamiento

indiscriminado de cultivos con plaguicidas y agroquímicos están ocasionando un severo efecto ambiental en el

agua, perjudicando sus componentes y tornándose mortal para la salud humana. Los sistemas de tratamiento

convencionales son ineficientes para retener algunos de estos contaminantes.

El principal detonante de las altas tasas de morbilidad y mortalidad que se presenta en la población, se ha

convertido en uno de los problemas ambientales más graves del siglo XXI debido a la agresiva intervención

antrópica de las Cuencas Hidrográficas, como fábricas de los cuerpos de agua abastecedores de sistemas de

acueducto, con proliferación de todo tipo de contaminantes y especialmente químicos industriales. La riqueza

hídrica que históricamente ha poseído Colombia, está en alto riesgo dada la mala práctica que la población le

está dando a este preciado recurso, con la falacia que es inagotable e invulnerable.

Metodología

El trabajo se realizó mediante métodos evaluativos. La investigación se refiere a la evaluación de la

vulnerabilidad de los sistemas convencionales de tratamiento de agua superficial, a partir de los potenciales

contaminantes establecidos en la normativa vigente en Colombia [1]. El sistema de tratamiento convencional

utilizado frecuentemente en Colombia, corresponde al conjunto de los siguientes procesos: Mezcla rápida,

floculación – coagulación (clarificación), sedimentación, filtración y desinfección [2]. Todos ellos con la

capacidad de remover contaminantes físicos, químicos, organolépticos y bacteriológicos, siempre y cuando la

fuente de abastecimiento no contenga altos índices de contaminación (concentración, diversidad).

La retención de partículas solubles y disueltas en el agua se remueve de mayor a menor tamaño, siendo la

filtración la fase final de este proceso. Pero en el agua existen algunas partículas o elementos que por su tamaño

no pueden ser cribadas en el proceso de tratamiento y se incorporan al agua tratada, siendo consumida por la

población. También algunos micro-organismos son capaces de superar el proceso de filtración dado su tamaño.

El proceso de clarificación del agua para consumo humano, definido como la separación de los sólidos del agua

por acción de la gravedad, se obtiene a partir de la coagulación, floculación y separación de partículas

(sedimentación y filtración) como se indica en la figura 1; siendo: Coagulación, la aglutinación de las partículas

suspendidas y coloidales presentes en el agua mediante la adición de coagulantes; floculación, la aglutinación de

partículas inducida por la agitación lenta de la suspensión coagulada [3]. El proceso de tratamiento

convencional típico utilizado en Colombia y especialmente en la totalidad de municipios del departamento del

Tolima, se describe en la Figura 1.

Page 27: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 27

Figura 1. Esquema del proceso de tratamiento convencional

Fuente: OSPINA, 2011

La norma Colombiana establece 40 indicadores de contaminación distribuidos en cinco (5) grupos:

Microbiológicos, físicos, químicos con efecto directo, plaguicidas y químicos con efecto indirecto. Varios de

ellos requieren para su remoción de procesos tecnológicos no incluidos en el sistema de tratamiento

convencional, lo cual pone de manifiesto la vulnerabilidad del mismo en el evento de estar presente en la fuente

de abastecimiento. Algunos contaminantes se remueven utilizando procesos de intercambio iónico, ósmosis

inversa, carbón activado y aplicación de ozono, entre otros; tecnologías estas que no hacen parte del proceso

convencional y no están disponibles para comunidades urbanas y rurales en Colombia, dado sus altos costos de

operación y mantenimiento. Si la fuente de abastecimiento posee este tipo de contaminantes, es probable su

consumo por parte de la población con su consecuente acción destructiva en la salud. Las plantas de tratamiento

convencionales realizan la retención física de partículas de mayor a menor tamaño: En el desarenador se

retienen hasta tamaños mínimos de 100 micras y en la filtración hasta de 5 micras.

Figura 2-A. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional

Fuente: OSPINA, 2011

Page 28: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 28

Figura 2-B. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional

Fuente: OSPINA, 2011

Todo lo anterior cuando se trata de unidades operando en condiciones de buen funcionamiento y con los

caudales y tiempos de retención de diseño. Para el caso de la filtración, en Colombia es frecuente utilizar

multicapas con materiales como grava, arena y antracita [4]. El tamaño de varias partículas y micro-organismos

son inferiores a 1 micra, por lo tanto la planta de tratamiento es vulnerable al respecto. El proceso de remoción

de micro organismos del agua, es de gran complejidad y requiere especial atención cuando la fuente de

abastecimiento posee altas concentraciones y algunos ooquistes inmunes a desinfectantes como el cloro (en

dosis no letales para el ser humano).

Resultados

La investigación desarrollada pone de manifiesto la vulnerabilidad de las plantas de tratamiento convencionales

de agua para consumo humano, cuando las condiciones físicas, químicas y bacteriológicas de la fuente de

abastecimiento son deficientes. Si se analiza cada uno de los potenciales contaminantes que se presentan en

aguas superficiales y el proceso eficaz de remoción, se puede determinar cuáles son retenidos en el sistema

convencional y cuáles lo superan. Varios de los químicos con efecto directo en la salud humana provienen de

actividades antrópicas (agricultura y ganadería), los cuales no son retenidos, por tratamientos convencionales. El

tamaño de partículas disueltas y en suspensión pueden pasar el sistema de filtración, dejando en el agua para

consumo humano presencia de algunas bacterias y virus que afectan la salud humana. En varias investigaciones

se ha comprobado que los ooquistes de Cryptosporidium y Giardia son protozoos parásitos que sobreviven al

tratamiento convencional del agua, como es el caso de la investigación realizada en el año 2010 a varios

municipios de Galicia – España, donde se detectó la presencia de estos parásitos luego del proceso de

tratamiento del agua [5]. El indicador de coliformes fecales es la escherichia coli [1], con la cual se evalúa la

presencia o no de este tipo de contaminante (tamaño de hasta 3 micras). Sin embargo existen otras bacterias de

menor tamaño que pasan sin dificultad la filtración, como es el caso del streptococcus y haemophilus influenza;

lo cual implica un adecuado proceso de desinfección en el tratamiento.

Referencias

[1] Resolución 1096 (2000). Reglamento Técnico del Sector de Agua Potable y Saneamiento Básico R.A.S.

2000. Ministerio de Desarrollo Económico de la República de Colombia.

[2] CEPIS - Centro Panamericano de Ingeniería Sanitaria y Ciencias del Ambiente) (1981). Teoría, diseño

y control de los procesos de clarificación del agua – Serie Técnica 13.

[3] O. Ospina. Sedimentación de agua con coagulantes naturales. Maestría en Gestión y Auditorías

Ambientales. Universidad Internacional Iberomaericana de Puerto Rico, 2011.

[4] H.E., Hilleboe. Manual de tratamiento de aguas. New York: Departamento de Sanidad del Estado de

Nueva York, Albany.1998

Page 29: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 29

MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO EN UN

REACTOR BATCH

H.M. Hernández Sarabia1, M. Machado Higuera

2

1 Facultad de Ingeniería/GMAE, Universidad de Ibagué, Ibagué.

2 Facultad de Ciencias Naturales y Matemáticas/NATURATU, Universidad de Ibagué, Ibagué.

Palabras claves: Digestión anaerobia, Biogás, Bioproceso

Problema

Obtener un modelo matemático que represente las reacciones químicas del proceso biológico (dinámico) de

digestión anaerobia, para la producción de biogás en un reactor batch (no continuo). Luego simular el modelo

utilizando Matlab/Simulink® y posteriormente validarlo con datos experimentales.

Metodología

La Formulación del modelo matemático que represente el proceso de digestión anaerobia, se realizo estudiando

los procesos biológicos, químicos y físicos que tienen relación en un ecosistema donde coexisten diferentes tipos

de microrganismos que catalizan las reacciones que tiene lugar en un bioreactor tipo batch. Se determinó la

cinética de las reacciones en un sistema dinámico como este y se hizo una estimación de los parámetros del

modelo tomando los resultados del comportamiento de las variables de pH, Temperatura, Acidez, Alcalinidad,

remoción de materia orgánica y producción de Biogás que tienen lugar en un bioreactor. Para la solución del

sistema se determinaron las constantes cinéticas del proceso para cada paso y se resolvieron las ecuaciones

diferenciales que describen el sistema no lineal. Las ecuaciones diferenciales fueron implementadas en

Matab/Simulink®, donde se realizaron simulaciones para analizar el comportamiento de las diferentes variables

que interviene en el proceso, revisar su dinámica y ajustar parámetros iníciales. Luego para comprobar la validez

del modelo se corrieron simulaciones con datos obtenidos de referencias bibliográficas confiables y se

compararon resultados del modelo planteado contra los datos de validación.

Resultados

Se obtuvo un modelo matemático que representa satisfactoriamente la producción de Metano en un reactor tipo

batch para diferentes tipos de sustratos. El modelo fue validado con datos obtenidos se demostró que es

confiable para representar la dinámica de las variables como pH, producción de biogás, concentración de

sustrato, concentración de biomasa en el proceso de digestión anaerobia en un reactor batch. Para la obtención

del modelo el proceso fue dividido en tres partes, donde se representa mediantes ecuaciones químicas acopladas

los procesos de desintegración, hidrolisis, acidogenesis, acetogenesis y metanización que se llevan a cabo dentro

de la digestión anaerobia. Con el modelo obtenido se tiene una valiosa herramienta para profundizar en el

conocimiento del proceso y para el diseño de estrategias de control automático que permitan tener una

producción de Biogás estable y optimizar la producción a partir de la fracción orgánica de desechos orgánicos,

contribuyendo de esta forma con una solución tangible al problema ambiental con el manejo de residuos sólidos

y al calentamiento global con una producción de biogás estable que puede ser aprovechado por su contenido de

Metano del 60% como un biocombustible renovable que ayude con la disminución de la concentración de gases

efecto invernadero y el reemplazo de combustibles fósiles.

Referencias

[1] Bastone, D.J, Keller, J., Angelidaki, I., kalyuzhnyi, S.V, Pavlostatathis,S. G., Rozzi A., Sanders, W. T.

M., Siegrist, H., Vavilin, V. A.(2002). Anaerobic Digestion Model No 1, scientifically and technical report No

13. IWA Publishing.

[2] Batstone, D. J., Keller, J. & Steyer, J. P. (2005). A review of ADM1 extensions, applications, and

analysis 2002 - 2005, Workshop.

[3] García-Ochoa, F., Santos, V.E., Naval, L., Guardiola E. and López B., (1999). Kinetic model for

anaerobic digestion of livestock manure. Elsevier Science Inc., Enzyme and Microbial Technology 25, 55-60.

Page 30: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 30

TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS

FOTOVOLTAICOS

O. Lopez-Santos1, L. Martinez-Salamero

2, G. Garcia

3

1D+TEC, Universidad de Ibagué, Ibagué, Colombia

2GAEI, Universidad de Rovira i Virgili, Tarragona, España

3MAC, Laboratoire d‟Analyse et d‟Architecture des Systèmes - LAAS, Toulouse, Francia

Palabras claves: Sistemas fotovoltaicos, electrónica de potencia, generación distribuida.

Problema

Existe una clara tendencia mundial hacia el aprovechamiento de energías renovables que permitan reducir la

producción de energía eléctrica a partir de hidrocarburos o energía nuclear. En los años recientes, debido a los

acontecimientos que evidencian los riesgos introducidos por el uso de la generación nuclear, el interés por el uso

de energías renovables se ha acelerado en todo el mundo, principalmente en Europa por la cantidad de centrales

nucleares instaladas. Por lo tanto, diversos esfuerzos de investigación se enfocan en conseguir que los

generadores fotovoltaicos y otras energías alternativas puedan usarse de forma distribuida [1,2].

Los generadores fotovoltaicos, han evolucionado históricamente desde las arquitecturas con un inversor

centralizado para arreglos de múltiples paneles solares hacia las arquitecturas con un micro-inversor para cada

panel solar. Esto se debe principalmente a que la conexión de paneles solares en arreglos serie, deteriora el

rendimiento general del sistema debido a la no homogeneidad de los módulos o de las condiciones de operación.

Las topologías usadas actualmente introducen una etapa de conversión DC-DC que permite extraer del panel

solar la totalidad de la energía captada usando un algoritmo de seguimiento para el máximo punto de potencia

MPPT (del inglés: MaximumPower Point Tracking), mejorando el rendimiento [3]. Entre las topologías actuales

de los sistemas fotovoltaicos se destacan las arquitecturas con arreglos en cadena (del inglés: Multi-string), en

donde los paneles fotovoltaicosson conectados cada uno a un convertidor DC-DC que posee MPPT, para

posteriormente conectar los convertidores en serie y obtener un nivel de tensión apto para una etapa reductora

DC-AC [4]. Otra arquitectura que ha despertado el interés de la comunidad científica e industrial, convierte la

energía suministrada por un panel solar directamente a la forma de la red eléctrica permitiendo la conexión

directa y en consecuencia la unificación del sistema en un único módulo AC [4]. Los módulos AC más

comúnmente utilizados y de los que se ha discutido una inherente ventaja respecto a los demás utilizan una

topología con dos etapas, una etapa DC-DC con MPPT y otra DC-AC [5]. Así, surge la pregunta: ¿Qué

convertidores electrónicos pueden ser utilizados para desarrollar un módulo AC de dos etapas garantizando

estabilidad, confiabilidad y valores aceptables de tamaño, peso y costo?

Metodología

Se han planteado tres mecanismos de obtención de información: indagación, simulación y experimentación. La

indagación se realiza especialmente en publicaciones de IEEE e IET, hojas técnicas y manuales de fabricantes,

con énfasis en los inversores fotovoltaicos conectados a la red eléctrica. La simulación es desarrollada usando

PSIM y MATLAB, con el fin de explorar las topologías y realizar la verificación de los resultados que se

deriven de análisis teóricos. La experimentación será enfocada en la construcción de un prototipo completo de

modulo AC. Para la consecución de los objetivos propuestos, se definen los siguientes pasos:

Estudiar diferentes configuraciones de módulos AC de dos etapas.

Analizar el comportamiento estático de las etapas.

Estudiar el funcionamiento de la estructura durante el arranque.

Determinar las topologías más apropiadas para cada etapa.

Diseñar leyes de control requeridas.

Todas las etapas validadas a través de simulaciones y experimentación.

Avances

Hasta el momento, la investigación ha permitido comparar al convertidor elevador, el convertidor elevador

cuadrático y el convertidor elevador cúbico con el fin de satisfacer las condiciones de la etapa DC-DC sin usar

un transformador de alta frecuencia. El estudio se ha centrado en el análisis de rendimiento de los convertidores,

teniendo en cuenta tanto las pérdidas por conducción como las perdidas por conmutación. Estos resultados

Page 31: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 31

preliminares nos permiten concluir que el convertidor elevador cuadrático es una estructura competitiva para ser

aplicada en el desarrollo del modulo AC de dos etapas propuesto. Además, se han realizado simulaciones del

convertidor completo (Etapas DC-DC y DC-AC) conectado a la red eléctrica inyectando potencia real con

resultados favorables. La Figura 1 presenta el modelo de simulación usado y la Figura 2, las señales

correspondientes a la salida de cada una de las etapas del convertidor.

Figura 1. Modelo de simulación PSIM de modulo AC de dos etapas

Figura 2.Resultados de simulación:a) tensión de entrada, b) tensión de salida de la etapa DC-DC, c) corriente

inyectada a la red, y d) tensión de la red.

Referencias

F. Blaabjerg, C. Zhe, S.B. Kjaer, "Power electronics as efficient interface in dispersed power generation

systems," IEEE Transactions on Power Electronics,vol. 19, no. 5, pp. 1184-1194, Septiembre, 2004.

Y.Xue; L. Chang; S.B.Kjaer; J. Bordonau,T. Shimizu, "Topologies of single-phase inverters for small

distributed power generators: an overview", IEEE Transactions on Power Electronics, vol.19, no. 5, pp. 1305-

1314, Septiembre, 2004.

K.K.Tse, B.M.T. Ho, H.S.-H. Chung, S.Y.R.Hui, "A comparative study of maximum-power-point trackers for

photovoltaic panels using switching-frequency modulation scheme," IEEE Transactions on Industrial

Electronics, vol.51, no.2, pp. 410-418, Abril, 2004.

J.M.A. Myrzik, M. Calais, "String and module integrated inverters for single-phase grid connected photovoltaic

systems - a review", 2003 IEEE Bologna Power Tech Conference Proceedings, vol. 2, pp. 23-26, Junio, 2003.

S.B. Kjaer, J.K. Pedersen, F. Blaabjerg, "A review of single-phase grid-connected inverters for photovoltaic

modules", IEEE Transactions on Industry Applications,vol.41, no.5, pp. 1292-1306, Septiembre, 2005.

Page 32: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 32

VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE CASTILLA

L.C. Ayala S1., C.P. Valenzuela R

2., Y. Bohórquez P

3.

1-2-3 Grupo de Investigación CEDAGRITOL, Universidad del Tolima, Ibagué

Palabras claves: Grado de madurez, pérdidas, comercialización.

Problema

La mora de castilla (Rubus glaucus Benth.), fruto cultivado en zonas de clima frio moderado del departamento

del Tolima, en relación a su tendencia de producción, presenta un alto potencial para consumo en fresco e

industrial. Sus características fisicoquímicas, morfológicas y fisiológicas hacen de éste uno de los frutos más

lábiles de la cadena hortofrutícola, si se tiene en cuenta su alta perecibilidad, reducida vida en anaquel (3 – 5

días) bajo condiciones especiales de almacenamiento (90 - 95%HR y 0 – 1°C), susceptibilidad fitosanitaria al

ataque de Botrytis cinerea, fermentación y daños mecánicos, que en general redundan en pérdidas que a nivel

nacional pueden ascender a 70% en etapas de cosecha y postcosecha cuando su manejo no es adecuado [1].

Adicionalmente factores como su condición de respiración no climatérica, desarrollo y maduración no

homogéneos dificultan las labores de cosecha, selección, empaque, transporte, conservación y comercialización,

actividades que en la actualidad son realizadas de manera subjetiva, generando un producto con reducida calidad

por avanzado estado de madurez, heterogeneidad en forma, tamaño y color, que afectan volúmenes ofertados,

precios y aceptación en el mercado. En particular para este estudio se evaluó mora de Castilla proveniente del

Cañón del Combeima – Municipio de Ibagué, donde más de 200 agricultores garantizan en promedio 14

toneladas/semana al mercado local y en su mayoría dependen de esta actividad económica por su posibilidad de

generar buenos ingresos y empleos permanentes. Se espera que la difusión de resultados correspondientes a la

estimación del estado de madurez óptimo de cosecha del producto que garantice un adecuado desarrollo físico,

apariencia, acumulación de compuestos fitoquímicos, balance dulce/acido, resistencia y conservación en

postcosecha sea en corto plazo de gran utilidad para productores, comercializadores y consumidores de la

región.

Metodología

Material Vegetal: Los frutos de mora cultivados entre 1800-2300 msnm en la Vereda el Retiro del Cañón del

Combeima, fueron recolectados en tres estados de madurez, según clasificación por color establecida en la NTC

4106 [2] con algunas modificaciones propuestas para esta investigación (tabla 1), posteriormente se dispusieron

en contenedores de Ptereftalato de Polietileno (PET), y transportaron bajo cadena de frio a los laboratorios de

postcosecha de la Universidad del Tolima y Salud Pública de la Secretaria de Salud Departamental para su

correspondiente evaluación física, química y fisiológica .

Tabla 1. Clasificación de frutos de Mora por grado de madurez, adaptada de NTC 4106 [2].

Grado de Madurez Características

Grado 4 Fruto de color rojo con ¼ de área rojo intenso y/o morado

Grado 5 Fruto con mitad de área roja y mitad morada

Grado 6 Fruto morado oscuro

Parámetros Físicos: Se realizó la medición de longitud, diámetro mayor y menor empleando 75 frutos por

muestra, haciendo uso de un calibrador HOPEX; y se registró el peso unitario en fresco por medio de una

balanza de precisión electrónica HR-200 A&D con capacidad de 210 g ± 0,0001 g.

Parámetros Químicos: Se cuantificó el contenido de sólidos solubles totales (SST) con refractómetro ATAGO

escala de 0 a 32 °Brix; y la Acidez titulable (AT) se determinó con titulación potenciométrica haciendo uso de

un potenciómetro CG 820 Schott a temperatura de referencia de 20°C, sus resultados se reportaron en porcentaje

de ácido málico. Las metodologías de referencia corresponden a las normas ICONTEC para productos de frutas

Page 33: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 33

y hortalizas. A partir de la relación entre el valor mínimo de SST y el valor máximo de AT [3] se determinó el

índice de madurez.

Parámetros Fisiológicos: Índice de transpiración e intensidad respiratoria fueron evaluados, para tal fin se

dispuso de 250 g de fruta por muestra, en empaques rígidos con tapa plana tipo tarrina de Ptereftalato de

Polietileno (PET) 16 Oz., con 10% del área perforada y almacenados durante 6 días en refrigeración bajo

condiciones de temperatura y humedad relativa de 2 ± 1°C y 65 – 85% respectivamente. La transpiración de los

frutos se determinó mediante la cuantificación de la pérdida diaria de peso, su resultado se reportó en porcentaje

p/p; entre tanto la taza de respiración se cuantificó diariamente utilizando un determinador de gases CheckMate3

PBI-Dansensor, expresando su resultado en mgCO2/Kg·h.

Análisis Estadístico: Los resultados obtenidos por triplicado, fueron tabulados y evaluados a través de análisis

de varianza simple y multifactorial (ANOVA - MANOVA), se empleo diferencias mínimas significativas (LSD)

de Fisher como método de comparación múltiple, con un nivel de confianza del 95,0%. Dichos análisis se

realizaron con el paquete estadístico Statgraphics Centurion Versión XV.II. (Statpoint Technologies Inc.,

Warrenton, VA, E.U.).

Resultados

Como variable de crecimiento de los frutos se tiene definido el tamaño (largo y ancho), sin embargo este

proyecto incluyo el peso, diámetro mayor y menor en la estimación de desarrollo de los mismos. Los frutos de

mora presentaron rangos de 18,15 a 38,1 mm; 14,0 a 28,55 mm y 8,3 a 19.95 mm en longitud, diámetro mayor y

menor respectivamente. Como se observa en la tabla 2, la fruta en grado de madurez cinco (GM 5) presentó un

promedio de longitud levemente superior a los frutos en GM 6, fenómeno atribuible a factores de recolección,

clasificación de muestras de acuerdo al interés del estudio (grado de madurez) e irregularidad de crecimiento y

maduración del producto en campo generado posiblemente por deficiencias en nutrición e irrigación de las

plantas. No obstante, el análisis de varianza por diferencia mínima significativa (LSD) de Fisher estableció que

no existen diferencias estadísticamente significativas entre medias de la longitud para los tres grados de madurez

analizados (Tabla 2). Al relacionar este parámetro con las medidas de diámetro mayor y menor se observó que

los frutos son más largos que anchos terminando en punta hacia el ápice. Las medias de diámetro mayor y menor

presentaron diferencias estadísticas entre estados, particularmente el diámetro menor permite inferir que a partir

del GM 4 se define la forma cónica característica de la fruta. Cabe resaltar que dichas medidas en promedio

clasifican a la mora producida en el Cañón del Combeima en calibres B, C y D [2], aspecto a considerar para el

diseño de nuevas alternativas de empaque y mejoramiento de calidad.

Tabla 2. Parámetros fisicoquímicos de mora de Castilla producida en el Cañón del Combeima-Ibagué.

Grado de

Madurez

Parámetro

Peso*

(g)

Longitud*

(mm)

Diámetro

mayor*

(mm)

Diámetro

menor*

(mm)

Acidez T.**

(%Acido

Málico)

SST**

(°Bx)

Índice de

Madurez**

(°Bx/%AT)

GM 4 6,85±1,16a

27,29±2,87a

18,81±1,63a

12,71±1,76a

3,23±0,05a

6,93±0,12a

2,15±0,03a

GM 5 7,58±1,48b

28,09±3,49a

19,32±1,68a

12,09±1,24b

2,83±0,03b

7,93±0,12b

2,80±0,07b

GM 6 7,77±1,98b

27,05±3,68a

20,22±2,31b

12,10±1,69b

2,25±0,15c

8,00±0,00b

3,57±0,25c

* Valores promedio n=75±DE. Letras en el superíndice de cada columna indican diferencias significativas

(p<0.05).

** Valores promedio n=3±DE. Letras en el superíndice de cada columna indican diferencias significativas

(p<0.05).

El peso presentó un comportamiento ascendente, con incremento de 10% del GM 4 al GM 5 y 2% del GM 5 a

GM 6, en este caso particular, el fruto en el estado de madurez GM 6 no experimento cambios estructurales en la

protopectina que genera ablandamiento de los tejidos y liberación de agua y otros compuestos al medio, lo que

en condiciones normales de cosecha y postcosecha en la zona (factores ambientales, empaques, almacenamiento

Page 34: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 34

en campo y transporte) generan una reducción en el peso del fruto cercana al 17% por lixiviados. El ANOVA

evidenció que no existen diferencias estadísticamente significativas en los valores promedio de peso entre los

estados de madurez GM 5 y GM 6.

Respecto del contenido de SST se observo un aumento promedio de 6% SST entre grados de madurez, dichos

valores se ubican dentro de los límites establecidos en la normatividad [2], además son superiores a 6,5°Brix, lo

que indica que cumple con los requerimientos mínimos de sólidos solubles totales para mercado en fresco e

agroindustrialización en cualquiera de los estados de madurez evaluados. La valoración estadística de este

atributo indica que no existen diferencias significativas entre GM 5 y GM 6, condición que permite evidenciar la

posibilidad de recolección en grado de madurez 5 para frutos con destino a mercado en fresco y procesado. La

correlación positiva entre el estado de madurez y el aumento de SST, se atribuye a la conversión de ácidos

orgánicos en azúcares o la reserva de carbohidratos de la planta por baja capacidad fotosintética del fruto [3].

Así mismo, se encontró una tendencia descendente para %AT con el avance de la madurez, comportamiento que

diversos autores relacionan a la actividad de las deshidrogenasas y empleo de ácidos orgánicos como sustratos

de la respiración para síntesis de nuevos componentes. La relación °Bx / Acidez titulable o índice de madurez

(IM), además de ser un indicativo del estado de desarrollo de los frutos, constituye una aproximación a la

calidad organoléptica de los mismos. En este sentido la tendencia ascendente, con máximo incremento (22%)

entre los estados 5 y 6, coincide con lo obtenido por Galvis (1995) y diversos autores, para mora producida en

otras regiones del país y pone de manifiesto la competitividad del producto local para el mercado nacional. El

ANOVA indica que las medias son estadísticamente diferentes (p<0,05) entre grados de madurez, tanto para

%AT como para IM.

Figura 1. Intensidad respiratoria de frutos de mora de Castilla (Rubus glaucus Benth.) en tres estados de

madurez durante almacenamiento refrigerado (2°C±1°C).

Los frutos en los 3 estados de madurez presentaron un descenso en la actividad respiratoria, obteniendo valores

entre 101,4 y 8.4 mgCO2/Kg·h, teniendo influencia directa la edad del tejido. El menor grado de madurez

presentó la más alta tasa respiratoria, indicando que la recolección en GM 4 generará mayores cambios de

calidad de la fruta y envejecimiento durante el almacenamiento y/o comercialización. Los resultados obtenidos

para esta variable concuerdan con los reportados por Sora (2006) en mora proveniente de Silvania-

Cundinamarca, refrigerada y empacada en atmósferas modificadas activas (170 y 5 mgCO2/Kg·h) [4], lo que de

nuevo pone de manifiesto la competitividad de la fruta del Cañón del Combeima en relación a su actividad

metabólica ligeramente inferior a la presentada por un producto sometido a tratamientos más costosos. De igual

manera, el comportamiento respiratorio ratifica a la mora como un fruto no climatérico, que ve afectado la

síntesis de azucares y otros compuestos si es recolectado de forma prematura, aún cuando puede presentar

cambios de coloración por síntesis de pigmentos. El análisis multifactorial indico que tanto el grado de madurez

como el tiempo de almacenamiento tienen un efecto estadísticamente significativo sobre la respiración de los

frutos con un nivel de confianza del 95,0%, además, la prueba múltiple de rangos discriminó los promedios entre

grados de madurez.

En general la intensidad respiratoria e índice de transpiración se ven afectados por condiciones de

almacenamiento, principalmente por temperatura, humedad relativa, edad del fruto y variedad. Diversos autores

Page 35: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 35

resaltan el hecho de que a menores temperaturas los procesos metabólicos que inciden en el envejecimiento de

los tejidos se ralentizan, es así como particularmente en la mora se obtiene una reducción significativa de la

actividad respiratoria almacenada en condiciones de refrigeración. En conjunto las muestras indicaron un

aumento progresivo de pérdida de peso por transpiración, sin diferencias estadísticamente significativas

demostradas por la prueba múltiple de rangos (95,0% LSD Fisher). Los frutos experimentaron una reducción

promedio de peso del 9.6% al sexto día de almacenamiento refrigerado, valor superior a frutos de mora

empacados en atmósfera modificada activa y almacenada en sistemas convencionales de refrigeración (4°C 90-

95%HR) [4].

Figura 2. Pérdida de peso en frutos de mora de Castilla (Rubus glaucus Benth.) almacenados en refrigeración

(2°C±1°C).

Esta caracterización de frutos de mora en sus estados finales de madurez permitió establecer contrastes en

calidad del producto, registrándose las mayores diferencias en parámetros morfométricos y químicos. Los

valores obtenidos indicaron que la comercialización de la mora debe realizarse en GM 5 teniendo en cuenta que

en dicho estado de madurez se alcanza la adecuada acumulación de ácidos, sólidos solubles, desarrollo y forma

característica del fruto, sin diferencias significativas en peso respecto de la madurez comercial actual (GM 6). La

cosecha en GM 4 se hace inviable, atendiendo especialmente a las diferencias en peso y alta tasa respiratoria, lo

que conllevaría a la reducción en precios de venta y aceleración de procesos degradativos del producto. La

recolección en GM 6 es descartable pese a las buenas características fisicoquímicas y fisiológicas presentadas,

puesto que en dicho estado la resistencia a la compresión disminuye considerablemente, dificultando labores de

empaque, transporte y comercialización por generación de daños mecánicos, lixiviación y fermentación.

Finalmente, la cuantificación de atributos específicos de calidad de un fruto representativo del departamento

como lo es la mora, permite ratificar su competitividad, así como suministrar a la comunidad en general,

valiosos resultados para futuras negociaciones que se proyecten realizar a nivel local, nacional e internacional.

Referencias

[1] J.A. Galvis y A. Herrera, La mora: manejo postcosecha. ed. Medellín (Colombia): Universidad Nacional de

Colombia-Sena, 1995.

[2] Instituto Colombiano de Normas Técnicas y Certificación. Frutas Frescas. Mora de Castilla.

Especificaciones (NTC 4106). ed. Bogotá (Colombia): ICONTEC, 1997.

[3] C.R. Gómez, En: Caracterización de los productos hortofrutícolas Colombianos y establecimiento de las

normas técnicas de calidad. Mora de Castilla (Rubus glaucus Benth.). ed. Bogotá (Colombia): Cenicafé-

Federación Nacional de cafeteros de Colombia–Sena, 2004.

[4] A.D. Sora, G. Fischer y R. Flórez, “Almacenamiento refrigerado de frutos de mora de Castilla (Rubus

glaucus Benth.) en empaques con atmósfera modificada”. Agronomía Colombiana, vol. 24, no. 2, pp. 306-316,

Diciembre, 2006.

0,00

2,00

4,00

6,00

8,00

10,00

0 1 2 3 4 5 6

% P

P

Tiempo de almacenamiento (Días)

GM4

GM5

GM6

Page 36: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 36

CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES

VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA

H.M. Hernández Sarabia1, M. Rojas

2, B. De Meulenaere

3

1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué

2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.

Palabras claves: Aceite de salvado de arroz, proteína, antioxidantes

Problema

El arroz es el principal cereal consumido en Colombia, El departamento del Tolima es el primer productor y en

su proceso de industrialización y producción se generan diferentes subproductos como el Salvado de arroz (SA)

el cual no tiene un alto valor comercial y su principal uso es para alimento concentrado de animales. El

contenido de Oryzanol, de vitamina E y la relación entre ácidos grasos saturados e insaturados hacen del aceite

del SA un saludable aceite para consumo humano. La presencia de todos los aminoácidos esenciales, su alta

digestibilidad y baja alergenicidad hacen de la proteína del SA un excelente suplemento proteico para ser

aprovechado en la industria alimenticia. En este trabajo se presenta los análisis nutraceuticos del SA para las

variedades Fedearroz 50, Fedearroz 60, Coprocem 304 y Mocari, en cuanto al contenido de oryzanol,

tocotrienoles, tocoferoles, fracciones proteicas, aminoácidos, perfil de ácidos grasos, para realzar los potenciales

usos en la industria alimenticia del SA y generar expectativa sobre este subproducto para un mejor

aprovechamiento.

Metodología

Los análisis nutraceuticos se realizaron para las 4 variedades en el laboratorio de NutriFood Chem de la

Universidad de Gent, Bélgica. Las muestras de SA fresco fueron tomadas en molinos de la región del Tolima,

estabilizadas en horno microondas por 3 minutos a 750 MHz, para evitar la degradación enzimáticas y después

fueron transportadas en el menor tiempo posible vía aérea hasta el laboratorio de la Universidad de Gante en

Bélgica, donde fueron almacenadas a -30 °C hasta el momento de los respectivos análisis. Se tomaron muestras

de las 4 variedades y 8 diferentes baches de producción para determinar la variación que se puede tener por

condiciones climatológicas de los cultivos, calidad de semillas, preparación de terrenos, fertilización y manejo

de cultivo. Se realizaron análisis bromatológicos de contenido de aceite, proteína, fibra dietaría, carbohidratos,

humedad y cenizas de acuerdo con el método AOAC1990 [1]. La extracción para las determinaciones del

contenido de Oryzanol, tocoferoles, tocotrienoles y perfil lipídico se realizo la extracción del aceite utilizando

Éter de petróleo como solvente en una relación 1:8 entre el SA y el solvente. Las muestras se centrifugación a 20

°C por espacio de 15 minutos a 9000 rpm. El sobrenadante fue recogido y el residuo extraído dos veces más.

El solvente con el aceite recolectado fue separado usando un rotovapor con temperatura de 40°C y luego el

aceite recogido fue secado con Nitrógeno. El contenido de Oryzanol fue determinado a una longitud de onda de

314 nm utilizando un espectrofotómetro Varian Cary 50, en una alícuota de 0,05 gramos de aceite en 25 ml de

Iso-Octano, de acuerdo con el método propuesto por Seetharamaiah and Prabhakar [2]. Se utilizo para la curva

de calibración ɣ-Oryzanol puro adquirido en Tokyo Industrial Chemicol Corporation. Los análisis de

Tocoferoles y Trocotienoles fueron realizados por cromatografía liquida usando un equipo Agilen 1100 ® con

automuestreador con columna de separación de Silica de 5 µm LichroCART con un detector de fluorescencia y

usando una fase móvil compuesta de 0,9% de Isopropanol, con 1% de agua en Hexano en un gradiente de flujo

de 1 ml/min en un tiempo de eludación de 22 minutos. Para la curva de calibración se utilizo una mezcla

estándar de Tocoferoles de 7,64%, 1,07%, 57,11%, y 24,52% de α, β, ɤ and δ Tocoferol respectivamente y una

mezcla estándar de tocotrienoles obtenido de aceite de palma purificado. Para la determinación del contenido de

aminoácidos las muestras se trataron en hidrolisis acida y básica para el Triptófano. Estándar interno fue

utilizado para la calibración y fueron derivaizadas utilizando OPA y FMOC en el mismo equipo de HPLC

Agilent pero con columna de separación Zorbax Eclipse AAA de rápida resolución de 4,6x150 mm.

La fase móvil compuesta por dos solventes el primero con una composición de 45% de Metanol, 45% de

Acetonitrilo y 10% de agua y el segundo solvente con solución buffer 45 mM de NaH2PO4.H2O con 0,02 % de

Page 37: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 37

NaN3 a pH de 7,8. La rata de flujo fue de 2 ml/min y el tiempo de eludación de 25 minutos. El perfil lipídico se

realizaron por la descomposición de metil esteres de ácidos grasos de acuerdo con el método AOCS [3]. Fue

utilizado para los análisis un cromatografo de gases Agilent 6890N, con una columna capilar de 58.5mmx250

µm y diámetro interno de 0.2 µm nominal. El gradiente de temperatura del horno fue de: 50ºC (4min), 50-120ºC

(10ºC/min), 120-225ºC (6ºC/min); y el gas de transporte fue He con una rata de flujo de 1ml/min. Todos los

análisis fueron realizados por triplicado y analizados estadísticamente utilizando S-Plus 8.0 Para Windows®,

ANOVA y la prueba de Turkey fueron utilizadas para el análisis de significancia estadística con P=0,05.

Resultados

En las tablas del 1 al 5 se presentan los resultados obtenidos de los análisis Proximal, contenido de Oryzanol,

Tocoferoles, Tocotrienoles y Perfil Lipídico en el aceite y contenido de Aminoácidos en la proteína,

respectivamente.

Tabla 1. Análisis Proximal Salvado de Arroz de diferentes variedades

Parameter Variedades

F60 C304 F50 RBM

Humedad (%) 9,62 ± 0,12 9,95 ± 0,08 11,11 ± 0,20 10,30 ± 0,43

Proteína Total (g/100gDM*) 13,60 ± 0,06 15,29 ± 0,10 14,62 ± 0,21 15,08 ± 0,12

Ceniza/100g DM) 12,08 ± 0,06 12,26 ± 0,13 12,58 ± 0,01 9,47 ± 0,06

Aceite Total (g/100g DM) 21,09 ± 0,66 23,44 ± 0,47 21,28 ± 0,50 22,15 ± 0,55

Fibra Total (g/100 DM) 25,96 ± 0,95 24,74 ± 1,15 29,94 ± 0,79 20,98 ± 0,54

Carbohidratos (%) 48,14 44,13 45,79 47,81

seca

Tabla 2. Contenido de Oryzanol, Tocoferoles y Tocotrienoles en el Salvado de Arroz de diferentes variedades

Variedades

Parámetros F60 C304 F50 RBM

γ Oryzanol(g/100g Aceite) 1.94 ± 0.32 1.43 ± 0.14 2.13 ± 0.20 1.78 ± 0.06

Alfa tocoferol (mg/kg aceite) 91.02 ± 17.78 212.45 ± 26.84 63.79 ± 5.61 104.95 ± 1.50

Betatocoferol (mg/kg aceite) 22.28 ± 5.48 29.18 ± 9.48 28.02 ± 10.19 10.09 ± 0.65

Gamma tocoferol (mg/kg aceite) 198.71 ± 38.33 56.28 ± 6.12 78.15 ± 6.75 94.43 ± 1.17

Delta tocoferol (mg/kg aceite) 8.33 ± 1.55 6.66 ± 4.34 4.44 ± 0.32 5.14 ± 0.23

Total tocoferol (mg/kg aceite) 320.33 ± 62.32 304.57 ± 37.30 174.40 ± 22.81 214.62 ± 3.13

Alfa tocotrienol (mg/kg aceite) 80.37 ± 20.33 106.11 ± 12.34 70.56 ± 6.69 65.41 ± 2.15

Gama tocotrienol (mg/kg aceite) 1115.95 ± 207.59 639.93 ± 80.68 873.12 ± 81.69 835.18 ± 13.79

Delta tocotrienol (mg/kg aceite) 99.99± 19.18 74.9609± 10.16 80.53± 7.37 63.43±1.73

Total tocotrienol (mg/kg aceite) 1296.32 ± 147.09 821.00 ± 102.65 1024.21 ± 95.41 964.02 ± 17.34

F60: Fedearroz 60; C304: Corpocem 304; F50: Fedearroz 50; RBM: Mocari.

Page 38: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 38

Tabla 3. Contenido de Acidos grasos en el Salvado de Arroz de diferentes variedades

Ácidos Grasos %

Variedades

F60 C304 F50 RBM

C14:0 0.30 ± 0.03 0.32 ± 0.09 0.27 ± 0.09 0.28 ± 0.02

C14:1 0.02 ± 0.015 0.02 ± 0.016 0.01 ± 0.01 0.01 ± 0.02

C16:0 19.95 ± 0.45 19.83 ± 0.38 19.81 ± 1.06 20.86 ± 0.70

C16:1 0.18 ± 0.01 0.20 ± 0.02 0.20 ± 0.03 0.10 ± 0.09

C18:0 1.57 ± 0.04 1.78 ± 0.05 1.85 ± 0.03 1.86 ± 0.46

C18:1 40.70 ± 0.19 42.37 ± 0.65 42.27 ± 1.67 39.029±0.88

C18:2 35.32 ± 0.31 33.60 ± 0.35 33.56 ± 0.32 35.45± 0.82

C18:3 1.35 ± 0.02 1.08 ± 0.03 1.21 ± 0.09 1.42 ± 0.02

C20:0 0.61 ± 0.04 0.81 ± 0.10 0.80 ± 0.08 0.73± 0.05

SFA 22.433 22.73 22.74 23.73

MUFA 40.895 42.5896 42.47 39.139

PUFA 36.672 34.6776 34.77 36.87

SFA: Total de acidos grsos saturados; MUFA: Tatal de acidos grsos mono saturados; PUFA: Total de acidos grasos polisaturados

Tabla 4. Contenido de Amino acidos en el Salvado de Arroz de diferentes variedades

Aminoácidos

(mg/g proteína)

Variedades

F60 C304 F50 RBM

Aspartate 75.35 ± 5.02 75.52 ± 0.54 76.91 ± 2.84 67.55 ± 3.16

Glutamate 120.36 ± 7.86 121.19 ± 0.14 117.05 ± 3.71 108.02 ± 4.46

Serine 47.83 ± 3.32 47.85 ± 0.44 48.10 ± 1.79 44.88 ± 3.07

Histidine 29.96 ± 2.22 29.08 ± 0.40 28.19 ± 1.18 27.35 ± 1.25

Glycine 61.16 ± 5.76 59.70 ± 0.28 61.05 ± 2.23 62.25 ± 3.78

Threonine 40.81 ± 3.17 40.44 ± 0.57 40.26 ± 1.62 36.99 ± 1.60

Arginine 72.69 ± 5.93 72.85 ± 1.44 72.44 ± 3.00 66.76 ± 2.91

Alanine 67.08 ± 5.06 67.65 ± 0.31 67.01 ± 2.64 60.85 ± 2.79

Tyrosine 36.94 ± 2.55 38.91 ± 0.02 37.38 ± 1.24 33.77 ± 1.32

Valine 52.06 ± 4.37 52.33 ± 1.29 52.85 ± 2.56 47.96 ± 2.09

Methionine 14.94 ± 0.40 16.12 ± 0.60 15.20 ± 0.87 15.29 ± 0.82

Phenylalanine 47.52 ± 3.56 47.90 ± 0.16 48.82 ± 1.99 43.65 ± 1.86

Isoleucine 39.22 ± 3.01 38.99 ± 0.05 39.52 ± 1.25 36.43 ± 1.36

Leucine 77.28 ± 5.96 77.75 ± 0.30 77.65 ± 3.22 70.46 ± 2.96

Lysine 47.79 ± 3.47 46.94 ± 0.55 46.72 ± 1.77 42.72 ± 1.84

Proline 50.94 ± 2.47 51.13 ± 1.87 51.79 ± 2.28 52.61 ± 4.86

Tryptophan 13.57 ± 1.59 12.38 ± 0.92 12.29 ± 0.23 6.51 ± 1.18

Referencias

[1] AOAC, Association of Official Analytical Chemists. Official Methods of Analysis. 15th Edition,

Washington, D.C., (1990).

[2] G. S. Seetharamaiah y J. V. Prabhakar. Oryzanol content of Indian rice bran oil and its extraction from

soap stock. Journal of Food and Technology, 23, 3-6.R, (1986).

[3] AOCS, Official methods and recommended practices of the American Oil Chemists‟ society. Official

methods Ce 1b-89 for marine oils. 5th Edition, D. Firestone, AOCS press, Champaign, (1990).

Page 39: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 39

ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA BIOLOGICA DE LA

FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS

M. Hernández1, B.A. Gómez

2

1-2 GMAE, Universidad de Ibagué, Ibagué

Palabras claves: Biogás, Residuos, Potencial

Problema

La fermentación anaeróbica es un proceso natural que ocurre en forma espontánea en la naturaleza y forma parte

del ciclo biológico. Las primeras menciones sobre biogás se remontan al 1.600 DC. Pero es hasta el año 1890 es

donde se encuentran las primeras referencias técnicas sobre la construcción del primer biodigestor a escala real

en la India y ya en 1896 en Exeter. Para el caso de Colombia, solo hasta los años 70, se iniciaron procesos de

difusión de la tecnología de los biodigestores en las fincas, copiando inicialmente los modelos chinos (cúpula

fija, presión variable) e indios (campana flotante, presión estable), con la ayuda y divulgación de entidades

estatales y privadas que han estado interesadas en la producción de Biogás a nivel industrial, de combustible

domestico y para vehículos así como generación de energía eléctrica [1], en el marco de la utilización de

energías renovables como fuente de abastecimiento amigable con el medio ambiente.

Aún así la información disponible se encuentra de forma dispersa y no está organizada, por lo que no se

considera una fuente de consulta veras para quienes están interesados; presenta discordancia en los datos

suministrados, en cuanto a los valores objeto de análisis que además en varios casos presenta información

desactualizada y no le permite a cada una de las regiones conocer su situación en tiempo real, frente a la

producción de Biogás y tomar medidas que catalicen y fomenten la utilización de este tipo de energía pues se

tiene una perspectiva equivoca en la que la generación de energía renovable no es viable económicamente

debido a sus bajas escalas de producción y así como tampoco se tiene en cuenta que el esquema se puede

combinar con la venta de créditos de carbono y la producción de biogás se puede convertir en una opción

económica, ambiental y socialmente sostenible [2].

Metodología

En este se proyecto se cuantifico la producción de Biogás en el Tolima con el objetivo de dejar una herramienta

de consulta, para quienes en hoy en día están interesados en convertir la fracción orgánica de residuos

domésticos, industriales, agropecuarios principalmente en fuente de combustible en el departamento, abriendo el

espectro de aprovechamiento de los recursos con los que cuenta cada región y de esta manera estimular el

desarrollo sostenible, mediante la utilización de energías renovables con peso económico importante que de

forma escalonada puede disminuir la producción de metano fósil, a quien se le atribuye el 16% de las emisiones

de gases de efecto invernadero en el mundo [3]. Contribuyendo al mismo tiempo con el cumplimiento del

séptimo objetivo del milenio, con el que se pretende dar respuesta a las necesidades humanas presentes sin

destruir la capacidad del medio ambiente para atender las necesidades energéticas en el largo plazo, aportando

significativamente a la cuota latinoamericana.

Se seleccionaron las fracciones orgánicas de residuos provenientes de plazas de mercado, desecho, residuos

domiciliarios, estiércol producido por especies agrícolas bobinas, porcinas y avícolas y la materia orgánica de

las aguas residuales domesticas que deben ser tratadas en las Plantas de Tratamiento de Aguas. El potencial se

calculo tomando como base la descomposición anaerobia de la materia orgánica contenida en cada tipo de

residuos. A pesar que el enfoque que se le dio al metano fue direccionado económico y ambientalmente, son

múltiples las posibilidades de aprovechamiento implícitas de este recurso, adicionales a las mencionadas

anteriormente y que a la conservación del medio ambiente se refiere. Su utilización se puede dar como Bio-

fertilizante pues su estabilidad química es ideal para el tratamiento agrícola, adicionalmente, eliminar la

dependencia de las empresas prestadoras de servicios públicos principalmente en el sector rural y lugares

remotos, generara la descentralización de la producción eléctrica y estimula la creación de ciclos cerrados en la

agricultura [4].

Page 40: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 40

Resultados

En Colombia para el manejo de residuos sólidos en rellenos sanitarios existen dos experiencias importantes a

resaltar que son: el relleno Doña Juana ubicado en la ciudad de Bogotá y el relleno Don Juanito ubicado en la

ciudad de Villavicencio, que a la fecha han generado iniciativas para tratar eficientemente los residuos sólidos

orgánicos, utilizando formulación para estimar el potencial de recuperación de Biogás a partir del modelo

propuesto por la USEPA. A nivel general, se han presentado dificultades en la transición y adopción de modelos

e iniciativas verdes, evidenciando algunas causas durante el desarrollo de la investigación entre ellas la no

existencia de un marco legal que reglamente el manejo de residuos sólidos en cada municipio, la no inclusión

del Biogás dentro de la categorización de Biocombustible, tal como lo es el Etanol o el Biodiesel [5], que se

afianzan de forma representativa en una industria que ha ido creciendo lentamente, pero que ya incluso supera el

número de usuarios de los combustibles convencionales (Ver la Figura 1), la falta de inversión en investigación

y financiación de estas iniciativas y la cultura no menos importante y necesaria para generar no solo cambios

actitudinales sino mentales.

Figura 1. Venta de Biocombustibles en el 2011

Fuente: FedeCombustibles, 2011

Con los cálculos realizados del potencial de producción de Biogás estimamos que de acuerdo con la generación

de Residuos Orgánicos en el departamento se podría generar 19‟.816.69 MW-h/año que podría suplir de energía

eléctrica a 11.227,6 viviendas cubriendo de la población Tolimense y aun más interesante si utilizáramos este

Biogás como gas domiciliario se podría suministrar el combustible necesario a 29.832,82 viviendas,

adicionalmente se producirían 96‟044.425 Bonos de Carbono con un valor equivalente a 816‟377.612 USD con

lo que se lograría un verdadero aporte a los objetivos de reducción de emisiones de gases efecto invernadero y se

obtendrían recursos extras a los Municipios por la participación en Mercados de producción más limpia.

Referencias

[1] Ciro Serrano Camacho. (2007). Retrieved Marzo 15, 2012, from Ministerio de Minas y Energia:

http://www.upme.gov.co

[2] Da Silva, C. L. (2009). La Cadena de Biogas y la Sustentabilidad Local. Innovar: Revista de Ciencias

Administrativas y Sociales , 83-98.

[3] Ministerio de Minas y Energia. (2008). Dinero.com .

[4] Kaiser, F. (2009). Produccion de Biogas - Europa y Potencial para Chile -. Santiago, Chile.

[5] FedeBiocombustibles. (2011). Graficas Informativas del Sector de los Biocombustibles en Colombia.

Armenia: Federacion Nacional de Biocombustibles en Colombia.

Page 41: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 41

CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO

José Luis Guerrero1, Alfonso Cubillos Varela

1, Angélica Sandoval

2, Claudia Villota

3

1Programa de Ingeniería Mecánica, Universidad de Ibagué, Ibagué

2Universidad del Tolima

3CORPOICA CI TIBAITATA, Mosquera

Palabras claves: Musa Acuminata, bananito, secado, lavado

Problema

En zona rural del municipio de Icononzo (Tolima) se realiza el cultivo y adecuación de bananito (Musa

Acuminata) con fines de exportación. El proceso se lleva a cabo por la asociación de productores de banano de

Icononzo (ASOBAICOTOL), entidad sin ánimo de lucro que busca apoyar a los campesinos de la región en la

comercialización de sus productos. Esta asociación cuenta con una planta de adecuación del producto donde se

realiza el desmane, lavado, secado, desinfección y empaque de los gajos de bananito. En la etapa de enjuague se

remueve el jabón con que se lava preliminarmente el bananito. En este proceso se utiliza agua en exceso, ya que

por problemas de diseño de los tanques únicamente se utiliza la mitad de la capacidad de estos; además, los

tiempos de permanencia de los gajos de bananito no son constantes y depende de la capacidad de secado,

siguiente etapa del proceso. La Figura 1 muestra el tanque de enjuague con el producto, se observa el

represamiento del producto (cuello de botella).

Figura 1. Tanque de enjuague

El secado del producto se realiza con un lienzo (ver Figura 2) que puede rallar el producto y afectar su calidad.

Además en este se puede acumular bacterias que pueden transmitirse al producto reduciendo su calidad y tiempo

de vida útil. Al utilizar el secado por evaporación natural se evitan estos problemas pero se aumenta

considerablemente el tiempo del proceso, generando cuellos de botella y reducción de la productividad.

Se plantea entonces la implementación de un sistema de transporte que permita automatizar las actividades de

enjuague y secado del producto. Este sistema permitiría reducir el tiempo de procesamiento y el uso de agua en

el proceso y mantendría la calidad del producto.

Figura 2. Paño con el que se secan los bananitos (Musa acuminata)

Page 42: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 42

Metodología

La definición de los objetivos del diseño, así como las restricciones y parámetros de operación del proceso se

realizaron en reuniones interdisciplinarias entre la Universidad de Ibagué y CORPOICA, así como el análisis de

las condiciones de la planta de la asociación ASOBAICOTOL. La definición de las alternativas de construcción

se definió al analizar procesos similares y patentes relacionados. La opción de construcción se determinó al

evaluar las alternativas en función del cumplimiento de los objetivos y restricciones del diseño. La alternativa

seleccionada fue presentada y discutida con los operarios y representantes de ASOBAICOTOL. El diseño

escogido se presenta en la Figura 3, que consiste en una banda en la que cuelgan los bananitos. Esta banda

sumerge el producto en el tanque de enjuague y luego lo pasa por un túnel de secado, con descarga en la mesa de

empaque. El túnel de secado está construido en láminas de acero inoxidable y dos ventiladores que inyectan aire

a presión para remover las gotas agua. Fue realizado el análisis estructural, la resistencia mecánica de los brazos

que sostienen la banda y los bananitos. Se calculó la velocidad del sistema y la potencia necesaria del motor.

Además, se realizó una simulación computacional del secador por aire a presión para garantizar su adecuado

funcionamiento.

Figura 3. Sistema de enjuague y secado de bananito

Resultados

Se diseñó y construyó un sistema de transporte que permite enjuagar y secar los bananitos. La Figura 4 muestra

los bananitos colgados en la banda, el motor y una sección del túnel de secado. Se logró obtener un producto

seco sin alterar las condiciones de calidad del producto, con una producción continúa que redujo el tiempo de

proceso.

Figura 4. Sistema de transporte con carga

Referencias

[1] DYM. Clive, LITTLE. Patrick, El proceso de diseño en ingeniería. Editorial LimusaWiley. 2006.

[2] IICA. Instituto interamericano para de cooperación para la agricultura, Tecnología del Manejo de

Postcosecha de Frutas y Hortalizas. ICCA 1986.

[3] MORT, Robert L, Diseño de elementos de maquinas cuarta edición. Person Education 2006.

[4] http://www.fao.org/Wairdocs/X5403S/x5403s06.htm#TopOfPage.

Page 43: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 43

HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE LA

CALIDAD DE LOS PROCESOS

M.L. Pérez1, A. Carrión

2, O.A. Troncoso

3

1Grupo de investigación GINNOVA, Universidad de Ibagué,

2Director del Centro de Gestión de la Calidad y del Cambio, UPV - España

3Director de calidad Grupo Segovia, Valencia - España,

Palabras claves: Calados, tolerancia, capacidad de proceso

Problema

El grupo SEGOVIA, está conformado por cinco plantas de fabricación de autopartes que provee piezas,

componentes y conjuntos de piezas para el ensamble de carrocerías, motores, asientos y chasis en gran parte de

las plantas de Europa, Asia y América; a fabricantes de automóviles, como FORD, VOLVO, SEAT, JAGUAR,

LAND ROVER, FAURECIA, JOHNSON CONTROLS, BMW, AUDI. Entre las partes que fabrica se encuentra

la pieza BRKT EXHAUST CONV MNTG, que es una pieza del motor que cumple una función de refuerzo.

Esta pieza debe cumplir con una serie de especificaciones, marcadas en el plano de la pieza, en donde las

tolerancias más importantes son la posición de los calados que tienen una tolerancia de 1 mm (+/- 0,5 mm)

respecto a la alineación de la pieza en tres puntos (puntos A, B y C). La función de la pieza es ejercer de

refuerzo y sujeción de otra pieza llamada MANIFOLD que es el colector de gases del motor y es suministrado

por otro proveedor de Ford.

La situación es entendida como un no cumplimiento específicamente de las tolerancias de posición de los

calados CIR 1 y CIR 2 en el proceso de montaje de la pieza en la planta de Ford Michigan. El proceso de

montaje de la pieza comienza con atornillar el calado b (CIR-B) y el coliso (SLT-C) siguiendo la alineación de

la pieza, una vez atornillada la pieza al motor por estos dos puntos (ver figura 1), la pieza MANIFOLD

(colector) debe coincidir exactamente con los dos calados restantes de la pieza (CIR-1 y CIR-2) (ver figura 2).

Según lo denunciado por el cliente, estos dos calados no coincidían con la pieza MANIFOLD (colector) (figura

3), por lo que no se podía atornillar la pieza con el MANIFOLD (colector). De acuerdo con las manifestaciones

del cliente (planta de Ford en Michigan y su departamento de INCOMING), se tienen problemas en el montaje

de dicha pieza ya que la posición de los calados se encontraba fuera de la tolerancia de posición, es decir,

estaban desplazados, generando de esta manera problemas en el encaje de la pieza, por lo que se requería

desmontarla y probarla con otra dentro de la tolerancia de posición para poder proseguir con el proceso

productivo del coche; este problema genera paros en la línea de producción y por consiguiente disminución de la

productividad, generando costos a la planta de 6.000 euros/minuto.

Figura 1. Pieza BRKT EXHAUST CONV MNTG

Page 44: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 44

Figura 2. BRKT EXHAUST CONV MNTG Figura 3. BRKT EXHAUST CONV MNTG

Como se puede observar en el plano de la pieza, la tolerancia de posicion para los dos calados CIR-1 y CIR-2 es

de 1mm, esto significa que el centro de los calados se pueden desviar +/-0,5mm en el eje X e Y en relacion a la

alineacion de la pieza (puntos A, B y C). La alineacion de la pieza son los puntos que simulan el montaje en

Ford y a partir de los cuales se mide la pieza dimensionalmente.

Figura 4. Plano BRKT EXHAUST CONV MNTG

Metodología

Para abordar la situación planteada por el cliente se realizó un estudio del proceso de fabricación de la pieza

verificando paso por paso el cumplimiento de las condiciones de fabricación y sus tolerancias. Para esto se

conformó un equipo de trabajo de cinco trabajadores del área de producción que tenían relación directa con la

fabricación de esta pieza y aplicando la técnica estadística de gráficos de control se verificó que el proceso de

fabricación de la pieza para la característica de calidad relacionada con la tolerancia de posición de los calados

(1mm) respecto a la alineación marcada en el plano se encontraba controlada estadísticamente, es decir, su

proceso de fabricación solamente estaba sometido a causas de variación aleatorias o del azar. De acuerdo con lo

anterior se procedió a realizar el estudio de capacidad de proceso con el fin de determinar el nivel de

cumplimiento de las especificaciones de los calados, lo que permitiría determinar si las piezas estaban

incumpliendo sus especificaciones y por tanto causando los problemas mencionados por el cliente.

Page 45: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 45

Para realizar el estudio de capacidad de proceso se diseñó un plan de muestreo con las siguientes condiciones:

N= 4 lotes

n= 5 piezas por lote

Tiempo total del muestreo: 20 horas, correspondiente a la producción de un día

Tiempo entre muestras: 4 horas

Se realizó el estudio de capacidad en el proceso de producción por lotes de producción los cuales son afectados

por la variación de las variables de un proceso normal de estampación en frio, como lo son las características de

la materia prima (Rm - limite de rotura, Re – Limite elástico, %A - Alargamiento), parámetros del proceso de

estampado como pueden ser el esfuerzo de la maquina estampadora, el desgaste de los elementos de la matriz, el

recorrido de la apertura de la prensa y la cantidad de lubricación de la maquina, entre otras. El estudio consistió

en la verificación de las características de posición de los calados CIR-1 y CIR-2, que pudiera determinar si el

proceso podría cumplir con las tolerancias requeridas en el plano. Adicionalmente el equipo de trabajo utilizó la

disciplina de Global 8D, reuniendo un grupo de expertos para discutir la situación, y para la definición integral

del problema se diseño y ejecuto el estudio de capacidad. El estudio se realizó muestreando cuatro lotes de

fabricación diferentes, tomando una muestra de 5 piezas en cada uno, con el objetivo de evaluar y tener en

cuenta todas las variables que pueden influir en las dimensiones requeridas en los calados, conociendo de esta

manera si era capaz y aseguraba estadísticamente que todas las piezas estarían dentro de las tolerancias dadas en

el plano (Ver figura 2). Las muestras fueron tomadas de manera aleatoria y a diferentes intervalos de tiempo

dentro del proceso con un intervalo de cuatro horas entre muestra completando un total de 20 horas de

producción continúa encontrándose los datos de la tabla siguientes en donde:

- CIR1-X corresponde a la variación de la posición del calado 1 en el eje X,- CIR1Y corresponde a la variación

de la posición del calado 1 en el eje Y, - CIR2X corresponde a la variación de la posición del calado 2 en el eje

X, - CIR2Y corresponde a la variación de la posición del calado 2 en el eje Y.

Una vez los datos han sido recogidos por las personas encargadas de ello en la planta y apuntados en las

plantillas dadas en papel, se procedió a pasar estos datos informáticamente en la Tabla 1. En esta tabla se pueden

observar todas las desviaciones de posición de cada uno de los calados (CIR 1 y 2) en los ejes X e Y.

Tabla 1. Datos de muestras

CIR1-X CIR1-Y CIR2-X CIR2-Y

Hoja 1 -0,272 -0,006 -0,229 0,052

Hoja 2 -0,261 0,013 -0,190 0,076

Hoja 3 -0,305 -0,054 -0,298 0,013

Hoja 4 -0,363 -0,060 -0,334 0,008

Hoja 5 -0,363 -0,016 -0,301 0,057

Hoja 6 -0,264 -0,022 -0,215 0,039

Hoja 7 -0,293 -0,024 -0,253 0,039

Hoja 8 -0,369 -0,003 -0,301 0,060

Hoja 9 -0,384 -0,115 -0,409 -0,043

Hoja 10 -0,371 -0,065 -0,363 -0,002

Hoja 11 -0,312 -0,014 -0,254 0,052

Hoja 12 -0,311 -0,024 -0,257 0,038

Hoja 13 -0,368 -0,027 -0,319 0,037

Hoja 14 -0,327 -0,039 -0,302 0,017

Hoja 15 -0,304 -0,003 -0,218 0,057

Hoja 16 -0,322 0,003 -0,283 0,033

Hoja 17 -0,323 -0,031 -0,282 0,032

Hoja 18 -0,322 -0,015 -0,280 0,018

Page 46: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 46

CIR1-X CIR1-Y CIR2-X CIR2-Y

Hoja 19 -0,319 -0,029 -0,284 0,034

Hoja 20 -0,320 0,001 -0,281 0,031

Hoja 21 -0,318 -0,014 -0,283 0,033

Hoja 22 -0,317 -0,021 -0,285 0,035

Hoja 23 -0,299 0,004 -0,280 0,030

Hoja 24 -0,324 -0,028 -0,275 0,029

Hoja 25 -0,325 -0,012 -0,286 0,036

Con los anteriores datos se realizó el estudio de capacidad, encontrándose los índices de capacidad Cp y Cpk:

Tabla 2. Capacidad del proceso

VAR CIR1-X CIR1-Y CIR2-X CIR2-Y

X_max -0,261 0,013 -0,190 0,076

X_avg -0,322 -0,024 -0,282 0,032

X_min -0,384 -0,115 -0,409 -0,043

R_max 0,123 0,128 0,219 0,119

S 0,033 0,027 0,046 0,023

SCpm 0,331 0,037 0,292 0,041

Tabla 3. Histogramas de tolerancias en muestras

VARIABLE

DIMENZIÓ CIR1-X USL 0,5 LSL -0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM

X_max -0,261

X_avg -0,322

X_min -0,384

R_max 0,123

s 0,033

Cp 6,14

Cpk 2,18

25 15Numero de muestras ESTUDIO:

Number of samples STUDY

Elemzésben résztvevő mérésszám:

Numero TOTAL de muestras:

Number TOTAL of samples:

Mérési eredmények száma

0

2

4

6

8

10

12

14

16

-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000

MIN CIR1-X CIR1-Y CIR2-X CIR2-Y

Cp 1,67 6,14 6,77 4,28 8,30

Cpk 1,67 2,18 6,44 1,86 7,76

Page 47: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 47

Estos índices muestran la aptitud del proceso para producir productos dentro de los límites de especificaciones

de calidad. Son índices basados en la reproducibilidad del producto hecho por el proceso, determinados por

métodos estadísticos y comparando la producción con los límites de especificación con el fin de saber si el

proceso puede consistentemente entregar un producto dentro de estos parámetros.

Resultados

El estudio de capacidad del proceso permitió demostrar que el proceso es capaz de producir las piezas BRKT

EXHAUST CONV MNTG dentro de los límites de especificación de calidad. El cálculo de los índices de

capacidad basados en la reproducibilidad del producto determinado por métodos estadísticos y comparados con

VARIABLE

DIMENZIÓ CIR1-Y USL 0,5 LSL -0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM

X_max 0,013

X_avg -0,024

X_min -0,115

R_max 0,128

s 0,027

Cp 6,77

Cpk 6,44

25 15Numero de muestras ESTUDIO:

Number of samples STUDY

Elemzésben résztvevő mérésszám:

Numero TOTAL de muestras:

Number TOTAL of samples:

Mérési eredmények száma

0

5

10

15

20

25

-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000

VARIABLE

DIMENZIÓ CIR2-Y USL 0,5 LSL -0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM

X_max 0,076

X_avg 0,032

X_min -0,043

R_max 0,119

s 0,023

Cp 8,30

Cpk 7,76

25 15Numero de muestras ESTUDIO:

Number of samples STUDY

Elemzésben résztvevő mérésszám:

Numero TOTAL de muestras:

Number TOTAL of samples:

Mérési eredmények száma

0

2

4

6

8

10

12

14

16

18

20

-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000

Page 48: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 48

los límites de especificación permite determinar la consistencia del proceso para entregar el producto dentro de

los parámetros.

La conclusión después de haber realizado el SPC fue que los Cp y los Cpk de las distintas dimensiones,

resultaron por encima del mínimo estipulado por la empresa el cual es 1.67, lo que significa que el proceso es

estadísticamente capaz de cumplir con las especificaciones marcadas en el plano (Ver Tabla 2) y que la

probabilidad de generar una pieza fuera de tolerancias de posición es de menos de una pieza por cada millón de

piezas fabricadas, 1 PPM (pieza por millón).

Con vistas a la mejora continua de los procesos, se debe considerar que en las dos características de la dimensión

X existe un considerable descentrado hacia la parte izquierda, Aunque esto no compromete la capacidad en el

momento actual, es algo que debe considerarse para plantear su mejora en el futuro. De hecho las excelentes

capacidades potenciales en las cuatro características analizadas (Cp entre 4.28 y 8.30), dan lugar a unos valores

de capacidad aceptables pero mucho más modestos (Cpk de 1.86 y 2.18) en las dimensiones X.

La aplicación de la herramienta Global 8D solo llego a la segunda de las etapas o disciplinas (2D), debido a que

las piezas estaban correctamente fabricadas, el proceso no generaba partes con defectos (ver Tabla 3), este

estudio fue principal arma para poder defender la posición frente a FORD Michigan.

Debido a esto se concluyó que el problema lo estaba generando la pieza MANIFOLD (colector) ensamblada a la

nuestra y suministrada por otro proveedor y eran estas las desviaciones que estaban provocando los problemas

de montaje en el motor, por lo que Ford procedió a denunciar este problema al proveedor de la pieza

MANIFOLD (colector) y a anular la reclamación hecha por problemas en la pieza BRKT EXHAUST CONV

MNTG.

Posteriormente y al ver los problemas en el ensamblaje de estas dos piezas, Ford propuso el cambio de

tolerancias para las dos piezas, pasando de una tolerancia de posición de 1mm (+/-0,5mm) para los CIR1 y CIR2

a ampliarla a 1,5mm (+/-0,75mm), por lo que se eliminaron todos los problemas que pudieran surgir con el

ensamblaje de estas dos piezas.

Referencias

[1] Eugene L. Grant y Richard S. Leavenworth, Control Estadístico de Calidad, México: Continental. 1996.

ME. 2a ed.

[2] Evans, James R., Administración y control de la calidad, México: Cengage Learning. 2008. 7 ed.

[3] Gitlow, Howard S., Design for six sigma for green belts and champions: applications for service

operatios, foundations, tools, DMADV, cases and certification, New York: Pearson. 2006.

[4] Introducción al control estadistico de la calidad, Douglas C. Montgomery; Traducido por: Dirk.

ValckxVerbeeck, Mexico:Iberoamerica,2004.

[5] Pablo Juan Verdoy, Manual de control estadístico de calidad: teoría y aplicaciones, Castelló de la Plana

(Francia): Publicaciones de la Universitat Jaume I, D.L. 2006.

[6] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, Keying Ye. Probability &

[7] Statistics for Engineers & Scientists. Pearson. 2007. 8 ed.

Page 49: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 49

ANÁLISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCÁSTICA

O.M. Cepeda1, F. Torres

2, E. Gutierrez

3

1-2-3 Departamento Ingeniería Industrial/Grupo Investigación, Universidad de los Andes, Bogotá

Palabras claves: VMI (administración inventario por el proveedor), MTO (make to order), MTS (make to stock)

Problema

La administración de inventarios por el proveedor (VMI), es una estrategia en la cual el proveedor genera las

órdenes basado en un intercambio de información con su minorista, lo que permite la generación de grandes

beneficios a la cadena de abastecimiento [1], no solo en costos, sino en servicio al cliente. La mayoría de los

modelos matemáticos básicos de VMI han sido desarrollado bajo el supuesto de demanda determinística [2].

Este supuesto se encuentra en la práctica claramente alejado de la realidad. El presente trabajo desarrolla un

modelo matemático de un esquema coordinado VMI entre un productor y un comprador con demanda

estocástica, y un único producto. El enfoque propuesto permite evaluar y comparar las estrategias MTO (make

to order) [3] y MTS (make to stock) y facilita el estudio de esquemas coordinados. El estudio adicionalmente

presenta un análisis de sensibilidad de los modelos propuestos en varios escenarios. Los beneficios en la

implementación de las estrategias MTO y MTS son estudiados variando los parámetros que los componen, como

son: tasas de producción y demanda, tiempos de aprovisionamiento, costos de mantener y ordenar, faltantes. La

evaluación de los diferentes escenarios se basa en la comparación de los costos logísticos del productor,

comprador y la cadena total en la situación tradicional sin VMI y los esquemas coordinados con VMI bajo MTO

y MTS.

Metodología

Para el desarrollo se consideró una cadena compuesta por un proveedor y un comprador. El proveedor cuenta

con una tasa de producción mayor a la tasa de demanda.

Los parámetros del modelo fueron los siguientes.

p tasa de producción. (und/año)

d tasa de demanda. (und/año)

m Número de pedidos del comprador en la fase productiva del ciclo del vendedor

k Número de pedidos del comprador en el tiempo de ciclo del vendedor

t tiempo de ciclo del comprador (año)

q tamaño de lote del comprador (und.)

T tiempo de ciclo del vendedor (año)

Q tamaño de lote del vendedor (und.)

As Costo de pedir (colocación orden de producción) del vendedor ($/pedido)

Hs Costo de mantener del vendedor ($/(und x año))

Gs Costo total del vendedor ($/año)

Ab Costo de pedir del comprador ($/pedido)

Hb Costo de mantener del comprador ($/(und x año))

F Costo de transporte ($/pedido)

Gb Costo total del comprador ($/año)

r Punto de reorden (und.)

ss Stock de seguridad del comprador (und.)

πb Costo de faltantes del comprador ($/und.)

𝐼𝑛𝑣 Inventario promedio del vendedor (und.)

L(z) Función de pérdida estandarizada.

Un modelo enfocado la producción a partir de una orden (MTO) es adaptado de Torres [4], el cual se trabajó con

la estructura de costos de la Ec. 1.

𝑇𝐶𝑉𝑀𝐼 = 𝐷

𝑄 𝐹 + 𝐴𝑏 + 𝐴𝑠 + 𝐻𝑏

𝑄

2+ 𝑟 − μ

LT + 𝐻𝑠𝑄𝐷

2𝑃+ 𝜋

𝐷

𝑄𝑏 (𝑟,𝑄) (1)

Page 50: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 50

Para el caso de la producción para almacenar (MTS), se desarrolló la siguiente estructura de costos, consistente

con el enfoque VMI.

Inventario promedio del vendedor 𝐼𝑛𝑣 = 𝑞

2(1 + 𝑘 −𝑚) (2)

Vendedor: 𝐺𝑠 =𝐴𝑠

𝑘𝑡+ 𝐻𝑠𝐼𝑛𝑣 (3)

Comprador: 𝐺𝑏 =𝐴𝑏

𝑡+

𝐹

𝑡+ 𝐻𝑏

𝑞

2 + 𝑠𝑠 + 𝜋𝑏

𝜎𝐿𝑇 𝐿(𝑧)

𝑡 (4)

Costo total de la cadena : 𝐶𝑇 = 𝐺𝑏 + 𝐺𝑠 (5)

En un análisis tradicional quien tiene conocimiento de la demanda será el comprador; por lo tanto este

optimizará su inventario, obteniendo la siguiente relación.

𝑞𝑇𝑅𝐷 = 2𝑑(𝐴𝑏+𝐹+ 𝜋𝑏𝜎𝐿𝑇 𝐿(𝑧)

𝐻𝑏 (6)

En el caso de la implementación de un modelo VMI, se buscará la minimización de costos totales en la cadena

de suministro. Con lo cual obtenemos las siguientes relaciones óptimas.

𝑄𝑉𝑀𝐼 = 𝑘 × 𝑞𝑉𝑀𝐼 = 2𝑑𝐴𝑠

𝐻𝑠 1−𝑑

𝑝 (7) 𝑞𝑉𝑀𝐼 =

2𝑑(𝐴𝑏+𝐹+ 𝜋𝑏𝜎𝐿𝑇 𝐿(𝑧)

𝐻𝑏+𝐻𝑠 (8)

Resultados

En los modelos se desarrolló una instancia inicial que permitió analizar el comportamiento de los costos en la

cadena. En la Figura 1, se presenta el comportamiento en el porcentaje de reducción de costos, con las

estrategias MTO y MTS al implementar VMI.

MTO

MTS

Figura 1. Comparación de la implementación de las estrategias VMI con MTO y MTS (D = 1800 und/año,

σ=400und/año, P = 3800 und/año, b=0,01 años, As = 400, F = 300, Hs =50, Hb = 40, π = 120)

Observando el comportamiento del indicador, se puede concluir que fijando los parámetros diferentes al costo de

ordenar (Ab) del comprador, la selección de la estrategia más apropiada entre MTO y MTS depende de la

magnitud de Ab. Para la instancia seleccionada será más adecuada la implementación de un modelo VMI con un

enfoque MTS, cuando los costos de ordenar son mayores a $7625. Si los costos de ordenar presentan valores

menores, la estrategia más adecuada será la implantación de un modelo VMI con un enfoque MTO.

Referencias

[1] S.P. Nachiappan, N. Jawahar / European Journal of Operational Research 182 (2007) 1433–1452.

[2] Y. Yao et al. / Decision Support Systems 43 (2007) 663–674.

[3] Jafar Razmi & Reza Hosseini Rad & Mohamad Sadegh Sangari; “Developing a two-echelon

mathematical model for a vendor-managed inventory (VMI) system”, Int J Adv Manuf Technol (2010) 48:773–

783.

[4] Torres. Fidel, Gutiérrez. Eliécer; Performance Analysis of a VMI System for a Producer-Buyer Supply

Chain with Stochastic Demand; 22nd Annual POMs Conference. Reno, Nevada. 2011.

Page 51: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 51

LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL TOLIMA

Oscar Turriago Murillo1, Olga Suarez

1, Helga Patricia Bermeo Andrade

2

1Empresa TURRISYSTEM Ltda.

2Facultad de Ingeniería, Grupo GINNOVA, Universidad de Ibagué

Palabras claves: TIC, Sector salud, SISBEN

Problema

El Proceso de Autorizaciones de Servicios de Salud de usuarios del SISBEN (Sistema de Selección de

Beneficiarios a Programas Sociales) y del Régimen Subsidiado, es un trámite al que se enfrentan los pacientes

en la red hospitalaria, cuando requieren de un proceso de atención con especialistas. La inexistencia en el

Tolima, de sistemas informáticos en linea y actualizados con la información correspondiente a los usuarios,

ocasiona entre otras cosas, demoras y sobrecostos en la prestación de los servicios de salud. Ante esta

problemática, el Gobierno Nacional a través del Decreto 4747 expedido diciembre 7 del 2007, y el marco de un

gran programa de e-government [1][2] para las ramas del sector público, modificó el trámite para la prestación

de servicios de salud, con el fin de que los usuarios no tuvieran que intervenir en el mismo. Según el Decreto,

los trámites para la prestación de servicios de salud deben pasar a ser un ejercicio entre instituciones, evitando

que el paciente, sus familiares o terceros, se vuelvan tramitadores y mensajeros. Lo anterior requería el diseño y

puesta en marcha de sistemas informáticos en línea que facilitaran este proceso, de manera más efectiva y para

beneficio los usuarios de la red de servicios de salud del Departamento.

De los productos existentes en el mercado que son especialmente estructurados como sistemas de información

para el sector salud, existen diferentes alternativas y ambientes de desarrollo, que en general contribuyen a

suplir las necesidades de soporte de los procesos que llevan las Secretarias de Salud, pero no todos los sistemas

están ajustados a la normatividad y la dinámica de los cambios, lo que implicó la necesidad de realizar una

herramientas desarrollada a la medida y ajustada a la normatividad y los procesos que se llevan dentro de la

Secretaria de Salud del Tolima (SST).

Metodología

Naturaleza del estudio. El Proyecto se enfocó en un análisis descriptivo –comparativo. Primero se orientó a

describir el actual proceso de atención a servicio de salud (PASS), para luego pasar a contrastar la operación

actual del Proceso con la puesta en marcha de alternativas como la integración de una nueva herramienta

informática para el sector salud.

Fuentes y herramientas para colección de información. Las fuentes que se tuvieron en cuenta para el presente

proyecto fueron: a) la documentación técnica de PASS en entidades del Ministerio de Protección Social,

FOSYGA y Gobernación del Tolima; b) los funcionarios de la Secretaria de Salud del Tolima y c) los usuarios

del sistema en el régimen SISBEN y subsidiado. Para obtener la información de cada una de las fuentes se hizo

uso de: a) Documentación con la visita a las páginas de internet de las entidades relacionadas con el objeto

estudio, b) Entrevistas a personal funcionarios y los usuarios de la red de servicios de salud del Tolima, c)

Encuestas a los beneficiarios del Sistema. Etapas del proceso. En el desarrollo del proyecto se manejaron las

siguientes etapas:

Etapa 1: Documentación e investigación sobre el objeto de estudio

Etapa 2: Elaboración y aplicación del nuevo sistema de información al problema en estudio.

Etapa 3: Análisis de los efectos de la integración de la TIC en el PSS y conclusiones.

Técnicas de análisis (Indicadores de desempeño). Se recurrió al análisis estadístico descriptivo como de

comparación, de forma que se pudo contrastar las ganancias en términos de las siguientes variables de

desempeño definidas para este estudio: a) Diferencia promedio entre los tiempos de solicitudes de

autorizaciones b) Diferencia promedio en los costos de las solicitudes de autorizaciones.

Page 52: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012

52

Resultados

Con la revisión del proceso PASS se dio inicio al proceso de conceptualización, desarrollo e implementación en

línea de una herramienta informática apoyada en la modalidad de computación en la nube [3][4] (Cloud

Computing) y esquema cliente servidor, para el PASS en la Secretaría de Salud del Tolima (ver Figura 1a y 1b).

Figura 1. Esquema de conectividad (1a) y de operación (1b) del Software implementado en la SST

Fuente: Suarez & Turriago [5]

Los análisis de desempeño de la nueva herramienta informática, revelaron luego de la consulta a 300 usuarios

del sistema PASS y unos tres meses de operación, que se había logrado una mejora significativa en la calidad y

eficiencia del servicio. Antes del sistema informático, tan solo 8% de los usuarios lo calificaban como bueno

mientras que luego el 98% de usuarios lo calificaron como bueno e incluso excelente. De otro lado, las demoras

y costos en la prestación del servicio se redujeron dramáticamente para la gran mayoría: de un promedio de 1 a

3 días pasó a menos de 12 horas; y de un costo superior a los $20 mil pesos para el usuario.

Conclusión

Con la integración de las TIC a la organización encargada de la PASS, se logra que el nuevo sistema de

información para el proceso PASS, tenga un efecto positivo en términos de calidad, costos y tiempos, tanto para

los prestadores como para los usuarios del Sistema de Salud en el Tolima.

Referencias

[1] A. Glassman. From few to many: ten years of health insurance expanssion in Colombia. BID, 2009.

[2] Khalil, O. e-Government readiness: Does national culture matter? Government Information Quarterly ,

28, 2011.

[3] F. Galea, ¿Qué es... cloud computing? Bit, vol.176.

[4] M. Nour, A. AbdelRahman, A., & A. Fadlalla, A context-based integrative framework for e-government

initiatives. Government Information Quarterly, Vol. 25, 2008.

[5] Suárez Gutiérrez, O. P., & Turriago Murillo, O. Análisis del impacto socioeconómico de la

implementación de las TIC en los trámites de autorizaciones de la secretaría de salud departamental del Tolima.

Trabajo de grado en la Esp. en gestión de Operaciones y Tecnología, programa de Ingeniería Industrial,

Universidad de Ibagué - Colombia, 2011.

Page 53: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012

53

MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS

E. J. Olaya-Marín, F. Martínez-Capel, R. Costa, J. Alcaraz-Hernández

Institutd'Investigació per a la Gestió Integrada de ZonesCostaneres, UniversitatPolitècnica de València, C/

Paranimf, 1, 46730 Grau de Gandia (València), España.

Palabras claves: Redes neuronales artificiales, riqueza de peces, restauración ecológica.

Problema

Debido principalmente a la rápida degradación que sufren los ecosistemas de agua dulce a nivel global, en los

últimos años, la modelación ecológica se ha convertido en una herramienta muy importante para la conservación

de la fauna silvestre y sus hábitats. En España y especialmente en los ríos de clima mediterráneo, la

contaminación, la introducción de especies exóticas y la modificación del régimen hidrológico, han ocasionado

el declive y/o la extinción de numerosas especies nativas. Por lo tanto, es necesario el desarrollo de herramientas

que permitan mejorar el conocimiento de la ecología fluvial de estas cuencas para soportar el desarrollo de

políticas y acciones alternativas encaminadas a la restauración de los ríos y principalmente de sus especies

nativas.

Metodología

En este estudio se desarrollaron modelos de redes neuronales artificiales (RNA) para predecir la riqueza de

peces y simular medidas de mitigación en tres ríos de clima mediterráneo (Júcar, Cabriel y Turia), ubicados al

este de España. Se utilizaron datos de 90 puntos de muestreo de peces distribuidos a lo largo de los cauces de los

tres ríos (Figura. 1). Las capturas se realizaron mediante pesca eléctrica, en los meses de primavera y verano en

el período 2005-2009.Se tuvieron en cuenta tres grupos de variables ambientales:

Calidad del agua: oxígeno disuelto, demanda biológica de oxígeno, fósforo total, nitritos, pH, sólidos

suspendidos, conductividad, temperatura media anual del agua.

Hidromorfología: porcentaje de mesohábitats (poza, tabla, corriente, rápido y run), distancia libre de obstáculos

artificiales, área de drenaje, distancia al nacimiento, anchura media, caudal medio anual, caudal medio inter-

anual, coeficiente de variación intra-anual, coeficiente de variación inter-anual.

Índices biológicos: Iberian Biomonitoring Working Party-IBMWP, índice de vegetación de ribera – QBR. Se

utilizó el método paso a paso hacia adelante y el método de las derivadas parciales (PaD) para seleccionar las

variables más importantes en el modelo [1]. Se construyeron y probaron diferentes modelos de RNA con el fin

de determinar el número óptimo de nodos en la capa oculta y el tipo de función de transferencia más apropiado.

Se empleó validación cruzada k-fold para entrenar y validar la red neuronal artificial[2] y el algoritmo de

optimización empleado en la construcción de las redes fue el Levenberg-Marquardt.

Page 54: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012

54

Figura 1. Ubicación de los 90 sitios muestreados en los ríos Júcar, Cabriel y Turia en la Península Ibérica

Posteriormente, se simuló el efecto del aumento de la distancia libre de obstáculos artificiales sobre la riqueza

de peces nativos, en el tramo de río comprendido entre los azudes de la Manchega y Torcío (Fig. 2). Para ello se

evaluó el efecto de la eliminación de tres pequeños azudes fuera de uso en dicho segmento: Carrasco, La

Marmota y Los Pontones. En segundo lugar, se estudió la sensibilidad de la riqueza de peces nativos a un

incremento del porcentaje de corriente en 10, 20, 30, 40 y 50% con respecto a sus valores observados en dos

segmentos del río Júcar bajo el embalse de Alarcón.

Resultados

La mejor arquitectura de red fue de tres capas (7-6-1), siete neuronas en la capa de entrada que corresponde a las

variables ambientales, una capa oculta de seis neuronas y una capa de salida con una neurona la cual calcula el

valor de la riqueza de especies nativas.

El coeficiente de correlación (r) del modelo neuronal en la fase de entrenamiento fue de 0.90 y en validación

0.81.La aplicación del método de las derivadas parciales permitió establecer que las variables que más

contribuyen al modelo fueron, en este orden, IBMWP, porcentaje de corriente y caudal medio anual con una

importancia relativa de 20.72, 20.18, y 16.44% respectivamente. En los escenarios de simulación se encontró

que la riqueza de especies nativas aumenta a medida que se incrementa la distancia libre de obstáculos

artificiales y el porcentaje de hábitat de corriente (Figura 2).

Page 55: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012

55

Figura 2. Riqueza de pecesnativossimulada

Aplicando el análisis de sensibilidad de PaD se observó la influencia de las principales variables ambientales en

la predicción de la riqueza de peces nativos en el modelo, la cual se ilustra con tres diagramas de dispersión

(Fig. 3). En ellos se puede interpretar que los valores positivo en el eje Y, indican una relación positiva entre la

variable de entrada y la variable a predecir (riqueza de especies), y los valores negativos representan una

influencia negativa. Se puede observar que los valores de las derivadas parciales de la riqueza de peces nativos

con respecto al índice IBMWP, mesohábitat de corriente y caudal medio anual tienden a ser positivos, por lo

tanto un incremento en alguna de estas tres variables llevará a un incremento de la riqueza de especies nativas

en el área de estudio.

Figura 3. Derivadas parciales en función de las variables ambientales con mayor contribución en la predicción

de la riqueza de pecesnativos en la RNA.

Referencias

[1] M. Gevrey, Dimopoulosand S. Lek, “Review and comparison of methods to study the contribution of

variables in artificial neural network modelsl”, EcologicalModelling,vol. 160, no. 3, pp. 249-264, February,

2003.

[2] JD. Olden, Lawler and NL.Poff, 2008.“Machine Learning Methods Without Tears: A Primer for

Ecologists”,The Quarterly Review of Biology, vol. 83, no. 2, pp. 171-193, June, 2008.

Page 56: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012

56

OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA

AGROINDUSTRIA PESQUERA

N. Perea, J. Rodríguez

Departamento de Ingeniería, Grupo de Investigación en Eficiencia Energética y Energías Alternativas,

Universidad Nacional de Colombia, Palmira

Palabras claves: residuos pesqueros, alternativas de aprovechamiento, caracterización de residuos.

Problema

La actividad pesquera en Buenaventura genera aproximadamente 2370 ton/año de residuos sólidos, los cuales

presentan un gran potencial económico por su alto contenido nutricional [1]. Sin embargo, actualmente estos

residuos son descartados por las industrias pesqueras que intervienen desde la captura hasta la comercialización,

ocasionando problemas ambientales y económicos en el sector pesquero, afectando la población y el turismo de

la región. Estos residuos pesqueros pueden ser valiosos recursos biológicos, ya que contiene una abundante

oferta de valor de bio-materiales, tales como proteínas, lípidos, enzimas y quitina. No obstante, en Colombia la

poca información y falta de investigación sobre la caracterización y cuantificación de estos residuos y las

alternativas para su aprovechamiento, ha limitado la generación de nuevas oportunidades de valor agregado para

el sector, que permitan la diversificación en la oferta de los sub-productos y a su vez impacte en el desarrollo

socio-ambiental y económico de la región.

Metodología

El objetivo del estudio fue cuantificar y caracterizar los residuos generados por la agroindustria pesquera de

Buenaventura, con el fin de proponer estrategias ambientales preventivas y reactivas, las cuales contribuyan a

mejorar el rendimiento de los procesos, diversificar la oferta de productos pesqueros e impactar menos en el

ambiente. El estudio se llevó a cabo en las empresas pesqueras ubicadas en Muro Yusti-Pueblo Nuevo, del

municipio de Buenaventura, donde se encuentran 24 empresas pesqueras. La metodología comprendió 2 fases:

La primera fase, consistió en determinar la cantidad de residuo generado por proceso y caracterizar estos

residuos. En la segunda se estimó la cantidad de residuo pesquero generado en Buenaventura y se generaron

propuestas para el aprovechamiento de estos. En la primera fase, se realizó el balance de masa, caracterización e

inspección a 3 procesos pesqueros en 4 empresas, esto, a partir del seguimiento a sus procesos durante jornadas

de 6 horas. Los residuos sólidos se caracterizaron químicamente, usando los métodos propuestos por la

A.O.A.C, 1990 [2].

La segunda fase de cuantificación de los residuos, se realizó a partir de la extrapolación del recurso pesquero

desembarco en Buenaventura, a partir, del porcentaje de residuos generados por proceso y del porcentaje de

nutrientes presentes en estos residuos y posteriormente se generaron alternativas para su aprovechamiento.

Resultados

En Buenaventura, los principales procesos pesqueros están enfocados a la producción de filetes de pescado y

comercialización del producto fresco de pesca blanca y crustáceos. El proceso que mayor residuo genera es el

fileteado de pescado. En este, se consumen 5 m3 de agua/ton de pescado, los cuales son utilizados para lavar el

producto durante el procesamiento, producción de hielo, limpieza y desinfección de las áreas de trabajo,

equipos, herramientas y utensilios del proceso; siendo la limpieza y desinfección la que consume alrededor del

45% del consumo total. Este residuo, se logran disminuir con la implementación de estrategias ambientales

preventivas.

Para ello, se propone la implementación de pistolas de presión en las mangueras, aprovechando que la presión

de estas reduce los tiempos de operación de lavado; e igualmente evita que por olvidos del operario las llaves

Page 57: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 57

permanezcan abiertas, y dado que, trabajan a medio caudal, se produce reducción del consumo de agua, lo cual

se traduce en ahorros económicos.

En las empresas pesqueras, se encontró que ya se han implementado algunas estrategias preventivas, entre estas

la implementación de cortinas térmicas en la entrada de cuartos fríos y, sistemas de aseo para el personal al

ingreso del área de producción, sin embargo, se diagnosticó que es necesario capacitar y entrenar el personal de

planta sobre la importancia de estas medidas, para incrementar la eficiencia del proceso y mejorar la calidad del

producto.

No obstante, se encontró que los residuos sólidos no se logran disminuir antes ni durante el proceso. El proceso

de fileteado genera 538,3 g. residuo/Kg. de pescado, el de acondicionamiento de pescado fresco y el de camarón,

108 y 283,4 g. residuo/Kg. de pescado, respectivamente. Con el objetivo de caracterizar estos residuos y evaluar

su potencial de aprovechamiento, se realizó un análisis proximal (tabla 1), en el cual se encontraron altos

contenidos de minerales (representado en el contenido de cenizas), con 35,68% ±14,07 y proteínas, con 36,08%

± 15,66.

Tabla 1. Análisis proximal de los residuos de la agroindustria pesquera.

Exoesqueleto

camarón tití

Hueso de

pescado

Piel de

pescado

Vísceras de

pescado

Promedio Desviación

Estándar

Materia Seca 17,7 35,75 29,6 27,9 27,7 7,5

Ceniza 40,2 46,8 16,7 27,9 32,9 13,3

Proteína 39,5 37,2 11,6 54,9 35,8 17,9

Extracto etéreo 2,2 8,05 2,2 3,5 4,0 2,8

Carbohidratos 18 7,95 69,4 13,8 27,3 28,4

En Buenaventura se desembarcan aproximadamente 9995 ton/año de pesca blanca, las cuales son procesadas y

comercializadas en fresco, congeladas o fileteadas. Todas las especies se pueden filetear, pero algunas se filetean

más que otras, y de las especies fileteables, aproximadamente el 50% se filetea [3], lo que equivale a 2650

ton/año de especies desembarcadas fileteadas. En cuanto a los crustáceos, se desembarcan aproximadamente

1061 ton/año, siendo el camarón y el langostino los más representativos.

De acuerdo a los datos anteriores, se estimó que en Buenaventura se generan por proceso de fileteado 1500

ton/año de residuos, por acondicionamiento de pescado fresco, 675 ton/año y del de crustáceos, 300 ton/año. Es

decir, que en total las empresas procesadoras y comercializadoras de pescado generan alrededor de 2.366

ton/año de residuos sólidos, los cuales van a dar finalmente a una celda de transición, causando impactos

sociales a la población aledaña a esta. Al relacionar la cantidad de residuo generado, con el análisis proximal de

estos, se estimó que la cantidad de nutrientes disponibles en estos, equivalen a 255 ton/año, 79 ton/año y 500

ton/año de minerales, grasa y proteína, respectivamente.

Frente a este potencial nutricional, se propone para el aprovechamiento de los residuos de pesca blanca, la

implementación de procesos alternos para la generación de subproductos como proteínas (utilizadas en la

producción de alimentos de consumo animal, principalmente harinas), biodiesel y minerales y, para el

aprovechamiento de residuos de crustáceos, se proponen procesos alternos para la obtención de quitosano y

otros subproductos como proteínas y minerales (Tabla 2).

Page 58: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 58

Tabla 2. Esquemas de alternativas de aprovechamiento de residuos sólidos provenientes de las empresas

pesqueras

Referencias

[1] J. Rodríguez, J. I. Hleap, F. Estrada, J. C. Clavijo y N. Perea. Agroindustria Pesquera en el Pacífico

colombiano: Gestión de residuos pecuarios en sistemas de Producción Más Limpia. 1ra edición. Palmira:

Universidad Nacional de Colombia. 2011. 228 pp. 162-165.

[2] AOAC. Official methods of analysis. 14th ed. Washington, DC: Association of Official Analytical

Chemists. 1990.

[3] J. Clavijo. Formulación de una estrategia de competitividad para la Cooperativa Multiactiva de

Pescadores artesanales de Buenaventura. Trabajo de grado. Universidad Nacional de Colombia. Palmira, 2009.

Limpieza

Secado

Molienda

HARINA Comercializar

QUITOSAN

O

Acondicionamiento

y separación

PROTEÍNA

S

MINERALES

Harina Ca, P y CaCO3

Proceso

Residuos sólidos

crustáceos

Residuos sólidos

pesca blanca

Recepción, adecuación y

separación

PROTEÍNAS MINERALES GRASAS

Planta de

concentrados

Harina

Proceso Proceso

Ca, CaCO3 y

P Biodiesel

Page 59: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 59

DETERMINACIÓN EXPERIMENTAL DE LOS PARÁMETROS CRÍTICOS DE LA DINÁMICA Y

TERMOCONDUCTIVIDAD DEL SUELO BOYACENSE

M. P. Rojas1, O. A. Bellón

2

1 Facultad de Ciencias e Ingeniería, Departamento de Física, Grupo GIMAC Universidad de Boyacá. Tunja 2 Facultad de Ciencias e Ingeniería, Programa de Ingeniería Mecatrónica, Grupo GIMAC Universidad de

Boyacá. Tunja

Palabras claves: Arduino UNO, cultivos, dinámica, gradiente térmico, heladas climáticas, parámetros críticos, suelo,

termoconductividad.

Problema

Las heladas climáticas, afectan el desarrollo y calidad de los productos agrícolas cultivados en el altiplano

cundiboyacense. Existe una buena cantidad de técnicas para combatir los efectos adversos, desencadenados por

este fenómeno climático. Empero, resulta difícil evaluar en profundidad, con cual de las diferentes técnicas, se

obtiene el mejor desempeño en términos de costo económico y efectividad, porque son muchos los factores a

tener en cuenta al analizar, entre otros:

Parámetros del suelo

Entorno atmosférico cercano,

Velocidad del viento

Variables climáticas

Morfología

Composición química del suelo

La determinación de la mejor estrategia para combatir las heladas climáticas en un cultivo en particular, requiere

un conocimiento en detalle de la dinámica de la transferencia de calor del sistema físico que comprende un

cultivo particular.

Este trabajo investigativo, es una primera etapa, en la determinación del modelo dinámico de la transferencia

térmica del suelo y entorno atmosférico adyacente. La búsqueda, del conjunto de ecuaciones diferenciales, que

describen este proceso, es el fundamento para llegar a una descripción precisa del fenómeno y determinar un

algoritmo computacional que se constituya en una herramienta de alta precisión en la selección de la mejor

técnica -o combinación de ellas-, así como, en la posterior selección de la estrategia de control.

Metodología

Este proyecto es una investigación descriptiva-experimental, porque el objetivo del proyecto es:

La descripción precisa del proceso del flujo de energía en forma de transferencia de calor, en un entorno

limitado y definido a escala, que represente un terreno de cultivo y su ambiente superior cercano.

Para ello, se hace un análisis a partir de las leyes físicas de la conservación de la masa y la energía y el principio

de continuidad, con el propósito de obtener una ecuación dinámica que relacione cuantitativamente un conjunto

de variables ambientales. Debido a las características propias del terreno, es necesario determinar parámetros

particulares, que sólo mediante una serie de pruebas experimentales, será posible definir numéricamente.

Con los valores numéricos de los parámetros, de un terreno particular, en combinación con las leyes físicas, que

describen los procesos de transferencia térmica, para lograr así generar un modelo matemático para sustentar la

simulación numérica.

Page 60: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 60

Para tal fin se tomaron muestras de terreno de un lote de cultivo en el municipio de Tunja en contenedores

adiabáticos cilíndricos de 100 cm de altura y 5 cm de diámetro transversal (Volumen de muestra = 1963.5

cm^3). garantizando que el contenido mantuviera las características de densidad y distribución morfológica.

Se hizo la instalación de 10 transductores de temperatura, espaciados equidistantemente desde la superficie

expuesta en contacto con una fuente calórica de potencia conocida y constante, hasta el extremo inferior del

contenedor. La señal de cada transductor, fue procesada mediante la tarjeta de desarrollo Arduino UNO, en

interfaz con el programa MATLAB, en el que se hizo el procesamiento y análisis de datos.

Resultados

La importancia de esta investigación es que los resultados obtenidos de temperatura, gradiente térmico y

dinámica de la termoconductividad del suelo Boyacense, permitieron generar un modelo matemático el cual

suministra una herramienta confiable para tomar decisiones en la selección e implementación de metodologías

de protección y regulación térmica en cultivos afectados por las heladas.

Se tendrá un ambiente de simulación para valorar con precisión los resultados de una estrategia de control de

temperatura en particular y se podrá comparar con otras estrategias, reduciendo el costo que implica la

aplicación de metodologías por prueba y error.

De otra parte, no sólo se tiene utilidad por la evaluación del comportamiento al utilizar diversas metodologías,

sino por el ahorro económico significativo que el productor o inversionista, puede encontrar al examinar

diversas alternativas y contar con criterios bien fundamentados para tomar una decisión.

Referencias

[1] Calpouzos, L. 1969. Fungicides, Volume 2. Academic, Press Inc., New York. p. 367-393.

[2] Chapman, P. J. 1967. Petroleum oils for the control of orchard pests. N.Y. Agr. Exp. Sta. Bui. No. 814. 1-22.

[3] Dean, H. A., E. L. Wilson, V. C. Bailey, and L. A. Riehl. 1961. Fluorescent dye technique for studying

distribution of spray oil deposit on citrus. J. Econ. Ent. 54:333-340.

[4] Griffiths, A. E., and J. J. Janes. 1952. Advances in chemistry series. No. 7. American Chemical Society,

Washington, D. C. p. 37-43.

[5] Klingman, G. C. 1961. Weed control: As a science.J. Wiley & Sons, Inc. p. 208-219.

[6] Neff, M. S., and B. G. Sitton. 1962. Progress in screening materials for delaying bloom of tung. Proc. Amer.

Tung Oil. Assoc. 29: 22-23.

[7] Raese, J. T. 1971. Prolonging dormancy of tung trees with spray oil and succinic acid 2,2-

dimethylhydrazide.Hort.Science 6:408-410.

Page 61: memorias CNIA

PÓSTERS

Page 62: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 62

ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO DEL

ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ

E.M. López-Vanegas, E.A. Pérez-Ruiz, J.A. García

Grupo de Investigación D+Tec, Universidad de Ibagué, Ibagué

Palabras claves: Tribología, Desgaste, Pin on Disk, AISI 1020, Coeficiente de fricción.

Problema

En la industria metalmecánica regional se encuentra que los aceros AISI-1020 y AISI-1045 son la alternativa

comercial más común en aplicaciones estructurales. Esto sin considerar que no es totalmente conocido el

comportamiento al desgaste por deslizamiento en seco de estos aceros. Además, académicamente, a través de la

literatura son conocidos solo algunos parámetros del coeficiente de friccion (μ) de dichos materiales, sin

embargo estos parámetros no corresponden al comportamiento de los aceros de la industria nacional.Por lo

anterior, es importante preguntarse: ¿Es posible conocer el comportamiento al desgaste por deslizamiento en

seco del acero AISI-1020 comercialmente utilizado en la ciudad de Ibagué?

Metodología

La metodología de trabajo se centrará en el desarrollo de IV etapas, las cuales son:

Etapa I: Familiarización con el equipo tipo pin-on-disk. El equipo en el que se trabajo fue diseñado y

construido con anterioridad para un trabajo de grado de Luís Fernando Lamprea, este tribometro se

rigepor la norma ASTM-G99. Para los ensayos de desgaste en el equipo pin-on-disk se requiere un par

tribologico que se encuentran en movimiento relativo provocando una trayectoria de deslizamiento de

forma circular sobre el disco. La primera probeta es un pin con punta redonda o plana puesta

perpendicularmente sobre la segunda muestra, la cual es un disco circular plano en posición horizontal.

Etapa II: Instrumentación y calibración. Esta etapa consiste en el rediseño del sistema electrónico y de

control, el cual fue desarrollado por medio de las siguientes funciones:

Amplificación: se realiza cuando el nivel de salida de un sensor es demasiado bajo. De esta forma los

posibles ruidos que se introduzcan en el circuito resultarán cuantitativamente menores.

Filtrado: consiste en eliminar una cierta banda de frecuencias de la señal.

Linealización: consiste en obtener una señal de salida que varíe linealmente con la variable que se desea

medir.

Conversión de señal: se requiere cuando es necesario convertir un tipo de variación eléctrica en otro. Se

utilizo una tarjeta de Instrumentación NI-6008.

Interfaz Grafica: Se utilizo el software LabView, es un lenguaje de programación de alto nivel, de tipo

gráfico, y enfocado al uso en instrumentación.

Etapa III: Desarrollo experimental. Principales Variables de los experimentos: Cargas 1kg, 2.5kg y

3.5kg, Velocidad 60, 180, 300rpm, Distancia de deslizamiento 1000m. La cantidad de pruebas fue

determinada por el método experimental de matriz 3X3 con 3 replicas por cada combinación resultante.

Etapa IV: Análisis de los resultados y confrontación con la literatura

Resultados

Al comparar los resultados del coeficiente de fricción obtenidos en la experimentación con la literatura podemos

encontrar que los valores coinciden (Ver Tabla 1.)

Page 63: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 63

Tabla 1. Valores orientativos para coeficiente de fricción estática y de rozamiento por deslizamiento.

Al analizar los valores de las medias de las pruebas se puede visualizar que μ disminuye al aumentar la carga y

mantener constante la velocidad (Figura 1). Así mismo, al analizar los valores de las medias de las pruebas se

puede visualizar que al amentar la velocidad y mantener constante la carga disminuye el μ. (Figura 2)

Figura 1. Prueba 11, 3.5Kg, 300RPM, Media (μ): 0,594177115.Prueba 1, 2.5Kg, 300RPM, Media (μ):

0,628592657

Figura 2. Prueba 13, 3.5Kg, 180RPM, Media (μ): 0,699141843.Prueba 10, 3.5Kg, 300RPM, Media (μ):

0,600008213

Referencias

RABINOWICZ, Ernest. Friction and Wear of Materials. 2 ed. New York USA.: John Wiley and Sons, 1965.

ASTM G-99 “Standard Test Method for Wear Testing with a Pin-on-Disk Apparatus”

I.M. HUTCHINGS, Tribology, friction and wear of engineering materials, Ed. Arnold, London, 1992

Page 64: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 64

SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA SUPERFICIE DE

INGENIERÍA - EFECTO DE LA FORMA

E. Pérez R1, Luis O Tafur B

1, R.M. Souza

2

1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia

2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil

Palabras claves: Simulación Numérica, Ensayo Rayado, Desgaste.

Problema

En el diseño de maquinaria y elementos de máquinas, es necesaria la selección de materiales resistentes a

condiciones de contacto y deslizamiento relativo (desgaste). Para esto, son realizados ensayos (indentación y

rayado) que permiten analizar algunas propiedades de los materiales tales como dureza y tenacidad, así como

estudiar y asociar el efecto de las anteriores en la resistencia a la falla (deformación, concentración de esfuerzos,

falla del material) de los materiales.

En el estudio de los fenómenos de contacto, debido a la extensión en el número de operaciones de cálculo, son

utilizadas herramientas de simulación, como es el análisis por el método de los elementos finitos (MEF), los

cuales permiten de forma confiable obtener mapas de esfuerzos y deformaciones en los materiales al someterlos

a condiciones de contacto[1].

El objetivo de este estudio se centra en simular, vía elementos finitos, y analizar el comportamiento de los

esfuerzos y la deformación plástica de un acero AISI 1045 con acabado superficial (Ra = 0,79), cuando está

sometido a contacto con una partícula rígida con forma esférica y con forma cónica y a deslizamiento de 2,5 mm

bajo carga de contacto incremental hasta 15N.

Metodología

Etapa I: Familiarización con los Elementos Finitos. Esta etapa de la investigación se centra en el manejo

herramientas computacionales, más específicamente en el método de los elementos finitos, utilizando el

software de simulación ABAQUS, el cual es licenciado por el laboratorio de fenómenos de superficies LFS, de

la universidad de São Paulo.

Etapa II: Análisis del Estado del Arte. En esta etapa apoyada en la revisión bibliográfica, se buscará entender el

comportamiento mecánico de sistemas recubiertos y no recubiertos, además se podrá extraer la información

necesaria para la identificación de las variables a utilizar en el desarrollo de un modelo de simulación.

Etapa III: Desarrollo de mallas de simulación. En esta etapa se desarrollan mallas que permitan simular las

condiciones del modelo generado. Además se utilizara un análisis de convergencia buscando la malla que genere

los resultados más confiables.

Etapa IV: Resultados y Discusión. En esta etapa serán analizados y discutidos los resultados obtenidos, así

como comparados con los resultados encontrados en la literatura, publicados por grupos de investigación

internacional

Resultados

La figura 1-2 son dos graficas de tendencia (media móvil = 70), que muestran unos resultados de manera mas

clara y que pueden ser analizados de una forma más eficiente, ya que el comportamiento de los esfuerzos y

deformaciones en una superficie rugosa fluctúan según el perfil de rugosidad del material, de esta forma se

puede generar un mayor entendimiento en los resultados.

Las figuras 1-3 presentan la relación de los resultados de la distribución de esfuerzos equivalentes (Von Mises),

del deslizamiento de una partícula rígida; cónica y esférica, a lo largo de la superficie rugosa (Ra=0.79) y lisa,

respectivamente, calculados en función de la distancia recorrida (mm) y siendo medidos desde el inicio del

desplazamiento hasta el final del recorrido de la partícula rígida.

Page 65: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 65

En la figura 1 se ve claramente como los esfuerzos de Von Mises, tanto de la simulación con el indentador

cónico, como la del indentador esférico, se elevan a medida que el deslizamiento avanza y la carga aumenta,

tendiendo a estabilizarse sobre un rango [4], este rango coincide con el esfuerzo ultimo del material (acero 1045)

[5], esto muestra la gran posibilidad de falla del material. Los esfuerzos generados por la partícula esférica,

tienden a estabilizarse un instante después que los esfuerzos de la partícula cónica, como se muestra en la Figura

1, así mismo ocurre en la Figura 2 donde los esfuerzos generados por la partícula cónica son mayores que los

esfuerzos generados por la partícula esférica, esto es una clara evidencia de la influencia que tiene la forma de la

partícula rígida.

Figura 5. Relación Esfuerzos Von Mises Figura 2. Relación de Deformación

Figura 3. Relación Esfuerzos Von Mises, S. liso Figura 4. Relación de Deformación S. liso

La Figura 2-4 presenta la relación de la distribución de deformación del sustrato tanto rugoso como liso

respectivamente, en el deslizamiento de una partícula cónica y esférica. En las figuras, es claro ver como la

deformación, generada por el deslizamiento de la partículacónica, es mayor que el generado por la partícula

esférica, esta es una evidencia de la influencia de la forma del indentador. Al comparar los esfuerzos y

deformaciones generados en el sustrato rugoso de la figura 1-2, con los esfuerzos y deformaciones generados en

el sustrato liso de la figura 3-4, es evidente que la rugosidad en el sustrato, produce mayor concentración de

esfuerzos generando una mayor deformación y muchísima más probabilidad de falla del material.

Referencias

[1] J.L. Bucaille, E. Felder, G. Hochstetter "Mechanical analysis of the scratch test on elastic and perfectly

plastic materials with the three-dimensional finite element modeling," wear, vol 249, pp. 422–432, 2001

[2] M. Tkaya, H. Zahouani, S. Mezlini. "The effect of damage in the numerical simulation of a scratch test,"

wear, vol 263, pp. 1533–1539, 2007

[3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1,

pp. 145–179, 1970

[4] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribologicalcontact analysis of a rigidballsliding on

a hardcoatedsurfacePart I: Modellingstresses and strains," Surface&Coatings Technology, vol 200, pp. 3793–

3809, 2006

Page 66: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 66

MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045

E.A. Pérez R., G. Muñoz T., R.M. Souza 1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia

2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil

Resumen

Para la evaluación del desgaste presente en los materiales, es necesario considerar la aplicación de cargas

normales y tangenciales a la superficie del cuerpo en estudio, logrando de esta forma reproducir el fenómeno, el

cual se fundamenta en el contacto y movimiento relativo de los cuerpos. Para la evaluación del desgaste es

comúnmente utilizado el ensayo de rayado, en donde se desarrollan campos de esfuerzos y deformaciones, los

cuales son la causa de falla. Para el presente estudio de los esfuerzos y las deformaciones generados en el acero

1045, es desarrollado un modelo de simulación utilizando (MEF).

Problema

La mayoría de los procesos en la industria y los elementos de maquina experimentan contacto y movimiento

relativo entre ellos, esto lleva a que las superficies estén sometidas constantemente a condiciones de fricción y

posible pérdida de material (desgaste) lo que posteriormente conduce a daños o detrimento del elemento.

Objetivos

Objetivo General. Desarrollar un modelo de simulación numérica utilizando el método de los elementos finitos,

que permita reproducir el comportamiento de los esfuerzos y la deformación de un material sometido a contacto

y deslizamiento con una partícula rígida.

Objetivos específicos

Analizar e identificar las variables de estudio a considerar en el modelo, teniendo en cuenta resultados de estudios

de autores identificados en la revisión bibliográfica.

Diseñar mallas de simulación, haciendo énfasis en el tipo de elemento, número de elementos, refinamientos y

análisis de convergencia.

Análisis del comportamiento de los esfuerzos y la deformación del material sometido a contacto y deslizamiento.

Metodología

Etapa I: Familiarización con los Elementos Finitos.

Etapa II: Análisis de variables a considerar.

Page 67: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 67

Etapa III: Obtención y ensamble de la geometría.

Etapa IV: Restricciones del modelo.

Etapa V: Diseño de mallas de simulación.

Etapa VI: Resultados y Discusión

Conclusiones

Se creó un modelo (MEF) que permite reproducir el fenómeno de desgaste en superficies metálicas con una

malla de 124.824 elemento y teniendo en cuenta diferentes parámetros que ayudan a la obtención de resultados

confiables.

Se concluye que el esfuerzo último del material (673Mpa) es alcanzado y sobrepasado después de una longitud

de deslizamiento aproximadamente de 1.5mm, lo que puede dar idea de la formación de surcos, aparición de

grietas y desgaste.

Se puede concluir que a medida que la partícula desliza sobre la superficie la penetración se hace mayor, lo que

lleva a pensar que la remoción de material es cada vez más alta (característica del fenómeno abrasivo).

Referencias

[1] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribological contact analysis of a rigid ball sliding

on a hard coated surface Part I: Modelling stresses and strains," Surface & Coatings Technology, vol 200, pp.

3793–3809, 2006.

[2] S. Hogmark, S. Jacobson, M. Larsson “Design and evaluation of tribological coatings” wear, vol 246, pp.

20- 33, 2000.

[3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1,

pp. 145–179, 1970.

Page 68: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 68

SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA PARTÍCULA

E.A Pérez R1, C.A Parra

1, R.M. Souza

2

1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia

2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil

Resumen

El objetivo de esta investigación es simular y analizar el comportamiento mecánico, como consecuencia del

contacto de una superficie metálica con una partícula rígida sometida a carga normal y deslizamiento. Para esto,

se realizan simulaciones (FEM), considerando una partícula esférica con diámetro 1.59mm deslizando sobre un

sistema compuesto por un sustrato de acero AISI-1045. Los resultados permiten observar la influencia del

coeficiente de fricción (0.3-0.5), en el comportamiento de los esfuerzos de contacto, así como analizar la

relación inversa dada entre el coeficiente de fricción y los esfuerzos superficiales

Problema

El desgaste es el proceso de remoción de material debido al movimiento relativo de dos superficies, En dicho

proceso, el material puede ser removido de la superficie y expulsado fuera de la región de contacto. También

puede ser transferido a la otra superficie y quedarse adherido a ella o romperse y generar restos que pueden

quedar, en parte, atrapados en el contacto.

Objetivos

Objetivo General. Analizar la influencia del coeficiente de fricción de (0.3-0.5) y las condiciones de contacto y

deslizamiento, sobre los esfuerzos y deformación plástica de un material sin recubrimiento.

Objetivos específicos

Desarrollar un modelo de simulación para el contacto y deslizamiento de un cuerpo rígido con diferentes

coeficientes de fricción, sobre un sustrato liso.

Desarrollar mallas de simulación en 2D, para el contacto entre una partícula-substrato.

Analizar el comportamiento de los esfuerzos y deformación del sustrato, considerando diferentes coeficientes de

fricción sobre una superficie lisa

Metodología

Etapa I: Familiarización con los Elementos Finitos.

Etapa II: Análisis del Estado del Arte

Etapa III: Desarrollo de mallas de

Page 69: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 69

simulación

Etapa IV: Resultados y Discusión

En esta etapa serán analizados y discutidos los resultados obtenidos, así como comparados con los resultados

encontrados en la literatura, publicados por grupos de investigación internacional

Resultados

Conclusiones

Al observar los resultados obtenidos mediante el deslizamiento de una partícula esférica sobre un sustrato liso se

presenta que en diferentes puntos del recorrido hay mayores tensiones o esfuerzos los cuales son ocasionados

por el material acumulado, el cual, presenta un aplastamiento y compresión debajo del indentador. Se observar

que el comportamiento generado por la influencia de la fricción varia acorde al avance generado ocasionando al

parecer el fenómeno stick-slip debido al patrón del comportamiento de los esfuerzos. Al haber analizado la

influencia de la fricción en el comportamiento de la deformación plástica equivalente se observa que aumenta a

medida que la carga se incrementa sin ser constante e incrementar de forma oscilatoria presuponiéndose que

puede ocurrir por el fenómeno de stick-slip.

Bibliografía

[1].Caracterización de las propiedades tribológicas de los recubrimientos duros, Maryory Astrid Gomez Botero,

Memoria presentada para optar el grado de doctora Barcelona, Diciembre de 2005,Marti i Franques,1,08028

Barcelona.

[2].Análisis de simulación de esfuerzos y deformación plástica durante el contacto y deslizamiento de dos

cuerpos., IVAN NEGRIN HERNANDEZ, EDUARDO A. PÉREZ RUIZ, Scientia et Technica Año XIV, No 39,

Septiembre de 2008. Universidad Tecnológica de Pereira. ISSN 0122-1701].

[3]. Anantha Ram, B.S,Danckert, J., Faurholdt T., Finite element analysis of stress due to normal and sling

contac conditions on an elastic surface, 4th European LS-DYNA Users Conference (2003).

Page 70: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 70

IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN

RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA

J.M. Barrero, O. López-Santos

Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia

Palabras claves: THD-R, Boost.

Problema

En la actualidad una de las preocupaciones más grandes en la ingeniería involucrada en el suministro eléctrico es

la calidad de la energía. Diversas estandarizaciones actuales aplicadas en el mundo demandan que los

dispositivos electrónicos sean desarrollados para extraer de manera más adecuada la potencia del sistema

eléctrico, lo que implica un elevado factor de potencia y un bajo contenido armónico en la corriente. El

problema de control asociado al desarrollo de rectificadores que permitan cumplir con estas exigencias es

complejo debido a la referencia variante en el tiempo en el lazo de corriente y la necesidad de regulación en la

tensión de salida.

El semillero de investigación SICEP del grupo D+TEC de la Universidad de Ibagué ha desarrollado un prototipo

del rectificador monofásico de topología Boost con control digital basado en DSPIC, sobre el cual se han

realizado pruebas de control lineal y no lineal. En el presente trabajo, se busca plantear un nuevo esquema de

control que permita mejorar el rendimiento del sistema y así mismo profundizar en las limitaciones físicas que

impone la implementación digital como el limitado set de instrucciones y los tiempos de ejecución, además la

implementación además el nuevo prototipo debe ser de bajo costo.

Metodología

Se realizara una búsqueda bibliográfica sobre las diferentes técnicas de control comúnmente utilizadas en este

tipo de topología [2] y se analizara su rendimiento, se llevaran a cabo experimentaciones para obtener

información del funcionamiento preliminar del dispositivo [1] con el fin de identificar posibles fallas que puedan

alterar su comportamiento, de esta forma se realizaran modificaciones en los circuitos eléctricos para mejorar su

rendimiento e inmunidad al ruido, se desarrollara un algoritmo que permita aprovechar en mayor medida los

tiempos de ejecución y finalmente se realizara una comparación con los nuevos resultados obtenidos.

Avances

Se planteo un algoritmo que permite sincronizar la señal de referencia con el cruce por cero de la red eléctrica

[3], se redujo el tiempo de procesamiento del lazo de corriente con la generación interna de la señal de referencia

lo que conllevo a la reducción de la distorsión armónica de un 7.7% a un 3.3% [figura 1], se implemento un

control en modo deslizante con tiempos de muestreo de 6.2us, lo que favoreció también la reducción del THD.

Page 71: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 71

Figura 1. Referencia análoga digital

Figura 2. Referencia digital

Referencias

[1] H.F.Murcia.“Rectificación Electrónica Del Factor De Potencia”, Trabajo de pregrado, Programa De

Ingeniera

Electrónica, Universidad De Ibagué, 2011.

[2] L. Rossetto, G. Spiazzi, “Control Techniques for Power Factor Correction Converters”.P. Tenti, Department

of

Electrical Engineering, University of Padova,2000.

[3] Miranda, U.A,, “A DQ Synchronous Reference Frame Current Control for Single-Phase Converters”, Power

Electronics

Specialists Conference, 2005. PESC '05. IEEE 36th.

Page 72: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 72

ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE SISTEMAS

FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA

T. Sierra, O. López-Santos

Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia

Problema

El mundo actual siendo azotado por los cambios climáticos generados por la posesión de los recursos mundiales,

degenerando así la sociedad y de esa misma manera el medio ambiente, se ve en la obligación de generar nuevas

ideas, nuevas propuestas en cuanto a producción de energía se refiere. Sabemos que no dejaremos de consumir

energía, mas sí podemos hacer que esta sea renovable y en esa medida amigable con el medio ambiente. El

proyecto a continuación descrito pretende no solo desarrollar una idea para ser leída, sino para ser implementada

a nivel local (Ibagué, Tolima), nacional y/o mundial. Para el desarrollo practico la universidad de Ibagué,

propone un sistema de energía solar para alimentar y dar sostenimiento a la planta educativa, posiblemente no

en su totalidad, pero si se proyecta a conectar una gran parte de esta, incluyendo las áreas de laboratorios de

potencia y demás.

Metodología

La forma en la que se llevara a cabo el proceso metodológico se podría definir a razón de cómo se va

entendiendo mejor la finalidad de este, así como se van conociendo nuevas ramas a las que se va a atacar y no

solo a atacar sino a colaborar. Se quiere controlar un convertidor BOOST de segundo orden con un solo

interruptor (menores perdidas), usando control programado con corriente. Se censa la corriente de conmutación

para propósitos de re alimentación, de esta manera las dinámicas de cuarto orden en el convertidor pasan a ser de

primer de orden, lo que simplifica sustancialmente el diseño del controlador del lazo externo. Estos

convertidores se pueden configurar en cascada para obtener mayores niveles de potencia pero en cuanto más alta

sea esta, más pérdidas habrá. El lazo de corriente se implementa cuando el interruptor de corriente es

realimentado y amplificado usando una ganancia N, la resultante es inyectada al modulador. El lazo de voltaje

en la salida tiene un divisor de voltaje y el controlador, de esta manera la señal de referencia y la señal de salida

son comparadas en el controlador teniendo así el error. Lo más importante de estos nuevos convertidores es que

solo necesitan de un transistor de conmutación para su funcionamiento. Por lo anterior se dice que respecto de

pérdidas de potencia es mejor tener un convertidor simple, entonces estos convertidores cuadráticos se usan en

casos específicos y completamente necesarios. Se están encontrando nuevos materiales para tener convertidores

con mayor numero de etapas para los dispositivos de conmutación como Sic SBD‟s (diodos shotckey de barrera

fabricados con carburo de silicio), estos son diodos de recuperación ultra rápida.

Resultados Esperados

El trabajo desarrollado en el proceso servirá como soporte para las empresas que empiezan en Latinoamérica a

trabajar con energía solar, así mismo con otro tipo de energías. La finalidad es servir como soporte para nuevos

descubrimientos y así seguir en la labor de difundir y reconocer este tipo de investigaciones. Por estos tiempos la

energía solar y demás renovables/alternativas han dado de que hablar y ahora se ve una mayor preocupación

tanto de los usuarios como de los proveedores o creadores de nuevas tecnológicas que guíen el reconocimiento e

implantación de esta innovadora posibilidad de trabajo que además ayuda al medio ambiente.

Bibliografía

[1] K. K. Tse, Billy M. T. Ho, Henry Shu-Hung Chung, and S. Y. Ron Hui, IEEE. “A Comparative Study of

Maximum-Power-Point Trackers for Photovoltaic Panels Using Switching-Frequency Modulation Scheme”

[2] J.A. Morales-Saldan, R. Galarza-Quirino, J. Leyva-Ramos, E.E. Carbajal-Gutierrez and M.G. Ortiz-Lopez.

“Multiloop controller design for a quadratic boost converter”

Page 73: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 73

CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE REFERENCIA

SÍNCRONO

H.F. Murcia, O. Lopez-Santos, J.M. Barrero

Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué, Colombia

Palabras claves: Distorsión armónica, convertidor elevador, corrección de factor de potencia.

Problema

Gran parte de las fuentes de energía de corriente directa están compuestas por un rectificador de puente

completo monofásico convencional y una o más etapas de filtrado. Éste tipo de circuitos presentan significativos

niveles de corriente en ciertas fracciones de tiempo y ausencia de consumo en otras, presentando un factor de

cresta elevado y en consecuencia altos niveles de distorsión armónica. Esta distorsión armónica introduce

además deterioro en el factor de potencia, provocando una reducción en la eficiencia y la capacidad disponible

en las líneas de transmisión de energía eléctrica.

Figura 1. Topología boost PFC.

Fuente: Autor

Dentro de las técnicas de rectificadores electrónicos con corrección de factor de potencia (PFC) se destaca el

convertidor elevador (Boost)[1], [2], [3],con una respuesta fuertemente influenciada por las características del

control aplicado sobre el convertidor. El sistema de control implementado propone un control en cascada en el

que el lazo interno de control garantiza que la corriente de entrada tenga la misma forma de onda que la del

voltaje de entrada. El lazo externo de control define la amplitud de la corriente de entrada y estabiliza el voltaje

de salida en 48 VDC. La Figura 1 ilustra la topología del sistema de control empleada:

a)

b)

Figura 2. Esquema de control implementado para el convertidor boost PFC: a) referencia proporcional al voltaje

de entrada, b) referencia síncrona.

Fuente: Autor

El problema de este estudio, consiste en el desarrollo de un prototipo experimental de rectificador de topología

boost (Figura 1) PFC que cumpla con los estándares IEEE519 e IEC 61000-3-2 para los niveles de

Page 74: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 74

contaminación armónica producidos por equipamiento electrónico. Este estudio permite ademásevaluar el

desempeño final contrastando dos métodos de control para el seguimiento en corriente.

Metodología

El presente proyecto de investigación es de tipo experimental en la ingeniería electrónica, asociando: el índice de

distorsión armónica (THD), el factor de potencia (PF), el factor de desplazamiento, la corriente y el voltaje de

entrada entre otras como variables de medición. Agrupa áreas de la ingeniería: instrumentación, control,

electrónica de potencia, electrónica industrial y electrónica digital con el propósito de contribuir en el

mejoramiento de la eficiencia de sistemas electrónicos de potencia a partir de la evaluación del desempeño del

convertidor en topología boost, sistemas de referencia para el control de corriente. El alcance de los objetivos

contempló una secuencia metodológica que implicó: plantear el problema, definir los alcances y objetivos,

establecer el estado del arte, proponer alternativas de solución, seleccionar la alternativa de solución más

adecuada, diseñar, simular e implementar un prototipo de prueba, evaluar su desempeño usando como

herramienta de análisis la comparación y finalmente formular nuevas aplicaciones. Con base en los resultados

obtenidos se pretende dentro del semillero de investigación SICEP, replantear el problema y los propósitos de

manera que se genere un ciclo que permita un continuo mejoramiento y progreso de estas ramas de la ingeniería.

Resultados

A continuación se presentan los resultados experimentales medidos sobre el prototipo implementado del

rectificador activo del factor de potencia en topología boost empleando el osciloscopio AGILENT 54622D.

a)

b)

Figura 3. Señales medidas en el prototipocon control de corriente ON - OFF: a) señal de referencia proporcional

a la tensión de entrada, b) señal de referencia síncrona.

Tabla 1. Resultados experimentales de factor de potencia y distorsión armónica

Método de generación de referencia PF DPF THD

Proporcional a la tensión de entrada 1.00 1.00 7.7%

Referencia sinusoidal sincronizada con la red 1.00 1.00 3.3%

A partir de la las señales ilustradas en la Figura 3 y los datos mostrados en la Tabla I, puede evidenciarse que

aunque en el método de referencia proporcional al voltaje de entrada, la carga es percibida como una resistencia

incluso para el contenido armónico.Por el contrario en el caso en que se aplica sistema de referencia síncronoa

pesar de que el contenido armónico de la corriente difiere del contenido armónico del voltaje el índice de

distorsión armónica es menor.

Referencias

W. Erickson, “Fundamentals of power electronics”, KLUWER ACADEMIC PUBLISHERS, 2004.

H. Akagi, E. Watamable, M. Aredes, “Instantaneous power theory to power conditioning”, IEEE press, 2007.

M. Chen, A. Mathew, J. Sun, “Nonlinear Current Control of Single-Phase PFC Converters”, IEEE Transactions

on power electronics, vol. 22, no. 6, Nov. 2007.

Page 75: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 75

DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO

PROCESAMIENTO DIGITAL DE IMÁGENES

O. Barrero-Mendoza1, C. Herrán

2

1Investigador Universidad de Ibagué.

2Estudiante de Maestría en Ingeniería de Control Industrial.

Resumen

El uso del procesamiento digital de imágenes (PDI) en el campo de la agricultura específicamente en el manejo

poscosecha es muy importante, ya que después de cosechada la fruta, se acelera la respiración y por tanto su

degradación físico-química causando pérdidas en el almacenamiento y en la distribución al consumidor final; la

colorimetría basada en el PDI es un técnica eficiente, no destructiva que permite analizar el color de una

muestra y obtener datos de su proceso de maduración y de las características relevantes a controlar para su

preservación en las cámaras de atmosferas controladas.

Problema

Colombia como uno de los cinco principales países productores y exportadores de banano en el mundo produce

más de 1.9 millones de toneladas al año; de la cual se pierde gran cantidad en pos-cosecha. Uno de los aspectos

más importantes del almacenado en poscosecha es la determinación del estado de maduración y de las variables

físico-química afectadas de forma rápida y no destructiva. Como solución se plantea desarrollar un colorímetro

digital usando Image Processing Toolbox™ de Matlab que permita obtener y analizar el estado de maduración

del banano y relacionándolo con sus características fisicoquímicas (pH, %acidez, contenido de sólidos solubles)

para ser usado en cámaras de atmósfera controladas con el fin de mejorar el desempeño de sus sistemas de

control automático.

Figura 1. Representación gráfica de los componentes principales de un colorímetro digital (adaptado de

Agronomía Costarricense 2009).

Objetivos

Objetivo General. Usar procesamiento digital de imágenes (PDI) para mejorar las condiciones y prolongar el

tiempo de almacenamiento del banano en cámaras de atmósfera controlada.

Objetivos específicos

Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración del banano en línea.

Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de

imágenes, en cámaras de atmósfera controlada.

Metodología

El procesamiento digital de imágenes se realiza usualmente utilizando un método de reconocimiento de

patrones, cuyos pasos se ilustran en la Figura 2.

Page 76: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 76

Figura 2. Método de recopilación de información usando procesamiento digital de imágenes.

Formación de la imagen, preprocesamiento, segmentación, umbralización extracción de características

correlación de la información recabada para determinar las características fisicoquímicas (pH, %acidez,

contenido de sólidos solubles).

Resultados Esperados

Generación de conocimiento y/o nuevos desarrollos tecnológicos.

Desarrollo del colorímetro digital usando Image Processing Toolbox™ de Matlab.

Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de

imágenes, en cámaras de atmósfera controlada.

Referencias

Agronomía Costarricense 33(2): 283-301. ISSN:0377-9424 / 2009

http://www.mathworks.com/products/image/

Abdullah, M.Z.; Guan, L.C.; Lim, K.C. & Karim, A.A. (2004). The applications of computer vision and

tomographic radar imaging for assessing physical properties of food. Journal of Food Engineering 61: 125-135.

Page 77: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 77

DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS BASADAS EN

ESPECTROMETRÍA DE INFRARROJO CERCANO

O. Barrero-Mendoza1, C. Herrán

2

1 Investigador Universidad de Ibagué.

2 Estudiante de Maestría en Ingeniería de Control Industrial

Resumen

La investigación de alternativas eficientes para el mejoramiento del manejo poscosecha es muy importante, ya

que después de cosechada la fruta, se acelera la respiración y por tanto su degradación físico-química con

cambios de color, acidez y concentración interna de azúcares; a nivel de laboratorio se utilizan técnicas

destructivas para el análisis de estas variables. La espectrometría de infrarrojo cercano (NIR) es una técnica

rápida, no destructiva ni contaminante de gran precisión, empleada como alternativa a los métodos químicos

tradicionales, la cual se basa en la emisión de rayos de luz a longitudes de ondas definidas sobre las muestras.

Problema

El manejo poscosecha de frutas presenta serios inconvenientes en el almacenamiento y transporte, lo que

conlleva a grandes pérdidas y disminución de la calidad del producto. Una de las tecnologías más usadas

actualmente son las cámaras de atmósfera controlada (Nahor, 2005), las cuales permiten almacenar productos

perecederos por largos periodos de tiempo, controlando sus propiedades fisicoquímicas y organolépticas; debido

a esto, se propone en esta investigación diseñar un instrumento que permita medir la maduración de frutas,

basado en espectrometría de infrarrojo cercano para ser usado en cámaras de atmósfera controladas con el fin de

mejorar el desempeño de sus sistemas de control automático.

Figura 1. Representación gráfica de los componentes principales de un espectrómetro de infrarrojo (adaptado de

Stuart, B. 2004).

Objetivos

Objetivo General. Usar espectrometría de infrarrojo cercano (NIR) para mejorar las condiciones y prolongar el

tiempo de almacenamiento de frutas en cámaras de atmósfera controlada.

Objetivos específicos

Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración de la fruta en línea.

Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercana, en cámaras de

atmósfera controlada.

Metodología

La tecnología NIRS se basa en la emisión de un haz de luz sobre la muestra a analizar, la cual en función de su

composición, o mejor aún, de la naturaleza de los enlaces presentes en sus moléculas, fundamentalmente de

aquellos de tipo –CH, –NH y –OH, interaccionará con ellos absorbiendo una determinada cantidad de radiación

electromagnética en el rango del infrarrojo cercano, de 780 a 2500 nm (Shenk et al., 2001).

Page 78: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 78

Figura 2. Formas de análisis NIR de los productos agroalimentarios (adaptado de Kawano, 2004).

Para extraer la información química relevante de cada muestra es necesario emitir un haz de luz infrarrojo en un

rango especifico de longitud de onda a través de la muestra y detectar la información según el método de

recepción implementada (ver Figura 2) para luego ser interpretada por el software.

Resultados Esperados

Generación de conocimiento y/o nuevos desarrollos tecnológicos.

Desarrollo del sensor para medición de la madurez en frutas basado en espectrometría de infrarrojo cercano

(NIR).

Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercano (NIR), en cámaras

de atmósfera controlada.

Bibliografía

Bhande, S. R. (2008). Respiration rate of banana fruit under aerobic conditions at different storage temperatures.

Journal of Food Engineering , 116–123.

Fonseca, S. O. (2002). Modelling respiration rate of fresh fruits and vegetables for modified atmosphere

packages: a review. Journal of Food Engineering , 99–119.

Ozaki, Y. M. (2007). Sampling techniques.In Near- Infrared Spectroscopy in Food Science and Trchnology.

New Jersey: Wiley-Interscience.

Page 79: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 79

CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA

M. Hernandez-Sarabia1 D. Rojas

1, B. De Meulenaer

2

1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué

2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.

Problem

Rice is a staple food for more than half of humanity and every continent on the planet produces rice except

Antarctica (Amissah et al, 2003), and it is also the third main commodity consumed in Colombia. Rice Bran

(RB) is a by-product of rice milling factories and is underutilized. Actually in main rice producing region of

Colombia, Tolima, a large proportion of RB is used as animal feed, wasting its excellent quality and nutritional

value. It is essential to establish the chemical and nutritional variations in order to analyze the industrial

potential of the rice bran in Tolima region in Colombia.

Objetivs. Evaluated varietal differences and its effects on the quality parameters on RB and RBO from main 4

rice varieties cultivated from Tolima region in Colombia.

Methods

The analysis of rice bran composition was carried out for the four varieties, the two milling fractions

comparison, and on the samples from the eight batches of F50 variety. The parameters measured were: protein,

fat content, moisture, ash, total fibre, amino acids on one sample of rice bran in triplicate. In three oil extractions

fatty acid profile, tocopherols, tocotrienols, and g-oryzanol were analyzed. The moisture, crude fat, crude protein

and ash contents were determined based on the official methods of analysis of the AOAC (AOAC, 1990) in

triplicate. Carbohydrate content was determined by difference. The conversion factor used for protein

determination was 6.25. Total dietary fibre composition was obtained by a combination of enzymatic and

gravimetric methods (Asp et al., 1983; AOAC, 1984). All reagents were obtained from BIOQUANT -Merck

(Germany). The analysis was carried out using two samples of rice bran previously defatted and dried at room

temperature, in order to correct the fibre content from protein and ash interference. Each sample and blank (same

procedure without sample) was done in triplicate. The amino acids were analyzed using the method described by

Kerkaert et al. (2010). All the amino acids except tryptophan were analyzed by HPLC after acid hydrolysis. In

the acid hydrolyzed samples, all amino acids except proline were analyzed after pre-column ophtalaldehyde

(OPA) derivatisation, while proline was analyzed after 9-fluorenylmethyl chloroformate (FMOC) derivatisation.

Tryptophan was analyzed after basic hydrolysis by pre-column OPA derivatisation on HPLC. The HPLC

analysis was done on 1100 Agilent HPLC equipped with a zorbax eclipse-AAA column. Oryzanol content was

determined in a Varian Cary 50 series spectrophotometer according to the method described by Seetharamaiah

and Prabhakar (1986). Standard was obtained from Tokyo Chemical Industry Co., Ltd. (Japan). The standard

was used to create the calibration curve in the range 0-0.1 mg/ml.

Results

Parameter (g/100g DM)

Varieties

F60 C304 F50 RBM

Moisture 10.65 ± 0.13 11.04 ± 0.09 12.50 ± 0.22 11.48 ± 0.48

Protein 13.60 ± 0.06 15.29 ± 0.10 14.62 ± 0.21 15.08 ± 0.12

Ash 12.08 ± 0.06 12.26 ± 0.13 12.58 ± 0.01 9.47 ± 0.06

Fat 21.09 ± 0.66 23.44 ± 0.47 21.28 ± 0.50 22.15 ± 0.55

Total fibre 25.96 ± 0.95 24.74 ± 1.15 29.94 ± 0.79 20.98 ± 0.54

Carbohydrate 16.62 13.22 9.07 20.8

Bibliografía

AOAC (1984). Association of Official Analytical Chemists. Official Methods of Analysis. 1984. 14th Edition,

washington, D. C.

AOAC (1990). Association of Official Analytical Chemists. Official Methods of Analysis. 1990. 15th Edition,

Washington, D. C.

Page 80: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 80

PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE FABRICATO

FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM

L.F Lozada-Valencia, E. Otalora-Murcia

Grupo de Investigación Ginnova, Universidad de Ibagué, Ibagué – Tolima

Palabras claves: Job Shop, Métodos Heurísticos, Programación de la Producción

Problema

El principal problema a atacar en la planta de Acabados de la empresa Fabricato – Fibratolima, se orienta a la

inadecuada programación de la producción con la que actualmente cuenta la compañía, afectando de manera

directa el cumplimiento a las fechas de entrega pactadas con clientes potenciales, además de generar altos

niveles de inventarios de producto en proceso y de producto terminado.

El análisis de la información recolectada permite desglosar el problema anteriormente expuesto en unos puntos

principales como lo son en primera medida, lo concerniente al proceso de producción normal de la tela, esto

debido básicamente a la cantidad de referencias manejadas en la compañía, las cuales a pesar de clasificarse en

líneas de producción ya estandarizadas con la mínima variación en el tejido al igual que las materias primas

usadas para el mismo, hace que el proceso deba estimar un gran número de variables, entre las más

sobresalientes están el color de la tela relacionado con los pases por teñido y fijado de las mismas, las

velocidades de producción determinado por el peso y característica del telar, las mermas y perdidas normales

referentes a cada línea de producción, entre otras; volviendo complejo el proceso tanto en la parte operativa de

transformación de materias, como en la parte de programación de pedidos, ya que no se cuenta con una

herramienta para efectuar esta actividad. Finalmente, el mayor problema es la limitada capacidad instalada con

la que cuenta la empresa haciendo que el ciclo de producción se vea atascado por sus máquinas cuello botella

localizadas principalmente en el área de teñido.

Mediante la consolidación de las ideas anteriormente expuestas se hace evidente que para la compañía Fabricato

– Fibratolima es indispensable dar solución a dos grandes problemas que son el retraso en el proceso de

producción lo que genera a su vez el incumplimiento de entrega de pedidos y los altos niveles de telas enviadas a

reproceso. Estos dos problemas están directamente relacionados y generan la siguiente pregunta de

investigación: ¿Cómo la aplicación de la heurística “El cuello de botella móvil (CBM) o shiftingbottleneck”,

contribuye a la mejora en la programación de la producción para la planta de Acabados de Fabricato –

Fibratolima?

Metodología

El presente estudio obedece a cuatro etapas específicas:

En la primera etapa se caracterizara el proceso productivo de la planta de acabados de Fabricato - Fibratolima,

a partir de entrevistas a los distintos actores que intervienen en los procesos de producción, visitas a la planta y

la búsqueda de documentación existente, con miras a determinar las variables de proceso más sobresalientes,

líneas de producto de mayor importancia, problemas neurálgicos, con lo que se busca generen una idea global

del tema a trabajar.

En la segunda etapa, a partir de la información obtenida, se realizara la búsqueda de la información teórica que

fundamente la heurística denominada “The Shifting Bottleneck Heuristic and The Makespan”,que se aplicara

en la programación de la producción de la planta de acabados de Fabricato – Fibratolima.

La tercera etapa se basa en la consecución de una serie de datos necesarios como los tiempos de procesamiento

estándar por máquina, líneas de productos y referencias más sobresalientes, flujos de procesos estándar por línea

de producto, tiempos de preparación y cambio de programa, ciclo de teñido de la tela, porcentaje de reproceso

Page 81: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 81

por línea de producción y maquinaria, programas maestros de producción mensuales, entre otros; los cuales

serán la base y estado de partida que alimenten la heurística de programación a desarrollar.

La cuarta y última etapa del proyecto es de desarrollo y aplicación de la heurística “The Shifting Bottleneck

Heuristic and The Makespan”, el cual será recreado en la planta de acabados de la firma textil Fabricato –

Fibratolima y que pretenderá solucionar los problemas de programación de la producción.

Resultados

Un taller de fabricación o Job-Shop es una configuración productiva que permite fabricar una gran cantidad de

productos diferentes. Este tipo de sistema se caracteriza por tener máquinas de propósito general, y por qué cada

trabajo tiene una ruta de fabricación única, que no necesariamente se repite entre trabajos. [1]

La planta de acabados cuenta con un área de 11.200 metros cuadrados, en la cual se encuentra el área de

productividad, de diseño, de calidad, de recursos humanos. Está conformado por 17 máquinas, en las cuales se

realiza los procesos finales a la tela, como el pre tratamiento, teñido, estampación, suavidad, apresto, fijación del

color. Estos procesos son indispensables para dar a la tela la textura, color y las características físicas necesarias

para obtener un producto final de excelente calidad.

El proceso de producción de la planta de acabados se inicia con la tela cruda proveniente de telares, la cual trae

contaminantes tales como ceras, cascarilla, goma, grasas, aceites que deben ser retirados durante los diferentes

procesos físicos y químicos.

Figura 1. Caracterización del Sistema Productivo

El cuello de botella móvil (CBM) o shiftingbottleneck, desarrollado por Adams, Balas y Zawack (1989), es una

de las heurísticas para programación de talleres más exitosas [2]. Su idea principal es secuenciar una a una las

máquinas del taller según su grado de criticidad. Este último es calculado de acuerdo con la secuenciación de las

máquinas que afecta la función objetivo. El algoritmo inicia con la determinación del cuello de botella inicial y

establece una secuencia de trabajos óptima para esa máquina. Una vez se ha hecho esta operación, se imponen

nuevas restricciones que afectan la secuenciación de las máquinas restantes. Se determina y se secuencia la

nueva máquina cuello de botella entre aquellas no secuenciadas y el proceso se repite hasta que no haya

máquinas sin secuenciar [3].

En el marco de la tercera y cuarta etapa de la metodología a continuación se muestra la tabla definida por el área

de programación de la producción y los autores, para definir los tipos de base más sobresalientes en la planta de

acabados de Fabricato – Fibratolima con el flujo estándar de las maquinas en la producción:

Page 82: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 82

Cuadro 1. Secuencia de las máquinas para acabados de tela más sobresalientes.

A partir de la información obtenida luego de llevar a cabo la secuenciación de los doce pedidos trabajados en la

prueba piloto, se destaca como la aplicación de la restricción definida por defecto en el área de teñido genera una

variación considerable en los resultados obtenidos tanto para efectos del desarrollo del programa a partir del

método actual asociado a regla de despacho FIFO, como para el método propuesto a través de la heurística

CBM.

Tomando como base de análisis el tiempo de fabricación máximo de todos los pedidos Cmax, como la variable

de decisión en términos de comparación y selección de la mejor opción, se evidencia para el caso un aumento

significativo de 1881 minutos para en el método de programación actual, ya que pasa de manejar un Cmax de

8628 minutos a un Cmax de 10509 minutos, el cual expresado en términos de días sería un incremento de casi

día y medio de producción. De igual forma, para el caso de la heurística CBM se observa una variación relativa

del 25% pasando de un Cmax de 7850 minutos a un Cmax de 9780 minutos, que en términos de días se expresa

en un aumento de 1.34 días para dar por finalizada la corrida de producción.

Referencias

[1] Castro, C. A., Velez, M. C., & Maya, J. (2003). Algoritmo de Busqueda Aleatoria Para la Programacion

de la Produccion en un Taller de Fabricacion. Revista EAFIT, 3-4.

[2] PINEDO, M., & CHAO, X. (1999). Operations Scheduling With Applications In Manufacturing And

Service. New York: McGraw Hill.

[3] Britto, R. A., Mejia, G., & Caballero, J. P. (2007). Programación de la producción en sistemas de

manufactura tipo taller con el algoritmo combinado cuello de botella móvil y búsqueda tabú. Universidad de los

Andes, 205-206.

TIPO DE BASE BASE ACABADO

14513 140/12 DCOLE DESC BQEO MERC APR PREENC REV PICAR 0 0

45524 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0

45525 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0

44520 140/12 DCOLE DESC BQEO MERC APR PREENC REV PICAR 0 0

55506 870/PA DCOLE DESC MERC TDO EST REDUC APR PREENC REV PICAR

55502 870/PA DCOLE DESC MERC TDO EST REDUC APR PREENC REV PICAR

24527 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR

24520 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR

24524 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR

24526 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR

45524 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0

45525 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0

45528 480/TE DCOLE DESC BQEO MERC TDO APR PREENC REV PICAR 0

24568 480/95 DCOLE DESC BQEO MERC TDO TIN APR PREENC REV PICAR 0

24582 480/95 DCOLE DESC BQEO MERC TDO TIN APR PREENC REV PICAR 0

18190 904/34 DCOLE DESC BQEO EST PIGM TDO BCO OPT APR PREENC REV PICAR 0

45526 904/34 DCOLE DESC BQEO EST PIGM TDO BCO OPT APR PREENC REV PICAR 0

FLUJO ESTANDAR

BLANCOS

CAMUFLADO

TEÑIDO

UNIFORMERO

ESTAMPADO

Page 83: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 83

REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA MEJORAR LA

EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL

C. Saavedra-Moreno

Ingeniería Industrial/GINNOVA, Universidad de Ibagué, Ibagué

Palabras claves: servicio de urgencias, logística hospitalaria, ingeniería aplicada.

Problema

La salud es un derecho fundamental del ser humano. Desde la Carta de Constitución de la Organización

Mundial de la Salud - OMS se plantea que todo ser humano tiene derecho a que se le garantice la salud, sin

distinción de raza, religión, ideología política o condición económica o social. Los avances en materia de salud

a nivel mundial han sido limitados y desiguales, debido a situaciones de conflicto, malas gobernanzas, crisis

económicas, alimentarias o humanitarias y la falta de recursos [1]. Según datos de la OMS [2], dos tercios de

las muertes infantiles prematuras se deben a enfermedades que se podrían evitar o tratar con intervenciones

simples, un tercio de las muertes de niños están asociadas a la malnutrición y cada día mueren unas 800

mujeres por causas prevenibles relacionadas con el embarazo y el parto. Una de las áreas de mayor prioridad

para mejorar en un hospital es el área de urgencias, como se evidencia en Pantoja Rojas & Garavito Herrera

[3], Hoot & Aronsky y Espinosa & Case [4], en donde se destaca la necesidad de mejorar esta área debido a

que atiende servicios que requieren tiempos de respuesta óptimos y de alta calidad. Una respuesta inoportuna o

un servicio deficiente pueden generar el empeoramiento de la salud e integridad física del paciente. En el

Artículo 159 de la ley 100 colombiana se definen dentro de las garantías de los afiliados al sistema de

seguridad social la atención eficiente de urgencias en todo el territorio nacional, una situación de servicio

ineficiente está en contra de la ley y de los derechos constitucionales de los ciudadanos.

En este marco, en donde los servicios de urgencias se configuran como áreas con altas congestiones, tiempos

de espera altos, alta ocupación de instalaciones médicas y recursos limitados, no solo por la creciente demanda

de usuarios, sino por ser la fuente de pacientes para otras especialidades de las clínicas, es importante

identificar las herramientas ingenieriles que potencialmente pueden mejorar el funcionamiento operativo del

servicio. Lo anterior, si se tienen en cuenta que actualmente el sistema de salud colombiano se encuentra en

crisis debido a problemas en la regulación del sistema, la corrupción, prestación de servicios deficientes (baja

actualización de personal y malas condiciones de infraestructura), entre otros factores [6]. Por lo anterior, en

este artículo se realiza una revisión bibliográfica de las herramientas ingenieriles que se pueden integrar y

adaptar en un servicio de urgencias regional, con el fin de maximizar el uso de los recursos disponibles y

mejorar los procesos actuales.

Metodología

Para realizar el proceso de búsqueda de esta revisión se definieron las siguientes restricciones:

Los artículos tienen como objeto de estudio el servicio de urgencias de hospitales y plantean

problemas que se solucionan con herramientas de ingeniería.

Las herramientas de ingeniería aplicables buscan mejorar el funcionamiento operativo del servicio, en

particular la eficiencia del área de urgencias. La eficiencia medida por el indicador de oportunidad de

atención.

Los artículos deben plantear los factores requeridos para construir una solución. Lo anterior, con el fin

de identificar las alternativas que pudiesen adaptarse a la situación regional.

Se revisaron alrededor de 50 artículos en bases científicas especializadas (Scienti y Scopus) de los cuales se

seleccionaron 25 que cumplen las restricciones especificadas en el proceso de búsqueda y se publicaron en

los últimos cinco años. Las ecuaciones de búsqueda utilizadas incluyeron los siguientes términos con

diferentes combinaciones:, improve efficiency process emergency department, simulation emergency

department, lean emergency department, operation research emergency department , six sigma emergency

department. Por medio de la revisión de los artículos se lograron conocer las diferentes herramientas de

ingeniería que se pueden utilizar para solucionar problemáticas propias de un servicio de urgencias. Además,

conocer casos de aplicación que permiten evidenciar las mejoras de la operación del servicio, los factores que

se deben tener en cuenta para replicar las investigaciones y ventajas y desventajas de cada una. Estos cuatro

Page 84: memorias CNIA

Congreso Nacional de Ingeniería CNIA2012 84

elementos se clasificaron y organizaron en tablas, que permiten seleccionar las alternativas para adaptar,

dependiendo de los problemas que se identifiquen en el servicio de urgencias a mejorar.

Resultados

La revisión de literatura muestra diferentes aplicaciones de ingeniería diseñadas a la medida de las necesidades

propias de cada entidad, teniendo en cuenta las diferencias que puedan existir en el marco de la regulación

legal, la cantidad de servicios que se ofrecen, el volumen y características de usuarios que la entidad atiende y

su presupuesto. Sin embargo, se evidencia en su mayoría que la aplicación de herramientas de ingeniería para

mejorar servicios de urgencias genera beneficios cuantificables en el indicador de oportunidad de atención (es

decir se disminuyen los tiempos de espera de los pacientes).

En la tabla 1 se muestran las metodologías analizadas con los diferentes elementos estudiados para solucionar

problemas de servicios de urgencias.

Tabla 1. Herramientas de Ingeniería aplicadas para mejorar la oportunidad de atención en el servicio de

urgencias

Herramienta de

ingeniería

Herramienta

especifica Mejoras alcanzadas

Ventajas y/o desventajas

identificadas

Referencias

Simulación

Simulación de eventos

discretos

Identificación de cuellos de

botella

Planeación e identificación

de capacidad

Evaluación de escenarios

Permite modelar un sistema

complejo con funciones sencillas

[7], [8], [9], [10],

[11], [12] [3]

Simulación basada en

agentes

Mejoras en el flujo de

pacientes y recursos del

sistema

Es una metodología que permite

determinar configuraciones de

los recursos.

Se centra en los componentes

básicos no en el sistema en

conjunto

[13], [14], [15],

[16], [17]

Programación de recursos o actividades

Asignaciones optimas de

recursos

Disminución de los tiempos

ociosos

Permite la optimización en la

asignación de recursos

[18], [19], [20],

[21], [22]

Gestión de la

calidad

Seis Sigma

Reducción de la variabilidad

de los procesos

Disminución en errores y

devoluciones

Tiene un enfoque hacia el cliente

(en este caso el paciente)

Se requiere del compromiso y

participación del personal del

área.

[23] [24] [25] [26]

[27] [28] [29]

Manufactura Esbelta

Reducción de desperdicios

(eliminación de procesos que

no generan valor)

Incremento del nivel de

satisfacción de los pacientes

Referencias

[1] L. M. Pantoja Rojas and L. A. Garavito Herrera, “Analysing the Diana Turbay CAMI emergency and

hospitalisation processes using an Arena 10.0 simulation model for optimal human resource distribution,”

Ingeniería e Investigación, pp. 146-153, 2008.

[2 F. Venegas, C. Amaya and N. Velasco, “Modelo de Simulación de eventos discretos del servicio del

departamento de emergencias para un hospital,” Los cuadernos de PYLO - Logística Hospitalaria, p. 13, 2008.

[3] M. Taboada, E. Cabrera and L. Iglesias, “An Agent-Based Decision Support System for Hospitals

Emergency Departments,” Procedia Computer Science, vol. 4, pp. 1870-1879, 2011.

[4] J.-Y. Yeh and W.-S. Lin, “Using simulation technique and genetic algorithm to improve the quality care of

a hospital emergency department,” Expert Systems with Applications, vol. 32, pp. 1073-1083, 2007.