title
stringlengths
0
720
abstract
stringlengths
1
32.5k
source
stringclasses
3 values
Real-time strategies for an electric vehicle aggregator to provide ancillary services
Las estrategias de control en tiempo real, en el contexto de la tecnología vehicle-togrid (V2G), son necesarias para permitir el uso de flotas vehículos eléctricos (EVs), mediante sus baterías, para proveer servicios complementarios a los sistemas eléctricos de potencia. En este trabajo se desarrollan herramientas para administrar la carga y descarga de las baterías de una flota, con el objetivo de seguir una señal de control automático de generación (AGC) cuando los vehículos se usan de forma agregada. Se propone un controlador en tiempo real basado en optimización convexa, que considera la eficiencia bidireccional de carga de las baterías, y se extiende para estudiar el efecto de mirar hacia el futuro con control predictivo (MPC). Se introducen diferentes niveles de complejidad al controlador, mediante el uso de aproximaciones y/o relajación de restricciones, que son válidas bajo condiciones suficientes que son indicadas. Simulaciones muestran que los controladores más complejos mejoran el error en el seguimiento de la señal AGC, al comparar con algoritmos alternativos, así como también la capacidad de regulación y el impacto en el cycling de las baterías. Sin embargo, enfrentan una disyuntiva entre facilidad de implementación y rendimiento.
uc
Diseño del generador de una turbina hidrocinética de pequeña escala
En esta tesis se diseñó, fabricó y testeó en laboratorio una turbina mareomotriz de eje horizontal para ser instalada en comunidades alejadas sin acceso a la red eléctrica. Se diseñaron las aspas usando Turbem (basado en BEM, blade element momentum) de tal manera de maximizar la potencia mecánica y minimizar el diámetro, para un canal de 2,3 m/s de velocidad promedio del agua y una generación de 5 kW. Conociendo la curva de potencia en función de la velocidad angular, se diseñó un generador de acoplamiento directo capaz de extraer la energía del aspa. Primero se establece una topología que sea de mínimo costo y de fiabilidad adecuada, considerando que se pueda utilizar en instalaciones marítimas alejadas de la costa. Se propone un modelo para calcular la potencia máxima del generador y su costo en función de cinco variables geométricas: el diámetro, la profundidad, el ancho del diente, el largo del diente y el espesor del imán. Con ese modelo se pudo realizar un proceso de optimización para minimizar el costo del generador, sujeto a la producción de 5 kW y que fuera térmicamente viable. Como resultado, el costo de operación de la turbina en todo su ciclo de vida resultó menor al de un generador diésel. La turbina fabricada resultó cercana al óptimo. Se validó el modelo teórico mediante la comparación experimental, encontrándose una buena concordancia. El prototipo sirvió también para probar técnicas constructivas que se presentan en la tesis y servirá en el futuro para realizar pruebas que permitan desarrollar una solución para la obtención viable de la energía mareomotriz.
uc
Efecto de la presión y contenido de níquel en las aleaciones de Cu-Al-Ni con memoria de forma, fabricadas a partir de fundición láser
La presente investigación se origina con el objetivo complementar los resultados del trabajo de Reyes (2015), para mejorar el procedimiento y la obtención de materiales con memoria de forma (SMA), que presenten propiedades similares, pero a un menor costo en relación a las materias primas que las aleaciones de TiNi, mediante la fundición de láser selectiva. Con el fin último en ir avanzando para obtener un material adecuado para diversas aplicaciones como los sistemas de disipación sísmica. Para ello se escogieron tres aleaciones Cu-Al-Ni, ocupando como base la aleación de Cu-14.2 wt.% Al- 3 wt.% Ni de Reyes (2015). El procedimiento consistió en ocupar polvos metálicos mezclados de forma manual para obtener tres aleaciones con contenidos de níquel distintos, para ser luego fundidas mediante un láser a una potencia fija, en tres atmósferas distintas. Fueron estudiados los efectos de la presión y del contenido de níquel de las muestras creadas. Se logró apreciar que tanto el contenido del níquel como la presión tienen un efecto en la transformación de fase térmica de las muestras, la dureza, su contenido de oxígeno, las fases generadas y el tamaño y cantidad de poros que puede producir este tipo de procesos. Por otro lado, se pudo determinar que la presión no afecta de manera considerable la estructura atómica del material y que la fase madre de él posiblemente es la β1. Los resultados de este trabajo pueden servir como base para ir optimizando los parámetros involucrados en la fundición de láser selectivo y en la generación de muestras con memoria de forma en base a polvos.
uc
Ganancias y pérdidas genómicas en tumores de cáncer de mama con fenotipo triple negativo y pérdida de expresión de BRCA1
El cáncer de mama triple negativo (TNBC) definido por la ausencia de expresión del receptor de estrógeno, del receptor de progesterona y del receptor 2 del factor de crecimiento epidermal (HER2), representa un grupo agresivo, para el cual no existe hasta ahora una terapia dirigida. Los tumores TNBC frecuentemente se observan en mujeres portadoras de mutación en el gen BRCA1 en la línea germinal y en aproximadamente el 30% de las mujeres no portadoras de mutación, cuyos tumores presentan pérdida de expresión de la proteína BRCA1, sugiriendo que BRCA1 puede ser relevante en el desarrollo de los tumores TNBC. Además, aproximadamente un 70% de los tumores TNBC se agrupan en el subtipo molecular “tipo Basal”, constituyendo un subgrupo que comparte un perfil de expresión génica similar, con una respuesta clínica diferente. Conocer los genes involucrados en la biología de este tipo de cáncer de mama es relevante para su tratamiento. A este respecto, entre las alteraciones observadas con mayor frecuencia en cáncer encontramos deleciones cromosómicas, conteniendo genes supresores de tumor, y ganancias o amplificaciones involucrando oncogenes. Por lo tanto, identificar regiones genómicas afectadas en su número de copias permite identificar genes o vías de señalización, que pueden corresponder a potenciales blancos de terapia para el tratamiento de estos pacientes.Dado estos antecedentes, se propuso que los tumores de cáncer de mama triple negativo de “tipo Basal” con pérdida de expresión de la proteína BRCA1, comparten un patrón similar de ganancias y deleciones genómicas. Se estudiaron 48 tumores TNBC por inmunohistoquímica para evaluar la expresión de las citoqueratinas CK5 y CK14, EGFR y la proteína BRCA1. Para definir el subgrupo “TNBC/tipo Basal” se usó la expresión de las citoqueratinas y EGFR. Además, mediante la técnica de hibridación genómica comparativa en microarreglos de DNA (array-CGH) se identificaron las regiones genómicas de ganancias y deleciones comunes entre los casos TNBC. El análisis de la expresión de las citoqueratinas (CK5 y CK14) y EGFR reveló que un 77% (37/48) de los tumores TNBC se clasifican en el subtipo “tipo Basal”, principalmente definidos por la expresión de la CK5. Por otra parte, la evaluación de la inmunotinción de BRCA1 en los casos TNBC, mostraron intensidades de tinción variables en el núcleo y expresión en el citoplasma de las células tumorales. A diferencia de los tejidos de mama normal, cuya expresión fue observada en el núcleo de las células epiteliales que forman los ductos y lóbulos. A este respecto, la expresión predominantemente nuclear de BRCA1 se condice con su participación en la reparación del DNA por quiebre en la doble hebra, por lo tanto, su expresión en esta ubicación celular es requerida para su normal funcionamiento. Entonces, debido a los diferentes patrones de expresión y localización de BRCA1 y con el fin de separar los tumores TNBC con ausente o reducida expresión nuclear de BRCA1 que den cuenta de una pérdida de función de BRCA1, los tumores TNBC fueron clasificados en tres subgrupos.Por consiguiente, un 20,8% (10/48) de los tumores TNBC mostraron expresión solo nuclear, con intensidades de tinción similares a los tejidos de mama normal. Un segundo subgrupo se conformó por un 47,9% (23/48) de los casos que revelaron expresión citoplasmática de BRCA1 con o sin expresión nuclear. Finalmente, un 31,3% (15/48) de los tumores TNBC mostraron ausente o reducida expresión de la proteína BRCA1 en el núcleo, sin expresión citoplasmática. Este último subgrupo, principalmente “TNBC/tipo Basal” representan el grupo central de la hipótesis propuesta en este estudio y fue denominado “TNBC/tipo Basal con pérdida de expresión nuclear de BRCA1”. Estos resultados sugieren que la pérdida de expresión de BRCA1 o su alterada localización pueden ser relevantes para la progresión del tumor TNBC. El análisis del genoma de los tumores TNBC por array-CGH reveló diferentes alteraciones genómicas recurrentes entre ellos, siendo más frecuente las regiones genómicas de ganancia. El perfil de cambios en el número de copias del DNA fue similar entre los diferentes subgrupos de tumores agrupados por la expresión y localización de BRCA1. Sin embargo, el subgrupo con expresión citoplasmática de BRCA1, reveló una baja frecuencia de cambios en el número de copias del DNA entre ellos, en comparación con los otros dos subgrupos de tumores. Más aún, alteraciones genómicas significativamente diferentes entre los tres subgrupos de tumores con diferente expresión/localización de BRCA1 fueron identificadas. Por su parte, el agrupamiento jerárquico no supervisado basado en 7.293 genes comprendidos en las regiones genómicas de ganancia y deleción de los tumores TNBC mostró una clara separación de los tumores con expresión nuclear/citoplasmática de BRCA1 de los otros dos subgrupos de tumores.A este respecto, se encontró que el 70% (16/23) de los tumores con expresión nuclear y citoplasmática de BRCA1 se agruparon en la rama con un bajo número de genes con alteración en su número de copias. En cambio, la rama con mayor número de genes con alteración genómica concentró un 82% de los casos con expresión nuclear y un 73% de los tumores “TNBC/tipo Basal con pérdida de expresión nuclear de BRCA1”. Sin embargo, para estos dos subgrupos de tumores TNBC se identificaron regiones genómicas de ganancia y deleción estadísticamente significativas. El análisis de la ontología de los genes contenidos en las regiones genómicas de ganancia y deleción reveló procesos biológicos y vías de señalización específicas afectadas en los subgrupos de tumores TNBC agrupados por la expresión y localización de BRCA1.Tumores con “expresión nuclear de BRCA1”, mostraron ganancia de una región genómica que contiene mTOR, un blanco de terapia de la vía de señalización PI3K/AKT/mTOR. Por su parte, los tumores con “TNBC/tipo Basal con pérdida de expresión nuclear de BRCA1” mostraron regiones de ganancia genómica que contienen genes involucrados en la transducción de la proteína RAS. Así se identificó RASGRP1 que activa la proteína RAS, revelando que esta vía de señalización puede ser relevante en el tratamiento de paciente con deficiencia de BRCA1. Los resultados sugieren que el análisis de la expresión de la proteína BRCA1, particularmente en el núcleo, permite separar los tumores TNBC en dos subgrupos, dado que específicas alteraciones genómicas revelan una progresión diferente de estos tumores. Además, los tumores “TNBC/tipo Basal con pérdida de expresión de BRCA1” con alta inestabilidad genómica y un patrón similar de ganancias y pérdidas genómicas sugiere que pueden ser seleccionados para el tratamiento con inhibidores de PARP1 y pueden tener una mayor sensibilidad al tratamiento con drogas que inducen daño, tales como las drogas de platino.
uc
Generación y procesamiento de material sonoro utilizando observadores participantes en sistemas complejos virtuales
Los sistemas complejos virtuales, son algoritmos computacionales capaces de recrear el comportamiento de bandadas, cardúmenes, enjambres, manadas y otros sistemas complejos presentes en la naturaleza. Han servido de inspiración y aporte técnico para la realización de proyectos e investigaciones que mediante diversas estrategias de sonificación, han convertido su dinámica en material sonoro. En el presente trabajo incorporamos al proceso de generación de material sonoro a partir de sistemas complejos virtuales, una nueva estrategia: el uso de un observador participante. Junto a una revisión filosófico-conceptual sobre las implicancias del observador y la observación, indagamos e identificamos referentes que advierten la importancia y futuro de esta rama de desarrollo, tanto técnicamente como conceptualmente. Finalmente, presentamos una propuesta para el uso de un observador participante en el proceso de generación y procesamiento de material sonoro a partir de la dinámica de un sistema complejo virtual. Explicamos los aspectos técnicos de su implementación y describimos y comentamos dos experiencias con base en nuestra propuesta, un experimento sonoro y la creación de una obra musical.
uc
Impacto que generan las características de los líderes de las naciones sobre el comercio internacional
La importancia del líder de una nación en los resultados macroeconómicos de un país ha sido un tema de mucha relevancia. Sin embargo, este tema se ha estudiado y examinado sólo parcialmente. En esta tesis se examina la relación existente entre los líderes de las naciones y los efectos de éstos en el comercio internacional de sus respectivos países. Se analiza cómo las exportaciones, importaciones, inversión directa extranjera y volumen de intercambio, varían según las características individuales de cada líder, como su nivel educacional, estado civil o tendencia política. Los resultados son económicamente relevantes y muestran que los jefes de gobierno tienen un efecto significativo en algunas de las variables macroeconómicas examinadas, donde ciertas características individuales tienen mayor efecto sobre la macroeconomía que otras.
uc
Evaluación del sesgo pro universidad existente en el aparato de becas y créditos del sistema de educación superior chileno
La tesis analiza cómo el diseño de los principales programas de financiamiento estudiantil para la educación superior en Chile impacta en la decisión de los alumnos por optar a la educación universitaria o técnico-profesional y la relación de ese diseño con la permanencia y la titulación oportuna. Mediante el uso de regresiones discontinuas de tipo Sharp RD, se halla un fuerte impacto positivo de los créditos sobre la probabilidad de estudiar en una institución universitaria y un negativo impacto en la opción técnico profesional. Sin embargo, también se encuentra que estas mismas ayudas tienen nulo efecto en la titulación y muy pequeño en la permanencia al séptimo año. También se halla que la Beca Bicentenario, beneficio dirigido a un subsector de las instituciones universitarias y que representa la beca de mayor inversión pública, no tiene efectos sobre la probabilidad de matrícula en este tipo de instituciones, como tampoco un impacto en las variables de titulación y permanencia. La interpretación del por qué la beca Bicentenario no tiene efectos sobre la matrícula se relaciona al hecho de que la entrega de créditos establece un puntaje menos exigente que la Beca Bicentenario en la Prueba de Selección Universitaria. De esta forma, un beneficiario de esta última ya tiene a su disposición los créditos. Esto lleva a inferir que es la posibilidad de acceso, permitida por la disminución de la restricción presupuestaria vía créditos, y no el costo financiero total lo que determina la decisión de los estudiantes de elegir el tipo de institución de educación superior.
uc
Video juegos como herramienta de evaluación y comparación de aprendizaje con distintos formatos de respuesta
Existen distintos modos de entregar la respuesta a un problema, dentro de los más utilizados se encuentran las “Múltiples Alternativas”, que consiste en seleccionar una alternativa dentro de un listado de opciones, también se destaca el formato “Respuesta construida”, que requiere fabricar la respuesta a partir del conocimiento del que responde. Por otro lado, existen distintos tipos de pruebas, las más conocidas son las pruebas orales y pruebas escritas o papel y lápiz. Si bien el formato de evaluación más utilizado son las pruebas escritas, en el último tiempo, debido al crecimiento e incorporación de tecnología en ámbitos educativos, se han propuesto nuevos formatos para instrumentos de evaluación. El objetivo de este trabajo de investigación es realizar un análisis del impacto que tienen estos formatos en la motivación y nivel de aprendizaje. Para esto, en el contexto de los videojuegos educativos se compararán los formatos de respuesta (múltiples alternativas con formato propuesto) y de evaluación (videojuego frente a prueba papel y lápiz).Para determinar la influencia del formato de respuesta, se hizo una comparación en un juego de aritmética con ambos modos de evaluación. De este modo fue posible realizar una comparación del nivel de conocimiento demostrado y motivación de cada grupo. El estudio comparativo consistió en dos experiencias una para cada comparación de formato. La primera se realizó en 4 cursos de 2º básico con un total de 127 niños de edades entre 7 y 8 años y la segunda en dos cursos de la misma edad, con un total de 71 niños. Los resultados muestran que hubo diferencias en el aprendizaje adquirido en beneficio del grupo que utilizó el videojuego de formato propuesto frente al videojuego de “Múltiples alternativas”. Sin embargo, la capacidad de capturar la motivación de los estudiantes fue superior en el videojuego de “Múltiples alternativas”. Considerando el masivo uso del formato “Múltiples alternativas” en actividades lúdicas pedagógicas, esta investigación sugiere un replanteamiento respecto al formato de respuesta más adecuado a cada contenido curricular. A su vez en se detectaron diferencias significativas en el aprendizaje adquirido en beneficio de la evaluación basada en computadora.
uc
Estudio de los parámetros del barrido láser usados en la fabricación de monocapas de una aleación de Cu-Sn-Ni comercial y el efecto en su densificación y propiedades mecánicas
La presente investigación se realizó para estudiar cómo afectan los parámetros seleccionados en el proceso de sinterizado selectivo por láser a las propiedades mecánicas y características de las piezas obtenidas. El proceso de sinterizado láser fue realizado con un polvo metálico comercializado con el nombre de DirectMetal 20, el cual está constituido por cobre, níquel y estaño y es distribuido por la empresa EOS GmbH. Este polvo se introdujo en una cámara especialmente diseñada, la cual permite mantener una atmósfera mayoritariamente constituida de argón. Como fuente de calor se utilizó un láser de fibra de Nd:YAG. Los experimentos realizados consistieron en variar la velocidad de escaneo y potencia láser, utilizando, para todos los casos, distintos patrones de escaneo generando probetas de 62 mm de largo y 6 mm de ancho. A cada probeta plana se le registraron las medidas, peso y densidad másica, luego se determinó la resistencia última a la tracción (UTS, por sus siglas en inglés) por medio de un ensayo de tracción uniaxial. A las probetas con mayor UTS, para cada conjunto de parámetros, se les realizó un análisis metalográfico para medir la porosidad en las probetas. Los resultados obtenidos muestran que tanto el patrón, velocidad y potencia de escaneo afectan las propiedades mecánicas y características de las probetas sinterizadas. A patrones de escaneo con líneas consecutivas más cortas se obtiene que aumenta la tasa de derretimiento, porosidad y espesor de las probetas, y que disminuye la densidad másica y la UTS. A mayor velocidad de escaneo se obtiene que la tasa de derretimiento aumenta junto con la densidad másica y la UTS, y que la porosidad y el espesor disminuyen, por último, el incremento de la potencia genera un aumento en la tasa de derretimiento, espesor, densidad másica y UTS, y disminuye la porosidad.
uc
Thermodynamic efficiency of a copper comminution process
Este estudio analiza la eficiencia exergética de una planta minera de cobre de una región central de Chile. El desarrollo del análisis usado fue basado en un molino de bolas en seco de laboratorio y un equipo de compresión uniaxial para obtener el mínimo teórico y práctico para conminución basado en la relación de Hukki-Morrell y en estimaciones de energía mínima de maquinaria. Tradicionalmente, los requerimientos de energía para conminución son establecidas utilizando el índice de trabajo de Bond. Sin embargo, éste no provee un punto de referencia suficientemente apto para calcular eficiencia para conminución de molienda y chancado. Este nuevo trabajo mínimo fue utilizado en primera instancia para analizar la eficiencia para conminución de un molino de bolas de laboratorio a diferentes rpm y tiempos de operación, para luego aplicar el modelo y datos obtenidos para analizar y comparar el proceso a un molino de bolas húmedo y maquinaria de chancado. Un análisis de exergía fue calculado para el molino de bolas en seco de laboratorio considerando una relación combinada de Hukki-Morrell, energía mínima de maquinaria y diferencia de energía de superficie entre rocas grandes y pequeñas.Fue encontrado que el análisis de energía de superficie, aunque sea una representación más cercana de la eficiencia termodinámica, sugiere que mejoramientos imprácticos son posibles para mejorar el proceso. De tal forma, fue concluido que la eficiencia calculada utilizando compresión uniaxial y una relación Hukki y Morrell es una mejor medida para comparar técnicas de conminución y cálculos inerciales de maquinaria para comparar maquinaria del mismo tipo como por ejemplo molinos de bolas. Aunque esto solo para ciertos rangos de tamaño en donde la capacidad de la maquinaria para producir el tamaño de partícula comienza a tomar protagonismo. Además, la eficiencia obtenida de un análisis exergético de un molino de bolas húmedo, en seco y de los equipos de conminución de la planta verifican la utilidad de una relación Hukki-Morrell y sugieren que la eficiencia es del orden de 2.97%, 16.6% y 31.7% respectivamente.Al analizar nuestra maquinaria experimental de laboratorio y la de la planta minera, fue encontrado que la eficiencia inercial de la maquinaria es en promedio de un 21.32% para el molino de bolas en seco del laboratorio, 84.04% para el molino de bolas en húmedo y de un 64.4% en promedio para la maquinaria de conminución de la planta. Además, la mayoría de la energía sale como pérdidas de calor por el sistema de transmisión y, para las chancadoras, por la carcasa y el aceite refrigerante. Uno podría, teóricamente, utilizar este calor de baja temperatura del material para realizar trabajo, aunque incluso esto solo incrementaría la eficiencia a un 3.08%, 19.3% y un 34.8% respectivamente. Adicionalmente en el molino de bolas en seco de laboratorio, mediciones de energía eléctrica y cálculos de maquinaria operando vacío y con carga de bolas sugiere que la eficiencia puede ser incrementada por asegurarse un correcto escalamiento de la maquinaria, carga de bolas y un sistema de transmisión bien mantenido. También, un gráfico fue desarrollado para definir rangos de operación para tamaños de grano constante, energía y eficiencia energética para el molino de bolas en seco de laboratorio.
uc
¿De qué factores depende la evolución de la regularidad de los intervalos de un servicio de buses?, caso Transantiago
El transporte público juega un rol fundamental en la vida de las personas, siendo un medio necesario para su movilización dentro de una ciudad. Normalmente al planificar un viaje, los usuarios consideran un tiempo promedio de acceso (caminata) y en vehículo (sobre el bus), pero el verdadero desafío está en estimar el tiempo de espera en el paradero. En Santiago de Chile el sistema de buses del transporte público (Transantiago) ofrece un servicio bastante irregular, en el que los pasajeros enfrentan un exceso de tiempo de espera mayor al 33% (OdT, 2014), impactando negativamente la confiabilidad del tiempo de viaje y la satisfacción del usuario. Esto conlleva además implicancias en la eficiencia operacional y políticas públicas. Este estudio pretende contribuir al entendimiento de los factores que afectan la regularidad de un sistema de transporte público, analizando el caso de Transantiago mediante la calibración de modelos econométricos. En cuanto a los resultados obtenidos, se observó que perturbaciones sufridas por un bus generan el mayor impacto en la regularidad del mismo servicio aguas abajo, lo que releva la importancia de un despacho regular.La variabilidad de la congestión y las detenciones no programadas, representadas por la velocidad promedio y su desviación estándar respectivamente, también mostraron una gran influencia. Las variables relacionadas a infraestructura especial, como corredores segregados y zonas pagas, mostraron un impacto positivo en la regularidad del sistema, aunque bajo nivel de significancia. Por ejemplo la implementación de un corredor y un consecuente aumento de la velocidad comercial de 8 km/hr a 20km/hr pueden significar una disminución del 56% del exceso del tiempo de espera a lo largo de un recorrido. Otros factores que empeoran la regularidad son una alta demanda de pasajeros, mayor distancia entre paraderos y mayor frecuencia. Estos resultados son consistentes con los encontrados en la literatura, y a partir de ellos se presentan recomendaciones para el diseño de los recorridos de un sistema de transporte público.
uc
Modelo mixto de diseño operacional para el inicio de un recorrido de buses
Las tablas horarias permiten a los usuarios acomodar su llegada a los paraderos lo cual permite ahorros sustanciales en los tiempos de espera, el cual es el componente más importante en el nivel de servicio percibido por los usuarios de transporte público. Por otro lado, muchos operadores utilizan tablas horarias internas para controlar salidas de buses y turnos de choferes. Esto hace pensar que operar con tablas horarias podría ser poco costoso y atractivo en paradas cerca del origen, sobre todo si en estas abordan muchos pasajeros. Se modeló una estrategia híbrida, que permite operar sólo las primeras paradas de un recorrido con itinerarios, donde está decisión tiene mayor impacto en la regularidad de los paraderos aguas abajo y donde además generalmente existen más pasajeros que abordan el bus, y luego operar el resto del recorrido bajo esquemas más flexibles. La pregunta es qué proporción del recorrido es operada bajo que esquema. Se utilizaron herramientas de análisis continuo, modelación discreta y simulación estocástica para evaluar cuales son los parámetros más relevantes de esta decisión y analizar bajo qué circunstancias este tipo de operación podría ser más atractivo. Además, se analizó la sensibilidad de los costos y de la proporción de paradas que conviene operar con itinerarios ante cambios en los parámetros de entrada.
uc
Shear response of partially grouted reinforced masonry walls with central opening : testing and detailed micro-modelling
Significativos esfuerzos han sido comprometidos en los últimos años al estudio de la respuesta sísmica de muros de albañilería reforzada parcialmente rellena (PG-RM, por sus siglas en inglés), ya sea experimentalmente o numéricamente. Sin embargo, la mayoría de los estudios previos se han enfocado en el comportamiento sísmico de muros sólidos, mientras que la investigación de la respuesta sísmica de muros de PG-RM con aberturas ha recibido escasa atención. En este contexto, este trabajo presenta los resultados de una investigación experimental y numérica enfocada en investigar la respuesta sísmica de muros de PG-RM con aberturas. El programa experimental presentado en este trabajo incluye resultados de ensayos de tres muros cuadrados de escala real (uno sólido y dos con ventana centrada) construidos con unidades multi-perforadas de arcilla, y ensayados bajo cargas laterales cíclicas hasta la falla. Adicionalmente, una completa caracterización de los materiales constituyentes y de sus interfaces es reportada con énfasis en aquella información experimental necesaria para implementar modelos numéricos. Los resultados obtenidos se utilizan para calibrar y validar el modelo numérico basado en el enfoque de micro modelación detallada. Una vez validados, los modelos se utilizan para llevar a cabo un análisis de sensibilidad considerando variaciones en el tamaño de la abertura y en la cuantía de refuerzo horizontal de los piers (muros adyacentes a la abertura). Los resultados muestran que un incremento en la cuantía de refuerzo horizontal de los piers incrementa la resistencia al corte y la ductilidad de desplazamiento del muro, mientras que un incremento en la razón de aspecto de los piers reduce la resistencia al corte e incrementa la ductilidad de desplazamiento.
uc
Detección de objetos en imágenes de rayos X usando visión activa
Desde su origen, la inspección de imágenes de rayos X ha sido utilizada en la medicina, para detectar problemas internos en los seres humanos, sin embargo, hoy en día la inspección con rayos X tiene un sin fin de aplicaciones, de las cuales podemos destacar: el análisis de productos alimenticios, inspección de equipaje, inspección de partes y piezas de automóviles y control de calidad de las soldaduras, entre otras. Desde los atentados terroristas ocurridos en septiembre del 2001 en los Estados Unidos, la inspección de equipaje en los aeropuertos ha cobrado real importancia y ha disminuido el riesgo de crímenes y posibles ataques terroristas. Pese a la importancia de esta actividad, la inspección de equipaje en los aeropuertos, todavía es realizada por inspectores humanos con muy poco apoyo tecnológico. Esto no siempre es efectivo, ya que depende en gran medida de la pose del objeto de interés, la oclusión y las capacidades de los inspectores. Por esta razón hemos desarrollado un framework para la inspección de imágenes de rayos X, y que mediante visión activa, permite detectar objetos de interés, tales como una hoja de afeitar, estrellas ninja (shuriken) y revólveres, en una pose que sea fácilmente reconocible al ojo humano. Para llevar a cabo esta propuesta hemos desarrollado una metodología que incluye, la caracterización de los objetos mediante descriptores SIFT, algoritmos de detección basados en la similitud de características y también en la posición espacial de estas, y algoritmos que basados en la estimación de la pose que definen la rotación de un sistema de sujeción automático o semi-automático.De esta forma, nuestra propuesta permite buscar un objeto de interés en una primera vista de una imagen de rayos X, y en caso de no ser detectado o la detección indique que el objeto se encuentra en una vista poco representativa o mala pose, el algoritmo indicará la realización del movimiento de rotación del sistema de sujeción automático o semi-automático, para provocar una segunda inspección, y de ser necesario una tercera y hasta una cuarta. Los resultados obtenidos en las diferentes etapas que constituyen a nuestra propuesta, son promisorios, y aunque el requerimiento de hardware es intenso, nos indican que el proceso de inspección no destructiva con imágenes de rayos X de forma activa, hace más eficaz la detección de objetos de interés en entornos complejos, como por ejemplo bolsos, y permite superar algunos niveles de oclusión y desórdenes. Adicionalmente, creemos haber contribuido en el estado del arte con una propuesta original de framework, y que puede ser mejorada en trabajos futuros, principalmente en su etapa de detección en una vista.
uc
Evaluación del desempeño sísmico de hospitales aislados y convencionales a través de un análisis de fragilidad
La protección de los elementos estructurales y no estructurales de los hospitales frente a sismos severos es fundamental para preservar la seguridad de las personas, minimizar los costos de reparación y permitir la continuidad operacional. Para lograr estos objetivos, las autoridades en Chile han requerido la implementación de sistemas de aislación sísmica basal en las licitaciones de estos establecimientos. En este contexto, esta investigación consiste en un análisis comparativo del desempeño sísmico de hospitales de pórticos aislados y sus alternativas sustitutas convencionales de muros. El objetivo general es cuantificar sus diferencias y así evaluar las ventajas y desventajas asociadas a cada opción. Para hacerlo, se definen casos de estudio aislados y tradicionales representativos de la realidad chilena. A continuación, se diseñan sus estructuras según la normativa vigente en Chile. Luego, se desarrollan modelos computacionales no lineales tridimensionales y se someten a análisis dinámicos incrementales con registros sísmicos chilenos.Finalmente, se calculan curvas de fragilidad de los sistemas de aislación, elementos estructurales y no estructurales de los hospitales. De la etapa de diseño se infiere que las vigas y columnas de los hospitales aislados resultan con mayores dimensiones que las estructuras convencionales. En tanto, de los análisis dinámicos incrementales se deduce que las deformaciones relativas y aceleraciones de piso son sustancialmente menores en las configuraciones aisladas que en las tradicionales. Las reducciones asociadas fluctúan en torno al 60 %. Estas derivan en probabilidades de alcanzar estados límite significativamente inferiores en los hospitales aislados. En consecuencia, se concluye que la implementación de la configuración aislada permite reducir la fragilidad de elementos estructurales y no estructurales. La cuantificación realizada en esta investigación posibilitará la evaluación de la vulnerabilidad sísmica y los costos de ciclo de vida de hospitales chilenos.
uc
Automatic classification of poorly sampled variable stars
La aplicación de métodos de clasificación automática en catálogos de observación astronómica ha revolucionado el proceso de identificación de estrellas. Hoy en día, muchos estudios generan catálogos conformados por un gran número de series de mediciones, o ”curvas de luz”, que representan los cambios en el brillo de objetos estelares en el tiempo. Desafortunadamente, las observaciones toman varios años en completarse, lo que produce series de tiempo parciales que normalmente no son analizadas hasta que todas las observaciones son completadas. Esto sucede porque los métodos de clasificación más modernos dependen de una variedad de descriptores estadísticos que presentan un grado creciente de dispersión a medida que el número de observaciones decrece, lo que disminuye su precisión. En este trabajo, proponemos método que mejora el rendimiento de los clasificadores automáticos de estrellas variables al incorporar las desviaciones producidas por la escasez de observaciones. Nuestro algoritmo utiliza Procesos Gaussianos de regresión para formar un modelo probabilístico de los valores observados para cada curva de luz. Luego, basado en este modelo, se generan muestras aleatorias de los descriptores de las curvas.Finalmente, a partir de estas muestras, se utiliza una técnica de bagging para incrementar la precisión de la clasificación. El resultado de este modelo, es un vector de clasificación que representa la probabilidad de pertenecer a cada una de las posibles clases de estrellas variables. Realizamos pruebas en los catálogos MACHO y OGLE; los resultados muestran que nuestro método logra mejorar las predicciones de modelos clásicos. Consideramos que estos resultados muestran la importancia de tomar en cuenta el error de los descriptores estimados, al clasificar curvas de luz, y como los procesos de observación los impactan.
uc
Optimizing ethanol recovery in a spinning cone column
Las columnas de conos rotatorios (CCR) son dispositivos de transferencia de masa ampliamente utilizados en la industria de los alimentos para recuperar aromas naturales. En varias aplicaciones superan a los métodos clásicos tales cómo las columnas empacadas o de platos, dada su capacidad mejorada de transferencia de masa y su aptitud para recuperar aromas de suspensiones. Los estudios teóricos se han enfocado en desarrollar modelos de la CCR para revelar el impacto de la hidrodinámica en la transferencia de masa en mezclas simples. Por otra parte, los estudios experimentales con mezclas complejas como los aceites esenciales o el vino son limitados ya que los experimentos son costosos y demandantes de tiempo. Por lo tanto, es difícil extraer guías de operación de ellos. En este trabajo, se optimizó la destilación de una mezcla agua-etanol simple de 14.8% (v/v) en una CCR a escala de laboratorio.La optimización se realizó mediante la metodología de la superficie de respuesta variando la razón de arrastre, el flujo de mezcla líquida y la temperatura. Nuestros resultados confirman estudios previos indicando que la razón de arrastre es el factor más significativo para optimizar el rendimiento. Se identificaron tres regiones de operación dónde la concentración de etanol en el destilado se comportó de manera distinta frente a variaciones de la razón de arrastre. Se encontró una región operacional de alto rendimiento con recuperaciones de etanol sobre 0.94 y concentraciones de etanol mayores a 70% (v/v). Además, desarrollamos guías de operación para la destilación de mezclas hidroalcohólicas en una CCR. Para maximizar las recuperaciones de etanol, la CCR debe operar a altas razones de arrastre, alto flujo de líquido y temperaturas intermedias. Para maximizar la concentración de etanol en el destilado, la CCR debe operar a baja razón de arrastre, alto flujo de líquido y baja temperatura. Para optimizar la separación de mezclas complejas, se requiere desarrollar un modelo fenomenológico.
uc
Screening geoquímico urbano : ocurrencia, distribución y biodisponibilidad de metales y metaloides en matrices sólidas en Copiapó
La larga historia de la minería en Chile dejó un gran número de pasivos mineros que se han convertido en un importante desafío ambiental y de salud pública en áreas urbanas y periurbanas debido al crecimiento de las ciudades. En el caso de Copiapó, más de 30 relaves forman parte de la ciudad y aún no ha sido estudiada su influencia en la calidad ambiental de las matrices sólidas. Esta tesis aporta información sobre la ocurrencia, distribución y biodisponibilidad de metales en suelos y polvos de calle en Copiapó. En noviembre del 2014 se llevó a cabo un screening geoquímico urbano de muestras de suelo (n=42), polvo de calle (n=71) y relave (n=30). Se estudió la composición elemental y características físico químicas como pH, materia orgánica y granulometría. Destacan las altas concentraciones de cobre en suelos (60-2120 mg/kg) y polvos de calle (110-10,200 mg/kg). Los resultados se compararon con valores internacionales de referencia. Las muestras de suelo y polvo excedieron los valores de referencia propuestos por Canadá para cobre (en el 100% de las muestras), arsénico (23%), plomo (8%) y zinc (29%). Se encontró enriquecimiento de plomo y zinc en la zona residencial céntrica, y de cobre en terrenos agrícolas cercanos a relaves y cerca de la fundición de Paipote. Los elementos que demostraron mayor fracción biodisponible de acuerdo a la metodología usada fueron cadmio, zinc y hierro. Un análisis preliminar de riesgo a la salud arrojó que el consumo accidental de arsénico y cobre presenta un potencial riesgo para la salud en niños menores a 6 años. Este estudio demuestra la necesidad contar con una norma chilena de calidad de suelos para monitorear de la calidad de las matrices sólidas urbanas, que promueva el control de riesgos asociados a la exposición a metales y el desarrollo tecnologías de reutilización de pasivos mineros.
uc
Método de localización de bahías de carga y descarga : aplicación al plan integral de movilidad de Santiago centro
Entre las medidas de logística urbana más comunes se encuentran el uso de bahías de carga y descarga. En esta tesis se presenta una propuesta de localización de bahías en el contexto de un plan de movilidad urbana. En primer lugar, se obtiene un modelo agregado de bahías utilizando teoría de colas y modelos de localización de instalaciones. Debido a la visión integral y a los múltiples actores que participan de un plan de movilidad, la propuesta debe ser adaptada según los requerimientos del plan y el contexto de la zona de estudio derivando en un modelo integral de bahías. Para la evaluación de este, se utiliza un modelo hipercubo de colas, que incorpora la dimensión espacial y las preferencias en su análisis. Como enseñanza del proceso se nota que, al comparar ambos modelos, el modelo agregado no observar la congestión local existente en la zona debido a que asume una distribución homogénea de la demanda en el área. Finalmente, otras limitaciones y extensiones también son discutidas, entre ellas posibles mejoras a los modelos y también medidas complementarias para el caso de estudio de Santiago Centro.
uc
Incertidumbre política e innovación : el efecto causal de los jefes de gobierno en la solicitud de patentes
Analizamos el rol de los jefes de gobierno y el efecto de la incertidumbre política en la innovación, medida a través del crecimiento en la solicitud de patentes. Utilizando la lógica de opciones reales, argumentamos que las patentes confieren a las empresas dos opciones: permiten aplazar inversiones para explotar una tecnología y también confieren la opción de crecer en nuevas áreas tecnológicas. Postulamos que las empresas reaccionan a la incertidumbre política causada por la salida inesperada de un jefe de gobierno aumentando la solicitud de patentes, y que este aumento es contingente a las características personales del jefe de gobierno saliente. El raciocinio es que la incertidumbre política aumenta el valor de la opción de aplazar, mientras que la salida de líderes con características negativas hace que las empresas estén optimistas sobre el futuro y, por tanto, inviertan en patentes como opción de crecimiento. Usamos un set de salidas inesperadas de jefes de gobierno – causadas por muerte natural o por enfermedad terminal – para mostrar que los jefes de gobierno son responsables del 9,2% en el crecimiento de las solicitudes de patentes. También mostramos que la salida de líderes con menor educación, menor desarrollo profesional o con antecedentes penales genera un efecto mayor sobre el crecimiento de las solicitudes de patentes. Esta tesis hace tres contribuciones. Primero, provee un instrumento para medir la incertidumbre política y muestra que este tiene un efecto positivo en la innovación. Segundo, define cuales son las características personales más relevantes de los jefes de gobierno que afectan a la innovación. Finalmente, nuestros resultados muestran que más allá de las instituciones que componen un Sistema Nacional de Innovación, el rol del jefe de gobierno es clave.
uc
Diseño de una planta de poligeneración solar con colectores lineales fresnel para generación de electricidad, frío y calor para procesos industriales y agua desalinizada
La alta demanda de energía en Chile es un problema ampliamente discutido, así como la posibilidad aprovechar el recurso solar como una solución a este problema dado el alto potencial de radiación que posee el norte del país. Además, dicha zona del país presenta graves problemas de abastecimiento de agua potable por la escasez de este recurso debido a sus condiciones climáticas. Una solución a estas problemáticas consiste en la utilización del recurso solar para la generación de electricidad con plantas termosolares, y para la obtención de agua mediante plantas desalinizadoras, donde además el recurso solar puede utilizarse para la generación de frío mediante refrigeración solar con ciclos de absorción y la generación de calor para procesos industriales. Este trabajo desarrolla un esquema de poligeneración utilizando una planta de concentración de solar de potencia de 50MW a la que se han acoplado los módulos de desalinización, generación de frío y calor para procesos industriales.Se seleccionó la tecnología de colectores lineales Fresnel para la concentración, la desalinización por multi-efecto, un ciclo de absorción de doble efecto para la refrigeración y un intercambiador de calor para alimentar la demanda de calor de procesos, modelando la planta en régimen transitorio para un período de un año en el software TRNSYS. Además, se consideró un sistema de almacenamiento térmico y un sistema de respaldo fósil para mantener la autonomía de la planta durante 24 horas. Se realizó un análisis del caso base, distinguiendo como afecta la integración de cada módulo el funcionamiento de la planta. Asímismo, se obtuvieron resultados en términos energéticos y económicos para los diferentes escenarios. Además, se determinó las condiciones para el diseño de la planta, llegando a una fracción solar de más del 52%, con la capacidad de producir más de 32.000 m3/día de agua, enfrentando demandas considerables de refrigeración y calor en la industria.
uc
Dynamic genome-scale metabolic modeling of the yeast Pichia pastoris
Pichia pastoris posee ventajas fisiológicas para la producción de proteínas recombinantes en comparación a las factorías celulares convencionales. Esta levadura es comúnmente cultivada en condiciones dinámicas, donde el ambiente extracelular cambia constantemente y numerosas variables inciden en la productividad del proceso. En este contexto, un modelo capaz de explicar y predecir el comportamiento celular para el diseño racional de bioprocesos es altamente deseable. En este trabajo, se ensambló un modelo dinámico a escala genómica de Pichia pastoris para cultivos aeróbicos batch y fed-batch limitados en glucosa. El modelo fue calibrado con datos de fermentaciones, luego de lo cual se realizaron diagnósticos de pre/post regresión para determinar problemas de sensibilidad, significancia e identificabilidad entre sus parámetros. Una vez identificados, los parámetros irrelevantes fueron fijados iterativamente hasta encontrar una estructura de modelación sin problemas paramétricos a priori. La robustez de estas estructuras fue comprobada mediante la calibración de nuevos datos experimentales, donde no aparecieron los problemas antes mencionados. Finalmente, el modelo fue validado para la predicción de dinámicas batch y fed-batch en condiciones similares a las estudiadas.Luego de la validación, el modelo fue utilizado para revelar estrategias de ingeniería genética y de procesos para optimizar la producción de Albúmina Sérica Humana (HSA) recombinante. La simulación de knock-outs indicó que el desvío del carbono hacia la formación de cisteína y triptófano podría mejorar la producción de HSA. En particular, la deleción de la enzima Metilen-tetrahidrofolato deshidrogenasa podría aumentar la productividad volumétrica de la formación de HSA en un 630%. Además, el modelo indicó que es posible mejorar en un 24% la productividad de la formación de HSA mediante una política de tasa de crecimiento decreciente en la fase de alimentación de un cultivo fed-batch. En conclusión, se formuló un modelo dinámico a escala genómica de Pichia pastoris capaz de entregar distribuciones de flujo realistas durante cultivos dinámicos y proponer, de manera racional, estrategias de ingeniería metabólica y de procesos para mejorar el desempeño de un biorreactor.
uc
Evaluación del riesgo y la política de evacuación de Iquique en caso de tsunami mediante simulación basada en agentes
La baja actividad sísmica en la zona norte de Chile ha generado una importante acumulación de energía durante los últimos dos siglos. La energía acumulada podría generar un terremoto de magnitud mayor a 8.5 Mw. Un terremoto de tal intensidad presenta un riesgo para la zona costera dado que puede generar un tsunami. La ciudad de Iquique tiene un alto riesgo pues está expuesta al mar. Se estima que el tiempo disponible para evacuar la ciudad en caso de tsunami es menor a 20 minutos. Por lo tanto, es necesario contar con una política de evacuación que permita mitigar el riesgo existente. Por este motivo, esta tesis busca desarrollar un modelo que permita evaluar la política de evacuación actual de Iquique y posibles mejoras. Un método para evaluar sistemas complejos y heterogéneos es a través de la simulación basada en agentes. Esta herramienta permite modelar el comportamiento de las personas mediante reglas que definen las decisiones que toman. Se implementó un modelo de simulación basada en agentes que permite evaluar la política de evacuación actual de Iquique. Cada agente modelado representa a una persona que evacua.Se ha considerado el impacto que tiene la edad del agente, la congestión y la inclinación de las calles en la velocidad de evacuación.El modelo de simulación fue validado en 3 etapas: face validation, análisis de sensibilidad y validación estadística. Se usó información recolectada en el simulacro de agosto de 2013 para validar los resultados obtenidos a partir del modelo. Se evaluó el desempeño de un proceso de evacuación bajo la política de evacuación vigente y además, se evaluó el impacto que tendría usar infraestructura disponible para evacuar verticalmente a parte de la población. Los resultados indican que la política de evacuación que existe actualmente no permite evacuar zonas de Iquique a tiempo y que el riesgo puede reducirse al incorporar una política de evacuación vertical.
uc
Clustering based feature learning on variable stars
El éxito de la clasificación automática de estrellas variables depende en gran medida de la representación de la curva de luz. Comúnmente, una curva de luz es representada como un vector de descriptores estadísticos diseñados por astrónomos llamados características. Estas características son costosas de calcular, requieren mucho tiempo de investigación para desarrollar y no garantizan un buen rendimiento de clasificación. Hoy en día la representación de curvas de luz no es automática; los algoritmos deben ser diseñados y ajustados para cada set de datos. La cantidad de datos astronómicos que se generará en el futuro requerirá de procesos de análisis automáticos y escalables. En este trabajo presentamos un algoritmo de aprendizaje de características diseñado para objetos variables. Nuestro método funciona a través de la extracción de un gran número de subsecuencias de curvas de luz, de las cuales se extraen subsecuencias representantes de los patrones más comunes a través de un algoritmo de clustering.Estos representantes son usados para transformar curvas de luz de un conjunto etiquetado a una representación que puede ser usada con un clasificador. El algoritmo propuesto aprende características de datos etiquetados y no etiquetados, lo que elimina el sesgo de usar solo datos etiquetados. Evaluamos nuestro método en las bases de datos MACHO y OGLE; los resultados muestran que nuestro rendimiento de clasificación es tan bueno como y en algunos casos mejor que el rendimiento que se logra usando las características tradicionales, mientras que el costo computacional es significativamente menor. Con estos resultados prometedores, creemos que nuestro método constituye un paso significativo hacia la automatización de los procesos de clasificación de curvas de luz.
uc
Response of reinforced concrete shear wall buildings during the 2010, Chile earthquake
This dissertation presents an investigation on the earthquake behavior of Chilean “fishbone” type shear-wall buildings that were damaged during the February 27, 2010 Great Maule earthquake (Mw=8.8). It makes a case that most of the damage took place in newer high rise buildings, caused in part by the use of ever slenderer walls in progressively taller buildings, and more importantly, by brittle failure in the walls at lower elevations due to high compressive loads in buildings with more than ten stories. Close to 2% of the reinforced concrete buildings taller than 9 stories in Chile underwent substantial damage during the earthquake. Field observations have also revealed a high incidence of non-ductile (i.e. brittle) bending and compression failures of reinforced concrete shear walls which are typically found in the lower stories and first basements. Considering that other buildings with similar structural concepts performed rather well during this earthquake, it behooves to elucidate by comparative analysis some of the reasons underlying one type of behavior or the other.The typical Chilean “fish-bone” building behaved rather very well during the large, previous 1985 Chile earthquake, and one of the main reasons for this behavior may have been their conservative design, as reflected in their large amount of total shear-wall to floor area of, say, 5-6%. Considering that construction practices and design precepts have evolved significantly in Chile since 1985, one of the goals of this research is to discern how those design practices may have changed and thus influenced the seismic performance of tall buildings. Although in a large majority RC buildings performed well during 2010 Maule Earthquake, this research aims to understand the observed damaged and earthquake behavior of these structures. To reach this goal, this dissertation is divided in three phases: (i) description of RC shear wall buildings damaged during 2010 Chile earthquake based on the analysis of data gathered in the field; (ii) inelastic analysis and response of RC walls damaged during 2010 earthquake by means of pushover analysis of a single wall; and (iii) threedimensional inelastic dynamic analysis and response of a real RC building based on a detailed finite element model, with the goal of predicting damage using real earthquake records.
uc
Development of alternatives that avoid caking of microalgae powder during supercritical CO2 extraction
Las microalgas representan una rama diversa de microorganismos capaces de producir una amplio rango de ingredientes funcionales (i.e carotenoides) que pueden ser ocupados en la industria de alimentos, cosméticos, farmacéuticos, y de energía. El CO2 supercrítico (CO2-SC) emerge como una alternativa a los solventes orgánicos tradicionales debido a su alta selectividad y cualidad de no dañar compuestos bioactivos. Bajo un punto de vista industrial, existe un riesgo importante de apelmazamiento del polvo de microalgas, como de Haematococcus pluvialis (polvo fino e higroscópico), durante la extracción con CO2- SC. Esto provoca la canalización del CO2 a través del lecho empacado, disminuyendo así el rendimiento de la extracción de carotenoides. Esta tesis propone dos alternativas que evitan el fenómeno de apelmazamiento de polvos finos de microalga destinados a la extracción comercial con CO2-SC. Estas alternativas consisten en el uso de Compactación de Alta Presión (CAP) del polvo de microalgas como un tratamiento previo a la extracción con CO2-SC, y la extracción directa del la pasta de microalga. Para entender el efecto del apelmazamiento en CAP, esta tesis desarrolló un método simple y rápido para caracterizar polvos higroscópicos que toma ventaja del comportamiento de escurrimiento inducido por presión que se observa durante la compactación.Los resultados mostraron que este comportamiento está fuertemente relacionado con la temperatura de transición vítrea. Este estudio permitió el diseño de una metodología CAP basado en la compresión uniaxial del polvo, similar al proceso de tableteo. La investigación demostró que al ajustar cuidadosamente la presión de compresión y el tamaño del dado de compactación es posible fabricar comprimidos reproducibles que poseen una microestructura favorable para la extracción de carotenoides con CO2-SC. Por otro lado, al evaluar el uso de la extracción directa de la pasta de microalga, esta tesis propone un sistema batch a escala pequeña en el cual la pasta de microalga es estáticamente colocada dentro del extractor mediante el uso de adsorbentes. El agua demostró ser una fuerte barrera para la extracción de carotenoides aun cuando se utilizó etanol como co-solvente. Con todo, ambas alternativas evitan el fenómeno del apelmazamiento, sin embargo solamente CAP es una mejora con respecto a la extracción de polvo seco. Esta tesis valida el uso de CAP con prometedoras aplicaciones industriales en la producción de carotenoides de H. pluvialis.
uc
Evaluación de la producción y aplicación de un biofertilizante a partir de residuos orgánicos
El compostaje asistido por microorganismos efectivos (EM), llamado “cubo kashi”, es un sistema donde se mezclan residuos sólidos domiciliarios pre y post consumo, con un consorcio de microorganismos, donde se genera un lixiviado con potencial de fertilizante orgánico. En el presente estudio, se trataron residuos orgánicos con EM obtenidos de reproducción local. Se demostró la presencia de familias de bacterias acido lácticas (3x106 UFC/ml), levaduras (96x106 UFC/ml) y bacterias fotosintéticas (no cuantificadas) para corroborar con la composición de los EM comerciales. Se probaron tres concentraciones diferentes (5, 10 y 50 g de EM por kg de residuo orgánico domiciliario) y en diferentes granulometrías; sin moler (SM) y con moler (CM). Finalizado el experimento se obtuvo en promedio 3.055 cm3 (DS = 126,3 cm3) de lixiviado de los reactores CM y 2.494,3 cm3 promedio (DS = 223,4 cm3) de los reactores SM. Este lixiviado fue analizado químicamente y los valores obtenidos fueron contrastados con fertilizantes comerciales, evidenciando una baja carga nutricional en términos de nitrógeno, aunque con aportes significativos de P y K. Los lixiviados fueron diluidos en dos concentraciones (1 mg L-1 y 5 mg L-1 en agua de la llave) y probados como fertilizante para cultivo de Lactuca sativa en condiciones de laboratorio.Los resultados obtenidos demostraron que existe diferencia estadísticamente significativa para ambas diluciones, con mejores resultados en cuanto a la biomasa aérea y la razón fresca de crecimiento. Luego, se puede considerar como efectivo el fertilizante aumentando el crecimiento del vástago en un 32 y 27% con una concentración de 0,5 % p/p de EM en diluciones de 5 y 1 mg L-1 de lixiviado, respectivamente; mostrando al “cubo kashi” como un aporte nutricional y microbiano que mejora particularmente la razón fresca de crecimiento en lechugas cultivadas en condiciones controladas. Si bien el efecto del tipo de suelo, además de la calidad del agua de riego pueden jugar un rol alterno relevante en el crecimiento de las lechugas empleadas como cultivo modelo, los resultados obtenidos permiten afirmar que el “cubo kashi” -al usarse en diluciones apropiadas- permite mejorar la productividad de biomasa aérea en lechugas, es decir, el producto de interés.
uc
Formal specification, expressiveness and complexity analysis for JSON schema
JSON es hoy en día el formato más popular para el traspaso de datos en la web. Sin embargo, todavía carece de un esquema estandarizado que permita a desarrolladores especificar la estructura estos documentos. JSON Schema es una propuesta para definir metadata a través de esquemas para documentos JSON. Sin embargo, todavía está en una etapa de madurez muy temprana, y no existe una especificación formal que capture al lenguaje en su totalidad. En esta tesis se lleva a cabo el primer análisis formal de documentos JSON Schema. En primer lugar, se propone una definición formal tanto de la sintaxis como de la semántica para la validación de estos documentos. Luego, en base a esta definición, se procede a capturar el poder expresivo del lenguaje. Por un lado, se demuestra que JSON Schema puede simular autómatas de árbol, con el sólo uso de un subconjunto muy restringido de la especificación. Por otro lado, se muestra que JSON Schema puede ser capturado por lógica monádica de segundo orden sobre árboles.Finalmente, se analiza la complejidad computacional de los principales problemas de decisión presentes en el contexto esquemas para lenguajes formales, el problema de validación y el problema de satisfacibilidad para documentos JSON Schema. Estos problemas resultan de gran importancia en el desarrollo de algoritmos eficientes para el traspaso de datos en la web. Por un lado, se muestra que el problema de validación puede ser resuelto de manera eficiente para esquemas fijos. Sin embargo, en términos de complejidad combinada el problema resulta ser inherentemente secuencial. Por otro lado, se propone un algoritmo exponencial para resolver el problema de satisfacibilidad. Además, se demuestra que este problema no puede ser computado con una mejor cota que la obtenida.
uc
Accesibilidad y equidad : herramientas para ampliar la evaluación social de proyectos de transporte
En Chile, la infraestructura y los servicios de transporte presentan falencias y una calidad dispar, los cuales están exigidos a responder además a una inequitativa distribución espacial tanto de oportunidades como de ingresos en la ciudad. En términos de evaluación de proyectos, la metodología tradicional cuenta con limitaciones para poder considerar efectos distributivos. Por definición, el método utilitario busca cancelar transferencias entre grupos y apuntar al bienestar general. Existe consenso respecto a abrir la metodología tradicional a impactos económicos más amplios en el análisis de proyectos y políticas. Como respuesta a lo anterior, esta investigación genera formas de medir la accesibilidad y construir indicadores de aporte a la equidad que permitan mejorar el análisis de proyectos de movilidad urbana en Chile. Primero se deriva y selecciona una metodología desarrollada con medidas de accesibilidad potencial, a base de cambios en tiempos de viaje, espera, caminata y tarifa de simulaciones con y sin proyectos de transporte. Asimismo, se emplean poblaciones generadas sintéticamente e indicadores de impacto en la equidad para poder contar con un análisis desagregado de cómo se distribuirían los impactos.El análisis de las herramientas propuestas se basa en casos de estudio, un conjunto de modelaciones de proyectos evaluados oficialmente en Santiago, entre ellos proyectos de Metro o uno de tarificación vial por congestión. El resultado son visualizaciones para facilitar el análisis territorial, distribuciones de impactos y el valor cuantitativo de indicadores de aporte a la equidad de acceso. En conjunto facilitan un mejor análisis y modelación de los proyectos en etapas preliminares y de diseño, junto a un mayor respaldo de una planificación urbana con una mirada de equidad. Las conclusiones remarcan recomendaciones metodológicas y de política pública. Entre los caminos de investigación, por un lado, se identifican los elementos que se podrían mejorar, ampliar o profundizar en las metodologías desarrolladas. Por otro lado, se levantan temáticas alternativas que derivan de la medición de accesibilidad, entre ellos el fenómeno de gentrificación, las de economías de aglomeración, un valor social de la accesibilidad y el uso de mediciones ex-post.
uc
Technology-supported learning strategies with self-paced learning and formative assessment
La evaluación formativa es un conjunto de prácticas usadas en el proceso de enseñanza-aprendizaje, que toman en cuenta la calidad el trabajo producido por los alumnos para modelar y mejorar sus habilidades. Esta estrategia no siempre reporta niveles óptimos de aprendizaje, porque definir e implementar evaluación formativa en la sala de clases es un proceso complejo que debe respetar las condiciones propias del aula. Una de esas condiciones es el uso de tecnología. La tecnología no es neutral, y por ello es crítico entender cómo diferentes tecnologías influyen en prácticas pedagógicas específicas. Dentro de las tecnologías disponibles, los Tablet PCs actualmente tienen el nivel más alto de penetración en educación. Una tecnología alternativa es el Computador Interpersonal (Interpersonal Computer, IPC), que permite tener múltiples usuarios localizados en el mismo espacio físico interactuando en forma simultánea usando un solo computador.En este trabajo se estudió cómo la tecnología usada para dar soporte a la implementación de evaluación formativa afecta el aprendizaje de ortografía en enseñanza básica siguiendo la metodología “Integrative Learning Design”. Los resultados obtenidos muestran que una estrategia que considera aprendizaje a su propio ritmo y evaluación formativa con soporte tecnológico promueve el aprendizaje entre los estudiantes a quienes va dirigida la componente formativa. Los datos revelan la importancia de los contenidos de la clase de repaso, y de comenzar la ejercitación en el software considerando el nivel de conocimiento previo de los estudiantes. Esto es consistente con lo reportado en la literatura respecto a la necesidad de diferenciar los contenidos de la clase para adaptarse a un aula heterogénea. Por otra parte, ciertas características de las plataformas tecnológicas las hacen más adecuadas para ciertas estrategias de aprendizaje. Dada la estrategia de evaluación formativa diseñada para este estudio, en este caso particular se observa que las Tablets promovieron aprendizaje significativo.
uc
Salt reduction in foods : effect of crystal microstructure on the dissolution kinetics
Un alto consumo de sodio, a través de la sal (NaCl) agregada a los alimentos ha sido relacionado con el riesgo de desarrollar diversas enfermedades incluyendo hipertensión y enfermedades cardiovasculares. La principal fuente de sodio en la dieta es la que viene en los alimentos procesados, por lo que diversas estrategias para la reducción de sal en alimentos han sido desarrolladas por la industria. Entre estas estrategias, la optimización de la liberación de los iones de sal en la boca ha sido poco estudiada. El objetivo de la presente tesis fue determinar la influencia de la microestructura de los cristales de sal en su índice de disolución en agua y saliva artificial y su correlación con la percepción de salinidad. Esta tesis está dividida en tres partes. En la primera parte se compara la disolución de cinco sales comerciales en agua desionizada y dos formulaciones de saliva artificial, a cuatro temperaturas y en ausencia de agitación. La disolución de la sal fue cuantificada in vitro mediante el análisis de imágenes obtenidas por video-microscopía a diferentes tiempos. Los índices de disolución fueron mayores en agua que en saliva artificial y, a mayores temperaturas. La video-microscopía fue un instrumento que reveló que algunos cristales se fragmentaron durante su disolución, mientras otros permanecieron como una unidad que disminuyó su tamaño hasta su completa solubilización. El aumento del área superficial dio lugar a que los cristales de forma piramidal tuviesen los mayores índices de disolución.Por consiguiente, cambios significativos pueden ser logrados en la disolución de la sal dependiendo de la estructura del cristal y su patrón de disolución. En la segunda parte, el objetivo fue estudiar la disolución de cristales de sal con diferentes morfologías en saliva artificial y correlacionar los resultados con la percepción de salinidad sobre el tiempo. La morfología de cinco sales comerciales fue analizada a través de microscopía electrónica de barrido y microtomografía computarizada. Los parámetros de forma de los cristales fueron determinados utilizando imágenes de microscopía óptica. La disolución de los cristales en saliva artificial fue evaluada a través de video-microscopía y la percepción de la salinidad fue evaluada a través de la prueba sensorial de tiempo-intensidad a un contenido de sodio estandarizado. La morfología de la sal fue correlacionada con el índice de disolución y ciertos parámetros de tiempo-intensidad (tiempo a intensidad máxima, intensidad máxima y, ángulo de aumento). Cristales no cúbicos y aglomerados, tales como los de las sales Kosher y Maldon, fueron disueltos más rápido (índice de disolución hasta 3,8 veces mayor) y tuvieron la salinidad máxima (hasta 17% más) a menores tiempos (hasta un 40% menos). La morfología de los cristales puede ser una variable a considerar en la reducción de sodio manteniendo la intensidad de salado.En la parte final se desarrolló una nueva metodología para obtener sal como microcristales. La cristalización de la sal por evaporación rápida del agua de gotas de solución salina dentro de una fase de aceite caliente fue evaluada. Los efectos de la temperatura del aceite (150; 165 y 180°C), del volumen de la gota (17 y 42 μL) y de la concentración de la salmuera (15 y 26% w/v) fueron estudiados. Partículas altamente cristalinas con tamaños medios entre 9 y 23 μm y con alrededor del 2% de aceite remanente fueron obtenidas. El tamaño del cristal disminuyó con el aumento de la temperatura, de la concentración de la solución y del volumen de las gotas. La tasa de disolución de los microcristales fue más del doble que la de los cristales originales. En conclusión, estructuras aglomeradas, planas o piramidales y microcristales tienen una alta área superficial permitiendo una rápida disolución en la saliva y así una alta percepción de salinidad. Este tipo de cristales de sal pueden ser preferencialmente aplicados en alimentos que utilizan sal en su superficie, tales como snacks, ensaladas, etc.
uc
Hazardous materials transportation in urban areas
Grandes cantidades de materiales peligrosos (MP) son generados como materias primas o como subproducto de la actividad industrial. En la gran mayoría de las zonas urbanas que contienen industrias, estos materiales deben ser transportados transformándose en una fuente de peligro para la población frente a posibles eventos de liberación del material. Se reconoce la existencia de múltiples agentes implicados en la toma de decisiones, quienes se caracterizan por presentar un rango de prioridades y puntos de vista divergentes: los transportistas tratan de minimizar sus costos de transporte; las agencias gubernamentales intentan minimizar el riesgo impuesto a la población distribuyendo en forma equitativa este riesgo sin amenazar la viabilidad económica de la actividad; finalmente el público intentará evitar cualquier actividad peligrosa en su entorno cercano, guiado principalmente por su propia percepción respecto de las actividades que involucran MP. En zonas urbanas este problema se acrecienta producto de la alta población potencialmente expuesta a los peligros de esta actividad, principalmente de aquellos grupos poblacionales que presentan dificultades para ser evacuados. En vista de esto, es razonable prestar especial atención a esta población en situación de riesgo al momento de diseñar las rutas para el transporte de MP.El principal objetivo de esta tesis es desarrollar una metodología que permita resolver el problema de transporte de MP en zonas urbanas de tal forma de proteger a la población más vulnerable. Para ello, se presentan dos nuevos enfoques de enrutamiento, en los cuales la distancia es un proxy del peligro al cual están expuestos los centros, de modo que a menor distancia, mayor peligro, y se propone nuevos objetivos que consideran el peligro y el tiempo de exposición. El primer enfoque se centra en el problema de ruteo de MP desde un origen a un destino, ambos al interior de una zona urbana, minimizando el peligro sobre el centro vulnerable más expuesto. Se propone el maximin hazmat routing problem (MmHRP) que, como proxy del peligro, maximiza la distancia entre la ruta y su centro vulnerable más cercano, ponderado por la población del centro. El MmHRP es formulado sobre una red de transporte como un problema de programación entera y, adicionalmente, se presenta un procedimiento de resolución óptima en tiempo polinomial.El segundo enfoque aborda el problema de transporte de MP entre múltiples pares origen-destino. En primer lugar, se presenta el maxisum hazmat routing problem (MsHRP) el cual maximiza la suma de las distancias ponderadas desde todos los centros vulnerables a su punto más cercano en las rutas utilizadas. En segundo lugar, se presenta el maximin-maxisum hazmat routing problema (MmMsHRP), el cual combina los criterios maximin y maxisum. Mediante el criterio maximin se buscan soluciones eficientes en términos de proteger al centro vulnerable más afectado, pero el efecto sobre el resto de la población no se considera y en las soluciones, se genera un gran número de centros expuestos. Mediante el criterio maxisum se obtienen soluciones que minimizan la exposición promedio de los centros vulnerables, pero sin considerar la magnitud del peligro impuesto sobre cada centro individual. La consideración de ambos objetivos permite soluciones en las cuales ambos criterios son razonablemente tomados en cuenta. Se formula un modelo exacto para cada problema, y se propone un procedimiento heurístico que permite resolver de manera eficiente ambos problemas para instancias de gran tamaño. Finalmente, en vez de usar la distancia como proxy, se propone un estimador de peligro general para cualquier centro poblado y se incorpora el tiempo de exposición de la población como otro proxy de peligro. El nivel de peligro al que está expuesto un centro es una función de la distancia entre el centro poblado y cada punto de los arcos al interior de su área de peligro. Se formula y resuelve un problema de diseño de rutas que integra estos nuevos objetivos. Todos los modelos fueron probados en un caso real para el transporte de HAZMAT sobre la red de transporte de la ciudad de Santiago de Chile.
uc
Metadata relevante para educación básica y media en Chile
Los sistemas de recomendación (SR) constituyen hoy una herramienta útil cuando se quiere buscar u ofrecer algún producto o servicio en Internet. Amazon y Netflix son buenos ejemplos de plataforma que utilizan fuertemente sistemas de recomendación, para ayudar a los usuarios en la búsqueda y selección de los productos y servicios que ofrecen. En el ámbito de la educación, hay esfuerzos por poner al servicio de la comunidad plataformas con repositorios de material educativo, complementarios a los materiales tradicionales, como libros de texto. Esto con el objetivo que sean de apoyo para los estudiantes, en especial a nivel de primaria y secundaria. En Chile, el Ministerio de Educación, a través de los portales Educar Chile y Catálogo Red, ha puesto a disposición de la comunidad educativa una gran cantidad de recursos digitales tales como libros, presentaciones, fotos, videos, y material multimedia en general, para que los profesores y alumnos los utilicen en clases, o bien los usen como apoyo a las clases tradicionales.A pesar de este esfuerzo, la búsqueda de material educativo apropiado es tediosa debido a la gran variedad y cantidad de recursos disponibles en Internet. Es difícil para un profesor navegar e inspeccionar decenas de recursos (algunos de ellos sitios Web, otros, links a otros repositorios, etc.), para encontrar el recurso más apropiado. En esta tesis se busca diseñar un SR en un contexto educativo e identificar elementos claves para la organización de la información, es decir, metadata, sobre la cual opera el SR. Este trabajo busca contribuir en el diseño de software dedicado a profesores de educación básica y media. El público objetivo de este estudio se centra en Chile aunque creemos que los alcances de esta tesis se pueden aplicar a otros sistemas de educación primaria y secundaria en Latinoamérica.
uc
Vehicle routing problems with product mixing and extensions
Esta tesis se proponen modelos de programación matemática y métodos eficientes para resolver distintos problemas de ruteo de vehículos con mezcla de productos. Esta investigación aborda tres problemas que consideran mezcla de productos: Un Problema de Recolección de Leche con Mezclas; El Problema de Recolección de Leche con Mezclas y Puntos de Recolección; y El Problema de Recolección de HAZMAT con carga de múltiples productos. El problema de ruteo con mezcla de productos considera transporte productos de distinta calidad/tipo ofrecidos o demandados por un conjunto de clientes utilizando una flota de vehículos. A diferencia de los problemas tradicionales de ruteo de vehículos multi-producto, la mezcla de dos o más productos puede producir cambios en el estado de cada vehículo. Se requiere realizar un seguimiento de cada vehículo a lo largo de una ruta. En el problema de recolección de leche con mezcla, donde una compañía recolecta leche utilizando una flota de vehículos no-homogénea, desde un conjunto de predios organizados como cooperativa. Existen tres calidades de leche, donde cada predio produce sólo una calidad. Los ingresos aumentan con la calidad de la leche. Además, se requieren cantidades mínimas de cada calidad en la planta. Los predios están distribuidos en una extensa zona geográfica, haciendo que el costo de transporte sea relevante.La novedad del problema es permitir la mezcla de distintas calidades de leche en los camiones, donde la calidad de la mezcla equivale a la leche de más baja calidad cargada. Utilizamos una heurística para resolver el problema, que busca maximizar el beneficio. Se propone un modelo de programación entera y se resuelve con branch-and-cut. El método se prueba en instancias test y en un caso real en el sur de Chile. En el problema de recolección de recolección de leche con mezclas y puntos de recolección, la leche también se mezcla en los camiones. La recolección desde predios lejanos puede generar altos costos de transporte. Se propone ubicar puntos de recolección para que algunos predios lejanos puedan trasladar su producción a esos puntos. Luego, la leche acumulada en esos puntos es recolectada por un camión, evitando así largos recorridos. Se presenta un modelo de programación entera y se resuelve con branch-and-cut en instancias pequeñas. También presentamos una heurística para resolver instancias rápidamente.En el problema de recolección de materiales peligrosos, un grupo de materiales peligrosos de distinto tipo son recolectados con una flota de camiones homogénea. Cada residuo posee expone a la población en distinta medida ante un accidente. Los residuos peligrosos pueden ser transportados en un mismo vehículo, a menos que la legislación actual lo prohíba. El riesgo generado por un vehículo hacia las personas y el ambiente, cambia cuando se agregan a éste nuevos residuos con otros tipos de riesgo. Se propone un modelo de programación entera que minimiza la población expuesta, y los costos de transporte. Presentamos un caso de estudio en Santiago de Chile.
uc
Robust optimization in production planning problem
La Optimización Robusta (RO, por sus siglas en inglés) es una metodología para incluir la incertidumbre en modelos de optimización. La incorporación de la incertidumbre en los modelos de toma de decisiones es de interés. Esto se debe a que asumir datos conocidos puede llevar a decisiones incorrectas, que se traducen en altos costos, importantes pérdidas e incluso infactibilidades para aplicar las acciones a seguir. En esta tesis, se exploró la hipótesis de que la RO es una herramienta eficiente para la planificación bajo incertidumbre. Específicamente, se estudió el uso de esta metodología en la industria forestal. El objetivo de la investigación fue analizar la aplicabilidad de la RO en la Gestión de la Cadena de Abastecimiento. Para alcanzar el objetivo y validar la hipótesis, se abordaron dos problemas típicos de la industria: la planificación de la producción de aserraderos y de bosques. Ambos problemas se abordaron a nivel táctico y la incertidumbre considerada afecta los rendimientos y disponibilidad de bosques respectivamente. Para evaluar la metodología, los problemas se formularon, resolvieron y compararon en sus versiones deterministas y robustas en términos de optimalidad, factibilidad y estabilidad (estructura) de la solución.Adicionalmente, ya que la planificación de la producción incluye decisiones en distintos niveles jerárquicos, que interactúan entre sí; se resolvió un caso específico para dos niveles de planificación (táctico y operativo). Esto con el objetivo de analizar la RO como herramienta para mejorar la coordinación y coherencia entre distintos niveles jerárquicos de planificación. En este sentido, se comparó el desempeño de modelos deterministas en ambos niveles, con una combinación de un modelo robusto a nivel táctico y uno determinista a nivel operativo. Los resultados obtenidos indican que se validó la hipótesis y se cumplió el objetivo de la tesis. Por lo tanto, se concluyó que la RO: i) es una herramienta eficiente para el manejo de la incertidumbre, ii) es de simple aplicación, iii) no aumenta la dificultad de resolución de los modelos respecto al problema determinista ya que conserva la estructura del problema original, iv) facilita la interacción entre distintos niveles de planificación, v) a nivel de optimalidad no genera importantes pérdidas, vi) a nivel de factibilidad, mejora este indicador y vii) a nivel de estabilidad, genera soluciones en cierta medida constantes que facilitan la operación.
uc
Estudio de la interacción entre plastificantes y polímeros formadores de una película comestible mediante la correlación entre sus parámetros espectroscópicos y mecánicos
La influencia de un plastificante sobre el comportamiento físico de una película comestible está dada por su interacción con los polímeros formadores. Por otro lado, el análisis de imágenes químicas por espectroscopía de infrarrojo cercano (NIR-CI) permite caracterizar la interacción entre compuestos mediante el análisis de la abundancia de los componentes y su variabilidad. Es por ello que en este trabajo se estudiaron las características estructurales y funcionales de películas comestibles de quitosano y gelatina en función de la adición de plastificantes (glicerol, sorbitol, polietilenglicol (PEG) 400 y triacetina), puros o en mezclas binarias. Además, se correlacionaron los parámetros de abundancia y de variabilidad con la resistencia a la tracción, el porcentaje de elongación y el módulo elástico de las películas. Los cambios observados en los valores de abundancia de los polímeros y en las propiedades mecánicas permitieron concluir que la triacetina presenta la menor interacción con los polímeros, mientras que PEG400 y glicerol mostraron alta interacción con ellos. Mediante el estudio de correlación se observó que la resistencia a la tracción se relaciona con la abundancia de los componentes y su variabilidad. En particular, el modelo y = 21 + 11,6 STD(Ge) - 12,9 STD(Ch) permitió conocer la alta correlación que existe entre la resistencia a la tracción y la variabilidad de la abundancia de la gelatina y el quitosano (R2 = 0,691 y valor p = 0,009). La caracterización mecánica de las películas con técnicas espectroscópicas mediante un análisis rápido y no invasivo se presenta como una nueva herramienta de caracterización en el ámbito del desarrollo industrial de películas comestibles.
uc
Diseño sísmico de componentes no estructurales sensibles a la aceleración en edificios de múltiples pisos
En los últimos eventos sísmicos de gran magnitud se ha evidenciado que los objetivos del diseño sismoresistente de edificios no pueden ser alcanzados si las acciones sísmicas no son consideradas en el diseño de los componentes no estructurales (CNEs). Desde el punto de vista del diseño sísmico los CNEs pueden ser clasificados en dos grupos: CNEs sensibles al desplazamiento y CNEs sensibles a la aceleración. Muchos estudios se han enfocado en la estimación de las demandas sísmicas de CNEs sensibles a la aceleración. Sin embargo, existen aún temas relativos al diseño de CNEs sensibles a la aceleración que no han sido estudiados completamente. Esta investigación busca contribuir al estudio de tres temas relativos al diseño sísmico de CNEs sensibles a la aceleración: aislación sísmica de CNEs, respuesta inelástica de CNEs e interacción dinámica entre CNEs y la estructura. La aproximación al problema se realiza mediante simulación Monte Carlo, se consideran diversas tipologías estructurales y diversas características y ubicaciones del CNE dentro de la estructura, en todos los casos las estructuras se analizan en el rango lineal elástico y las excitaciones sísmicas se modelan con contenidos de frecuencias típicas de excitaciones sísmicas de fuente lejana percibidas en suelo firme.En el caso de aislación sísmica se consideran en primera instancia sistemas de aislación lineal como una primera aproximación a la generalización del problema. Se logra establecer el concepto de periodo de aislación global para CNEs rígidos, el cual se define como el periodo para el cual un sistema de aislación logra reducciones considerables en la respuesta de CNEs sin importar el piso donde se adhiera el CNE. Se logra establecer una ecuación para el cálculo del periodo de aislación global. Se analizan luego las características generales establecidas con aislación lineal para cuando se utiliza el sistema de aislación FPS, el cual es uno de los sistemas de aislación más tradicionales para CNEs y cuyo comportamiento es no lineal. La caracterización de la respuesta no lineal del CNE se realiza mediante el estudio de la relación inelástica de desplazamientos (IDR), la cual contrasta el comportamiento dinámico lineal y no lineal de un sistema estructural, y se define como la razón entre el desplazamiento máximo del sistema cuando su comportamiento es no lineal y el desplazamiento máximo del mismo sistema cuando su comportamiento es lineal. Se realiza la caracterización de las IDRs para aceleraciones en los pisos y la diferenciación con las IDRs de aceleraciones en el suelo. Finalmente se establece una ecuación predictiva para las IDRs de CNEs ubicados en el techo de las estructuras.Por último el estudio de la interacción dinámica entre los CNEs y la estructura se realizó considerando la respuesta de aceleración absoluta del CNE obtenida mediante dos tipos de análisis, considerando al CNE acoplado y desacoplado a la estructura. Se observa que es posible establecer límites para la masa del CNE rígido de tal forma que con ellos se garantice una interacción dinámica baja entre el CNE y la estructura. Los límites de masa del CNE se recomienda establecerlos de dos formas: como porcentaje de la masa total de la estructura y como porcentaje de la masa del piso donde el CNE es anclado. Por otro lado, en el caso de CNEs flexibles (i.e., CNEs con periodo mayor a 0.06s), no fue posible establecer una masa límite del CNE que garantice una interacción dinámica baja entre el CNE y la estructura, en ciertos casos donde el CNE se ubica en estructuras rígidas se observa que incluso para relaciones de masas entre el CNE y la estructura tan bajas como de 0.01% la interacción dinámica entre el CNE y la estructura es considerable (mayor al 10% de la respuesta). Estos resultados difieren de los encontrados en investigaciones pasadas.
uc
Interacciones mediadas por prebióticos en un consorcio modelo del microbioma intestinal infantil
El microbioma intestinal infantil es una compleja comunidad de microorganismos que es clave en el desarrollo del recién nacido. La dieta y tipo de interacción de los microorganismos son los principales factores que modulan la composición de este durante los primeros años de vida. En general se sabe poco sobre la relación entre la dieta e interacciones bacterianas. Con el objetivo de entender esta se desarrolló un modelo in vitro para el estudio de las interacciones de un consorcio de bacterias representativas de los cuatro filos más abundantes del microbioma intestinal infantil formado por Bifidobacterium longum subsp. infantis, Lactobacillus acidophilus, Escherichia coli y Bacteroides vulgatus. Se adaptó un medio de cultivo (mZMB-1) que simuló algunas de las condiciones del colon proximal y permitió el buen crecimiento de las cuatro bacterias. Luego, éste se usó para evaluar las interacciones entre las bacterias del consorcio en respuesta a prebióticos de la dieta del recién nacido, como 2-fucosil-lactosa (2FL) y fructooligosacáridos (FOS), característicos de la leche materna y fórmula infantil, respectivamente.Siguiendo este propósito se realizaron experimentos en mono y co-cultivo para cada bacteria con estos sustratos, se midió su abundancia por qPCR y estimó el consumo porcentual de estos prebióticos. Por último se utilizó el modelo ecológico de Lotka-Volterra para predecir el tipo de interacción entre ellas. Los resultados indicaron que en 2FL como fuente de carbono, B. infantis dominó la fermentación, mientras que en FOS B. vulgatus y B. infantis actuaron como fermentadores primarios. 2FL fue un prebiótico más específico para B. infantis, mientras que en FOS el consumo fue más activo. Las interacciones predominantes en ambos prebióticos fueron negativas, mientras que 2FL produjo cambios más sutiles al interior de la comunidad, en FOS fueron más profundos. La naturaleza química de estos prebióticos moduló el tipo de interacción entre las bacterias del consorcio infantil.
uc
Modelación de preferencias por diseño de infraestructura ciclista utilizando variables latentes perceptuales.
A pesar del aumento del uso de la bicicleta y construcción de infraestructura para éstas en Santiago, organizaciones de ciclistas han criticado su diseño, argumentando que no considera sus preferencias y necesidades. Dado este contexto, el presente trabajo busca cuantificar las preferencias de los santiaguinos por distintos tipos de ciclo facilidades con el uso de modelos de elección discreta, de tal forma de guiar la política pública a futuro. En específico, este estudio consideró tres tipos de modelos: logit multinomiales, con variables latentes, y con clases latentes. Mientras que el primer y tercer tipo se estimaron utilizando la metodología descrita en la literatura, para el segundo tipo se propone una nueva metodología que permite la estimación de variables latentes perceptuales, casi no exploradas en la literatura, a un bajo costo en términos de recolección de datos. Estos modelos se estimaron con datos obtenidos mediante una encuesta de preferencias declaradas. Los resultados obtenidos indican que los usuarios tienen preferencias importantes por calles con ciclo facilidades anchas y rutas más cortas, y rehúyen de calles donde existan velocidades máximas altas o buses del transporte público. Además, demuestran que existe heterogeneidad en las preferencias de los ciclistas que la política pública debe considerar. Asimismo, los modelos estimados logran establecer una relación causal, mediante el uso de una variable latente, entre la seguridad percibida y la relevancia que ella tiene en la elección de ruta de ciclistas. A pesar de que esta variable no contribuye a un mejor ajuste a los datos, logra generar modelos que explican de mejor forma el comportamiento de las personas. La propuesta metodológica de este trabajo resultó ser útil en este caso específico,y fácilmente puede aplicarse en otros ámbitos, tales como productos de consumo o localización residencial.
uc
Incentives for renewable energy.
Existe un consenso a nivel mundial acerca de los efectos negativos de las emisiones de dióxido de carbono (CO2), lo que se ve reflejado en el cambio climático que estamos experimentando. En este contexto, a través de la evidencia científica se ha determinado que el incremento de la concentración de CO2 en la atmósfera está provocando un aumento de la temperatura media a nivel global. Este aumento de la temperatura ha preocupado a los científicos y autoridades gubernamentales, dado que si continúa incrementándose, el cambio climático podría conllevar efectos no deseados tales como:aumento de las olas de calor y sequías; deshielos; aumento del nivel del mar; aumento de las fuertes lluvias; cambios en la actividad de ciclones y tormentas tropicales e impactos en el sector energético. La generación de electricidad y calor a partir de fuentes convencionales encabeza el ranking de las emisiones de CO2 entre las actividades económicas, siendo responsable del 42% de estas emisiones en todo el mundo, lo que equivale aproximadamente a 13 millones de toneladas de CO2. A nivel mundial se está haciendo un gran esfuerzo por reducir las emisiones de CO2, lo que se demuestra a través del diseño de diferentes políticas que se han implementado para incentivar el desarrollo de fuentes de energía renovables (ER), tales como la eólica, solar, geotérmica, entre otras. En este contexto, según la Agencia Internacional de Energía, en el año 2011, el 4% de la generación mundial de electricidad provino de fuentes de energía renovables (no-hidráulica) y este porcentaje debiera alcanzar el 15%para el año 2035. En términos monetarios la implementación de políticas de incentivos a las ER basados en subsidios llegó a ser 101 mil millones de dólares en 2012 y se estima que debería aumentar hasta 220 mil millones de dólares para el año 2035. Entre las políticas de incentivo, las más utilizadas son: feed-in tariffs, premium payments, quota systems, carbon taxes, cap and trade systems y auctions.Tomando en consideración los antecedentes presentados, podemos decir que existe evidencia suficiente acerca de la contribución que han hecho las diferentes políticas de incentivo a las ER para reducir gases de efecto invernadero. No obstante existe una gran preocupación acerca de cuál debiera ser la política para hacer frente a los nuevos desafíos en el desarrollo de la ER. Tomando en consideración estos antecedentes, a partir de nuestra investigación hemos tratado de hacer una contribución al conocimiento intentando responder a la pregunta "¿cuál es la mejor política para fomentar las energías renovables y con ello reducir las emisiones de CO2?". Para responder a esta pregunta se desarrolla un modelo económico basado en teoría de juegos aplicado al mercado eléctrico para cada una de las siguientes políticas: feed-in tariffs, premium payments,quota systems y carbon taxes. Los resultados obtenidos a partir de esta investigación se presentan en tres artículos que intentan responder diferentes interrogantes que fueron surgiendo durante el desarrollo de esta tesis. El primer paper presenta los resultados asociados a un modelo determinista (ver sección 2.1), el cual ha sido aprobado para su publicación en la revista The Energy Journal. En el segundo artículo se modifica el modelo anterior adicionando costes marginales, costes fijos, reserva de potencia requerida por los generadores renovables a los generadores convencionales, variabilidad de la demanda y variabilidad en la disponibilidad de recursos renovables (ver sección 2.2). El tercer paper utiliza un modelo basado en el paper 2, para estudiar los efectos que produce la congestión en transmisión en el desempeño de las políticas de energía renovable. También se estudia el uso de dispositivos FACT para mejorar la capacidad de entrega de la energía generada. Además, en este tercer artículo, se analizan los efectos de la multiplicidad de equilibrios de mercado (ver sección 2.3). A través de estos artículos se comparan las políticas de incentivos para fomentar el desarrollo de ER en términos de precios de la energía, la generación de ER, las emisiones de CO2, y el bienestar social. Estos resultados son importantes porque muestran diferentes efectos en términos de penetración de ER, bienestar social y eficiencia de reducción de emisiones. A partir de nuestros modelos hemos sido capaces de concluir que los resultados quedan condicionados a los supuestos considerados. Por ejemplo, para el caso del modelo determinista los resultados indican que el ranking de política queda condicionado a la estructura de mercado, a los costos de la energía renovable y al método de recuperación del subsidio.
uc
Design optimization of a reinforced concrete frame building to minimize the drift.
Los marcos de hormigón armado son un sistema estructural utilizado en todo el mundo, especialmente en los países en desarrollo, debido al costo relativamente bajo del sistema en comparación con otras alternativas. Como reflejo de esta ubicuidad, los investigadores han propuesto métodos de optimización basados en diferentes marcos de optimización, que son capaces de proporcionar buenas soluciones para el problema de optimización, sin embargo, su uso en la práctica por parte de los ingenieros estructurales ha sido escaso. Esta situación se ha producido debido a que estos métodos utilizan modelos estructurales no lineales para evaluar el desempeño sísmico y que son difíciles de implementar para el ingeniero estructural promedio. Además, éstos no pueden proporcionar resultados dentro de los plazos utilizados en la práctica de la ingeniería. Esta investigación presenta un método de optimización para mejorar el rendimiento sísmico de edificios de marcos de hormigón que utiliza la optimización de frecuencias propias para formular el problema y optimización geométrica y el método de homogenización de proponer algoritmos de solución eficientes. El método se aplicó para optimizar edificios con varias configuraciones de altura y planta. Los beneficios de optimización se evaluaron mediante análisis tiempo historia no lineales los análisis aplicados a modelos de fibras de los edificios, cuyos resultados se utilizan para llevar a cabo evaluaciones basadas en la ingeniería sísmica basada en desempeño. Los resultados muestran que la aplicación del método reduce las derivas y desplazamientos de entrepiso en los pisos inferiores y que la fragilidad a colapso de los edificios se reduce. Además, los edificios optimizados tienen una distribución más uniforme de la deriva a lo largo de la altura de los edificios, como consecuencia de la distribución de resistencia que resulta de la aplicación del método. El trabajo futuro en este tema puede llevarse a cabo investigando la aplicación de la optimización de frecuencias propias para marcos de acero, así como evaluar si la formulación del problema se puede extender para incluir más variables de diseño sin comprometer la simplicidad en la formulación y el rendimiento computacional.
uc
Modelo de costo basado en actividades para la gestión de operaciones de una mina subterránea expoltada por block caving.
La gestión de costos de operación destaca por su complejidad e importancia para la sustentabilidad económica de cualquier empresa industrial. Mayor es su relevancia en una industria como la minera, caracterizada por ser tomadora de precios. Las metodologías tradicionales se basan mayoritariamente en técnicas y herramientas como el criterio experto y benchmarking, respondiendo solo a las obligaciones de reportabilidad financiera y contable de la empresa, que carecen del detalle y profundidad necesarios para hacer gestión. Debido a esta situación han surgido diversas metodologías con un nuevo enfoque en base a las necesidades de cada compañía.Esta investigación tiene como objetivo plantear, diseñar e implementar una metodología de gestión Activity-Based Costing (ABC) a una faena minera subterránea explotada por Block/Panel Caving. La metodología ABC no asigna los recursos consumidos a un producto final, sino a las unidades de producción intermedias de las actividades unitarias necesarias para generarlo, entregando resultados más específicos, detallados y útiles. Adicionalmente, a partir de los indicadores operacionales de cada actividad se pretende incorporar la noción del riesgo a los resultados mediante simulaciones Monte Carlo. En el caso de estudio, el modelo ABC logra mejores resultados que las herramientas tradicionales en la estimación del costo de operación de la actividad de Producción, reduciendo el margen de error a un 3,7%. Además, entrega de manera detallada cómo se construye el costo de cada actividad en cuanto a sus distintos gastos por naturaleza, brindando mayor capacidad de gestión y análisis. Finalmente, a partir de simulaciones, se obtiene una curva de distribución del costo de la actividad, incluyendo la noción del riesgo al resultado.El modelo propuesto fue validado a partir de su aplicación en el III Panel de la mina subterránea de Codelco División Andina.
uc
Diseño e implementación de un sistema prototipo para recuperar aromas durante la fermentación enológica.
El vino es un producto chileno distintivo cuya calidad está determinada por la presencia de cientos de moléculas odorantes, producidas mayoritariamente durante la fermentación alcohólica. Hasta un 40% de los compuestos odorantes se pierden durante la fermentación por arrastre ocasionado por el dióxido de carbono. Algunas de las medidas que se toman industrialmente para minimizar las pérdidas aromáticas -por ejemplo la fermentación a bajas temperaturas- tienen efectos negativos en el proceso productivo (aumento en 20% el tiempo de fermentación promedio y en 30% los gastos energético). Este estudio tiene como objetivo diseñar e implementar un dispositivo capaz de recuperar los aromas que son liberados naturalmente durante la fermentación por el arrastre con CO2. Para ello se realizó un diseño racional de un sistema de recuperación basado en condensación. Se diseñaron 3 prototipos y se implementaron en fermentaciones a diversas escalas (desde escala laboratorio hasta escala industrial). El primer prototipo se basó en condensación en un etapa (0°C), mientras que los dos últimos se basaron en condensación en dos etapas (0 y -40°C). La recuperación aromática mostró que la mayor recuperación volumétrica y aromática se obtiene en los prototipos basados en dos etapas de condensación. En la segunda etapa de condensación se recuperan hasta el 90% de los compuestos perdidos en la corriente gaseosa. El prototipo 1 (condensación simple) tuvo una muy baja recuperación másica (menor al 1%) mientras que la recuperación de esteres en el prototipo 3 (condensación en dos etapas) fue de 12% en fermentaciones a baja temperatura y de 51% en fermentaciones realizadas a mayor temperatura. Este estudio demostró que es posible recuperar significativamente compuestos liberados durante el proceso fermentativo con un sistema no-invasivo e inocuo como lo es la condensación. La recuperación aromática permitirá al enólogo la generación de vinos con mayor calidad y los consumidores se verán favorecido al encontrar una variedad más amplia de vinos.
uc
Commodity price forecasts, futures prices and pricing model.
A pesar de que los modelos de precios de commodities han sido exitosos en ajustar la estructura de precios futuros y su dinámica en el tiempo, ellos no generan distribuciones de precios spot precisas. Este paper desarrolla un nuevo enfoque para calibrar estos modelos no solo usando observaciones de precios de futuros de petróleo, sino que también pronósticos de precios spot de petróleo realizados por analistas.Se concluye que para obtener curvas razonables de precios spot esperados se deben usar pronósticos de precios de analistas, tanto solos o conjuntamente con datos de precios de futuros. El uso de ambos sets, futuros y pronósticos, en contraste con el uso pronósticos únicamente, genera curvas de spot esperado que no difieren considerablemente en el corto/mediano plazo, aunque sí existen variaciones significativas en el largo plazo. Por otra parte, la inclusión de pronósticos realizados por analistas, sumados a los datos de precios futuros (en vez del uso de futuros únicamente), no altera significativamente la curva de futuros en el corto/mediano plazo, pero sí existe un efecto significativo en la estimación de precios futuros de largo plazo.
uc
Detección y estimación de ingestas para control predictivo de páncreas artificial en pacientes con TIDM.
La diabetes mellitus tipo 1 es una enfermedad crónica cuya prevalencia aumenta anualmente en la población chilena. Su tratamiento más avanzado es a través de infusión de insulina mediante sistemas de páncreas artificial, no obstante, estos no funcionan en forma automatizada pues necesitan del paciente para informar ingestas, entre otros datos y eventos. Así, el objetivo de esta tesis es el diseño de un algoritmo de páncreas artificial capaz de detectar eventos de ingesta, estimar y predecir la glucosa absorbida e incorporar estos elementos en una terapia de infusión autónoma. Para ello, el algoritmo propuesto cuenta con un identificador adaptivo de la dinámica de glucosa e insulina del paciente a través de datos de entrada-salida del sistema y un observador que detecta ingestas y estima en tiempo real su absorción de glucosa asociada. Luego, se ajusta un modelo de absorción,a partir de las estimaciones, que se incorpora en una ley de control predictivo. Así, se obtiene un sistema que no requiere calibración para cada usuario ni su intervención para notificar ingestas y, adicionalmente, permite dejar en evidencia la mejora del desempeño de un control de infusión autónoma producto de la utilización de información inferida sobre la alimentación del paciente. Pruebas in silico de lazo abierto del algoritmo mostraron un retardo de 3 muestras al detectar ingestas, un mínimo en el estado del arte, y altoajuste de las estimaciones y predicciones al proceso de absorción. Asimismo, se obtuvo una mejora en lazo cerrado respecto del control predictivo clásico al reducir el tiempo de estabilización en un 60% a menos de 3;5 horas y eliminar sobredosis de insulina que provocan hipoglucemia. Aún así, no se logró evitar hiperglucemias tras la ingesta pues las predicciones carecen de precisión en el corto plazo y, por ello, se propone incluir técnicas heurísticas para complementar las leyes de control de terapias de insulina. En suma, se probó la posibilidad de automatizar páncreas artificiales para rechazar ingestas, y se diseñó un algoritmo que provee nueva información para refinar el tratamiento en lazo cerrado de la diabetes. Sin embargo, aún resta validar su robustez en aplicaciones in vivo
uc
Evaluación cuantitativa de efectos de sitio 3D producto de la variabilidad natural del suelo utilizando el método de elementos espectrales : aplicación en la ciudad de Arica.
Chile, yace sobre el contacto que existe entre las placas Sudamericana y de Nazca, desde Arica por el norte a la Península de Taitao en el sur.Esto lo convierte en uno de los países más sísmicos del mundo. Dado este contexto es necesario poseer herramientas útiles al momento de evaluar la amenaza sísmica de un lugar en particular. En los últimos años, varios trabajos se han llevado a cabo con el propósito de estudiar las propiedades dinámicas de los suelos de fundación en las ciudades más pobladas del norte de Chile, motivados por la laguna sísmica de 136 años en dicha zona, la cual fue interrumpida el 1de abril de 2014 con el terremoto de Pisagua Mw = 8:2 (Barrientos, 2014). El objetivo de este trabajo es realizar una estimación, mediante modelación numérica, de la variabilidad espacial de la amplificación sísmica producto de la heterogeneidad natural de las propiedades dinámicas de los suelos en una zona de gran densidad demográfica de la ciudad de Arica. La información de la distribución de propiedades fue recopilada a través de una detallada campaña geofísica, la que incluyó métodos basados en el registro de ondas de superficie y gravimetría. Para estimar los efectos de sitio, se resuelve la ecuación de propagación de ondas en medios heterogéneos a través del Método de Elementos Espectrales. Dicho método permite incluir la topografía, la superficie irregular de contacto entre el suelo y la roca así como la distribución heterogénea de las principales propiedades mecánicas en el medio discretizado. El comportamiento inelástico de los suelos fue considerado incorporando curvas de degradación de la rígidez e incremento del amortiguamiento. Los cálculos se llevaron acabo utilizando el programa de código abierto ”SPEED” (Mazzieri et al.,2013). Los resultados de la distribución del PGA (Peak Ground Acceleration), y otros indicadores de movimiento fuerte, son comparados frente a resultados demo de los estándar 1D de capas estratificadas horizontalmente en el dominio de las frecuencias. Los resultados de los modelos visco elásticos muestran que la zona norte de la ciudad de Arica no presenta importantes efectos de sitio biotridimensioales producto de la geometría de la cuenca sedimentaria. Aunque ciertos efectos interesantes salen a la luz al utilizar modelos que degraden el material según la deformación impuesta por el sismo. En general en la zona norte de la ciudad de Arica bastaría con modelos simplificados para evaluar la amplificación sísmica de una localidad en particular. Este efecto no puede ser generalizado a otras áreas como la zona sur, donde la anomalía de gravedad y la geofísica de ondas superficiales permite intuir un basamento con una geometría más compleja.
uc
Desarrollo y aplicación de una metodología para evaluar el valor de la flexibilidad en proyectos de planificación de la expansión en transmisión eléctrica desde el punto de vista de un planificador social.
Esta Tesis explora el valor de la flexibilidad en proyectos de planificación de la expansión en transmisión eléctrica (TEP) mediante opciones reales y desde el punto de vista de un planificador social. En el contexto de los mercados eléctricos liberalizados actuales, los proyectos de TEP enfrentan múltiples incertidumbres. Estas incertidumbres generan que estrategias tradicionales de evaluación de proyectos, como el análisis de flujos de cajas descontados o el análisis costo-beneficio, recomienden frecuentemente decisiones de inversión sub-óptimas. Para incluir el efecto de la incertidumbre en la valorización de estas inversiones, esta investigación desarrolla una metodología que evalúa el beneficio social descontado de añadir flexibilidad a través de opciones reales y utilizando el método Least Square Monte Carlo. La metodología se aplicó para calcular el valor que tiene el añadir flexibilidad en un tramo del proyecto de la TEP que interconectará el Sistema Interconectado Central y el Sistema Interconectado del Norte Grande a partir del año 2018 en Chile. Los resultados concluyen que incluir flexibilidad aumenta el beneficio social esperado en $14,03 millones de dólares americanos. Al analizar las variables que afectan el valor del proyecto flexible, se observa que la flexibilidad tiene mayor valor cuando hay más incertidumbre y cuando los costos asociados a añadirla son menores. Además, en base a un análisis de sensibilidad de la congestión, se deduce que el valor del proyecto debería aumentar al haber más tramos flexibles en la red.
uc
Optimisation of replacement intervals for pulse jet fabric filters of a coal power generation plant.
Uno de los desafíos de los sistemas de generación eléctrica en base a carbón es la reducción de emisiones de material particulado. Hoy en día los filtros de mangas pulse jet son una alternativa para limpiar los gases de la combustión del carbón. Una falla de filtros genera emisiones fuera de control lo que obliga a detener la planta, generando a su vez drásticas consecuencias económicas y medioambientales. Esta es la principal razón para considerar este tipo de filtros como componentes críticos, a pesar de su bajo costo. Para el caso de los filtros pulse jet, pulsos de alta presión deben descargarse frecuentemente para liberar el polvo capturado por ellos y mantener su apropiado funcionamiento. Este estudio muestra el efecto de la frecuencia de pulsos en la vida útil de los filtros de mangas desde el punto de vista de la confiabilidad. Este enfoque considera que los ciclos acumulados de limpieza se estiman y se incluyen como una escala de tiempo combinado junto a las horas de operación en el análisis de confiabilidad. De acuerdo a lo revisado por los autores, este tipo de análisis de tiempos combinados nunca se ha reportado antes en la literatura. El objetivo es estimar intervalos de reemplazo óptimos para los filtros considerando costos de mantenimiento y confiabilidad de los filtros. El modelo generado se probó en un estudio de caso de una termoeléctrica. Los resultados muestran ahorros de hasta 40% en costos directos al realizar reemplazos antes de tiempo. Además, al evitar fallas inesperadas se pueden ahorrar entre 20 y 30 mil USD por hora de detención, sin considerar las multas por no cumplir con las regulaciones medioambientales.
uc
A method to identify virtual design and construction implementation strategies from a lean construction perspective.
Existen importantes avances en las sinergias entre el modelado de información de construcción (BIM), como parte del diseño y construcción virtual (VDC), y la construcción lean. Sin embargo, la literatura no explora completamente la naturaleza o razones conceptuales detrás de estas sinergias. Una mejor comprensión de estas sinergias permitiría a la industria de la arquitectura, la ingeniería y la construcción (AEC) lograr una mejor implementación entre lean y VDC, y sería un peldaño para seguir diseñando nuevas sinergias.Además, en los últimos años, la industria AEC ha ampliado el uso de VDC; especialmente los métodos de construcción lean, para ofrecer un mayor valor a sus clientes. VDC incluye el uso de la gestión de producción utilizando métodos lean como parte integral de su método y teoría. Múltiples casos de estudio han concluido que se logran mejores resultados mediante la implementación de ambas iniciativas en conjunto.A pesar de la gran importancia de ambas metodologías, VDC sigue siendo un desafío ya que las empresas carecen de estrategias de implementación y su relación con la construcción Lean.El objetivo de esta investigación es diseñar una metodología sistemática que permita a las empresas AEC identificar las mejores estrategias de implementación de los modelos VDC y su impacto en el desempeño con la construcción lean como moderador.Para alcanzar el objetivo final d se llevaron a cabo los siguientes objetivos específicos:• Se llevó a cabo una revisión de la literatura para explorar las sinergias entre la construcción lean y VDC, incluyendo BIM (producto), modelado de procesos y organización;• Se creó un modelo de interacciones entre los elementos de VDC, incluyendo moderadores en relaciones específicas;• Se analizó la frecuencia de las referencias en la literatura utilizando un método estadístico (cuadrados mínimos parciales de PLS) para probar las hipótesis nulas y evaluar el significado de las relaciones y los moderadores. • Se informaron y discutieron los resultados.• Se dibujaron las conclusiones en base a los resultados.Este estudio tiene contribuciones académicas y prácticas. La principal contribución teórica al conocimiento en el campo de VDC y Lean es el diseño del modelo de influencia VDC/Lean, basado en evidencia estadísticamente significativa entre las relaciones de los elementos en la implementaciones de VDC con Lean como moderador. Los resultados indican que se alcanzan mejores resultados del proyecto cuando Lean es un elemento integral dentro de la implementación de VDC.Una contribución práctica es que los profesionales pueden usar las ideas y los hallazgos para apoyar las decisiones sobre la implementación de VDC y Lean dentro de la industria AEC.Como se mencionó, los modelos de VDC se implementan de acuerdo con anécdotas y creencias basadas en proyectos pasados, que han motivado a muchos proyectos y empresas en muchos países a usar métodos VDC, pero aún no han llevado a la adopción universal en todo el mundo.
uc
A machine learning approach to predict gene expression signatures, local gene networks, and key genes for biological functions of interest.
Un objetivo importante en la investigación biológica es descubrir genes relevantes para funciones biológicas de interés. Estas funciones pueden tener distintos grados de complejidad, desde procesos biológicos específicos a características complejas como “enfermedades metabólicas” en humanos o “tiempo de floración” en plantas. Esta tesis presenta “Discriminative Local Subspaces” (DLS), un método computacional que combina técnicas de aprendizaje de máquina supervisado y coexpresión para predecir redes de genes capaces de exponer nuevos genes y señalar cuáles son importantes para una función biológica de interés. Además presenta GENIUS, un servidor web que permite a la comunidad científica aprovechar las capacidades de DLS a través de una interfaz amistosa. En contraste con las redes de coexpresión tradicionales, DLS usa el conocimiento disponible en GeneOntology (GO) para generar conjuntos de entrenamiento informativos y guiar la búsqueda de “firmas de expresión”: patrones de expresión distintivos para los genes que participan en una función biológica de interés. Luego, DLS une los genes que se coexpresan con estas firmas para formar una red génica que contiene tanto genes conocidos como nuevos, para la función biológica de interés. Nuestras evaluaciones sistemáticas demuestran que DLS puede predecir genes nuevos con precisiones comparables a los métodos altamente discriminativos “Support Vector Maquines” (SVM), pero manteniendo la representación intuitiva e informativa que proveenlas redes de coexpresión. Más aún, nuestras evaluaciones muestran que, en contraste con estos métodos, DLS mejora su precisión sistemáticamente al aumentar la cantidad de datos experimentales disponibles. Además, nuestras evaluaciones en escenarios reales muestran que GENIUS puede realizar nuevos descubrimientos de manera efectiva. En particular,GENIUS predijo un nuevo gen, clave para mejorar la eficiencia del uso del nitrógeno en plantas, lo cual fue validado experimentalmente. Por lo tanto, creemos que GENIUS puede ayudar a generar hipótesis concretas a partir de conocimiento previo, realizar nuevos descubrimientos y, por lo tanto, mejorar nuestra comprensión molecular sobre los sistemas biológicos. GENIUS actualmente puede ser utilizado en ocho importantes organismos y es de libre acceso en http://networks.bio.puc.cl/genius.
uc
A new type of tuned liquid damper and its effectiveness in enhancing seismic performance : numerical characterization, experimental validation, parametric analysis and life-cycle based design.
In the last decades the use of seismic protection devices in Chilean buildings has gained popularity for reducing earthquake losses. Mass dampers (also referenced as inertia dampers), with the most popular representative being the Tuned Mass Damper (TMD), are a potential device for facilitating these tasks; they consist of a secondary mass attached to the primary structure through an equivalent spring and dashpot. Through proper tuning of frequency/damping characteristics, the movement of this secondary mass counteracts the vibration of the primary mass (structure) providing the desired energy dissipation for this vibration. Among the general class of mass damper devices, Tuned Liquid Dampers (TLDs), which consist of a tank filled with some liquid (typically water) whose sloshing within the tank provides the mass damper effect, have some attractive characteristics such as low cost, easy installation and tuning, bidirectional control capabilities and alternative use of the secondary mass (liquid in this case). Their popularity, though, has been hindered by the facts that (i) their dynamic behavior is highly non-linear due to wave breaking and (ii) their inherent damping is usual lower than the optimal one, requiring the introduction of submerged elements (to increase this damping) that make the overall behavior even more complex. Other type of liquid dampers that share some of the TLD advantages, the liquid column dampers, offer a simpler modeling but their dynamic behavior is still non-linear since their damping ends up being amplitude dependent, whereas they are strictly restricted to one-directional applications. Additionally, the advantages of any such type of mass dampers particularly for seismic applications in the Chilean region have not been clearly demonstrated; this pertains to both their efficiency, acting as an inertia device, to allow significant energy dissipation for the ground motions common in the region but more importantly to an explicit discussion of the life-cycle cost improvement they can facilitate. The research presented here introduces a new type of liquid mass damper, called Tuned Liquid Damper with Floating Roof (TLD-FR) which combines the favorable characteristics of both TLDs and liquid column dampers, and further examines its efficiency for seismic applications for Chile. The TLD-FR consists of a traditional TLD (liquid tank filled with liquid) with the addition of a floating roof. The sloshing of the liquid within the tank is what still provides the inertia damper effect, but the roof prevents wave breaking phenomena and introduces a practically linear response and a dynamic behavior in a dominant only mode. This creates a vibratory behavior that resembles other types of a linear mass dampers and a framework is developed to characterize this behavior with a simple parametric description that can facilitate an easy comparison to such dampers. Within this framework, focus is given on a theoretical/computational characterization of the new device, coupled with an experimental validation of its capabilities and of the established numerical tools. To support these advances an efficient computational approach is formulated to describe the dynamic behavior of liquid tanks and is then extended to describe the behavior of the TLD-FR (address the inclusion of the roof). The aforementioned parametric formulation is then used to develop an approach that facilitates a direct design in the parametric space, as well as an efficient mapping back to the different tank geometries that correspond to each parametric configuration. During this process the efficiency of mass dampers for seismic applications in Chile is also examined by comparing the performance across different types of ground motions, representing different regions around the world. Finally, a versatile life-cycle assessment and design of the new device is established considering risk characterizations appropriate for the Chilean region, so that the cost-benefits from its adoption can be directly investigated. This involves the development of a multi-criteria design approach that considers the performance over the two desired goals: (i) reduction of the total life-cycle cost considering the upfront damper cost as well as seismic losses and (ii) reduction of the consequences, expressed through the repair cost, for low likelihood but high impact events. Through this approach the financial viability of the TLD-FR (competitiveness against TMDs) for enhancing seismic performance is demonstrated.
uc
Participación de un agregador de respuesta de demanda en mercados eléctricos : manejo óptimo de contratos.
La respuesta de demanda (DR) es una forma versátil para proveer flexibilidad a los sistemas eléctricos de potencia. Para poder manejar la flexibilidad asociada a la gran cantidad de recursos de DR distribuidos, en el contexto de los mercados eléctricos, estos deben ser agregados por un nuevo participante denominado agregador de respuesta de demanda. En este trabajo se presenta un modelo de optimización para determinar la operación óptima de un agregador de DR que maneja un portafolio de programas de DR que le permiten participar en los mercados mayoristas de electricidad. El agregador es considerado como un participante estratégico en el mercado de tiempo real. El portafolio de recursos de DR esta compuesto por varios contratos de desprendimiento de carga y cargas flexibles que pueden ser ejecutadas para modificar la demanda agregada hora a hora. La incertidumbre de los precios de mercado y los requerimientos de balance son representados a través de un conjunto de escenarios basados en datos históricos. El modelo propuesto es un programa matemático binivel estocástico, que puede ser reformulado como un programa lineal-entero mixto (MILP). Diversos casos de estudios con resultados numéricos son presentados.
uc
Sparse KNN - a method for object recognition over x-ray images using KNN based in sparse reconstruction
El reconocimiento de objetos en imágenes de rayos X no es una tarea trivial, lidiando con problemas fundamentales tales como la ausencia de color o la oclusión particular del problema, difiriendo esta segunda de la oclusión con la que generalmente nos encontramos,puesto que en una radiografía el objeto siempre es visible, así como cada otro objeto en la imagen, por lo que más que obstruir la visión, las imágenes de rayos X las combinan. Es por esto que se presenta un método basado en los puntos SIFT extraídos de la imagen.Estos puntos son primeramente usados para entrenar un modelo para cada clase presente,Pistola, Shuriken, Hoja de afeitar y Otros o No clase. Luego, utilizando este modelo, se busca la reconstrucción sparse de estos puntos, los cuales son clasificados utilizando una métrica de distancia, construyendo un clasificador por cada clase. Una fase clave en este método es la selección de características, seleccionamos alrededor de 50 características de las 128 del descriptor SIFT, esta selección diferente para cada clasificador. La finalidad de esta selección es disminuir el ruido agregado por la oclusión radiológica antes explicada.Se demuestra empíricamente la importancia del ajuste de parámetros, los cuales toman una gran importancia para aumentar el rendimiento del algoritmo, entre los parámetros a ajustarse encuentran, umbrales de aceptación de distancia, umbral sobre el Sparsity Concentration Index, siendo este un índice usado para saber si la reconstrucción sparse es representativa de una o varias clases; y una representación de la importancia de posición relativa al centro del objeto a cada punto SIFT encontrado. La efectividad de nuestro método fue probada reconociendo tres objetos peligrosos diferentes: pistolas, shuriken (estrellas ninja) y cuchillas de afeitar. Con esto, en nuestros experimentos, se obtienen resultados sobre un 94% de precisión.
uc
Turbulence estimation in wide-field adaptive optics systems.
La hipótesis de este trabajo es que las desviaciones y aberraciones de un instrumento de óptica adaptativa pueden ser cuantificadas e incorporadas a una simulación, con el fin de entrenar un reconstructor tomográfico válido bajo condiciones experimentales. Con este propósito se caracterizó la banca óptica BEAGLE (Sáez, Basden, Guzmán, Dubost, & Berdja, 2014), un experimento de óptica adaptativa multi-objeto que emula a CANARY del William Herschel Telescope. Los parámetros adquiridos son empleados para ajustar una simulación de la banca óptica, la cual produce datos de validación. Se propone una técnica para manejar desviaciones instrumentales, cuando las mediciones son realizadas utilizando un sensor de frente de onda Shack-Hartmann (SH). Dos desviaciones son tratadas: heterogeneidad de sub-aperturas y aberraciones dependientes del campo. La primera se debe a aberraciones estáticas en el eje y a imperfecciones en la construcción del Shack-Hartmann. La segunda es el producto de aberraciones ópticas fuera del eje. La técnica de corrección mitiga las desviaciones de las mediciones realizadas por el SH, antes de entregárselas a un reconstructor basado en una red neuronal artificial (ANN por su siglas en inglés). La intención es exponer a la ANN a datos normalizados, similares a aquellos producidos en simulación para su entrenamiento. Una vez implementada, la corrección falla en entregar mejora alguna. Para lidiar con esto, se realiza un análisis de sensibilidad. Como es de esperar, la ANN se muestra robusta frente al ruido. Dado que la corrección propuesta puede ser vista por el reconstructor como ruido, su efecto es limitado. También se probó con otras fuentes de error, tales como el perfil atmosférico y el pointing. Cuando estos errores caen en órdenes de magnitud esperados, su influencia en la estimación del sistema es despreciable, bajo 1%. La varación más significativa de rendimiento se observa cuando se cambia un parámetro atmosférico: la escala externa. Trabajo futuro considera la realización de pruebas para todas las fuentes de error, en una simulación inclusiva, así como el entrenamiento de un reconstructor que considere incertidumbre en estos factores.
uc
Análisis del comportamiento de túneles construidos en terrenos potencialmente expansivos.
La complejidad que reviste el comportamiento de terrenos potencialmente expansivos en la excavación de túneles y por consiguiente la gran incertidumbre en la predicción de las deformaciones y presiones que serán impuestas sobre el revestimiento, han sido objeto de diversos estudios, gran parte de ellos basados en principios básicos de la mecánica de suelos y en la historia de casos reales. Para abordar el tema, inicialmente se realizó una revisión sobre las propiedades de las arcillas y su estructura mineralógica, ya que éstas tienen gran influencia en el cambio volumétrico; además se realizó una descripción de los principales ensayos de expansividad que comúnmente son usados para identificar y clasificar los terrenos expansivos. Para comprender mejor el fenómeno de expansión y definir cuáles son los parámetros más importantes que intervienen en el problema, se realizó la revisión de algunos proyectos hidroeléctricos ubicados en la zona central de Chile, que involucran la construcción de túneles que atraviesan por terrenos potencialmente expansivos, identificando los tipos más comunes de suelo o roca involucrados y los ensayos de laboratorio típicamente empleados. Posteriormente, se propone una serie de metodologías teóricas para predecir la deformación de un revestimiento instalado en un túnel circular. La primera se basa en el desarrollo teórico expuesto por Fredlund et al., donde se involucra las relaciones entre el cambio de presión de poros y la deformación que se desarrollarán en el terreno. La segunda metodología se basa en un procedimiento analítico propuesto por Kovari et al., que permite efectuar un análisis de la interacción entre la expansión del terreno y la presión de reacción del revestimiento. Adicionalmente, se incluye un análisis simplificado a partir de la curva de expansión que entrega el ensayo edométrico para determinar la deformación de un revestimiento circular. Finalmente, se enumeran algunas alternativas para el sostenimiento de túneles construidos en terrenos potencialmente expansivos, con aplicaciones de casos prácticos y a partir de estos casos se ejemplifica la respuesta de un revestimiento empleando el software Phase2 del Rocscience.
uc
Appointment scheduling and patient programming in chemotherapy : a case study in a Chilean hospitl.
Esta investigación aborda un problema real de agendamiento para pacientes de quimioterapia en el Hospital del Salvador en Santiago de Chile. El problema presentado puede dividirse en subproblemas. El primero corresponde a la forma de asignar las sesiones de los pacientes en el tiempo y el segundo tiene relación con el funcionamiento diario de la unidad de Quimioterapia, cómo son establecidos los horarios de atención de los pacientes y cómo se asigna la capacidad disponible (módulos de sillones de tratamiento y horas de atención de enfermeras). Una dimensión adicional del problema que complejiza su solución es la necesidad de contar con horas de laboratorio disponibles para preparar el medicamento de los pacientes debido a que esta capacidad de preparación es limitada. Como resultado se formuló una metodología que aborda el problema en dos etapas. La primera se basa en una investigación previa realizada por Sauré et al. (2012) e implementa para quimioterapia la política de calendarización, sugerida por los autores para la calendarización de tratamientos de radioterapia. El resultado obtenido de esta primera etapa constituye el input para la segunda etapa, que consiste en resolver un problema de programación de máquinas en paralelo con restricciones adicionales de capacidad. Esta etapa se aborda mediante la generación de patrones de tratamiento. Se evalúan los beneficios de ambas etapas de la metodología para el caso que enfrenta la unidad de Quimioterapia del Hospital del Salvador. El método propuesto logra reducir en un 20% los costos operacionales del hospital, debido a una reducción en horas extra. Por otro lado, para una demanda promedio el método propuesto para programar pacientes a diario logra aumentar en un 21% el uso de capacidad de atención y en un 22% el uso de capacidad de laboratorio; esto con respecto al método usado actualmente por el hospital.
uc
Collpad 2 con argumentador : aporte del argumentador en el aprendizaje y desarrollo de habilidades paralelas.
En el mundo actual, donde la tecnología se apodera de prácticamente todos los aspectos de la vida humana, se hace fundamental contar con personas capaces de participar de manera activa en la resolución de problemas, capaces de comunicarse y utilizar la tecnología de manera apropiada. Una oportunidad de lograr esto es fomentar el desarrollo de habilidades de orden superior desde la temprana edad. Entregar entornos de aprendizaje que permitan no solo la transferencia de nuevos contenidos, sino que sean además capaces de fomentar el desarrollo de estas habilidades. Varios autores destacan entre estas habilidades el pensamiento crítico y la colaboración.Entre la literatura, la definición de variados autores reconocen la capacidad de argumentar como un eje transversal del pensamiento crítico. Con el fin de determinar el aporte que puede tener la argumentación en el aprendizaje, se ha diseñado un andamiaje orquestado basado en dos aplicación que fomenten no solo la adquisición de nuevos contenidos, sino que además integren la necesidad de poner en práctica las habilidades de colaboración y argumentación. Para establecer el aporte de cada una de estas habilidades, una de las herramientas, Collpad 2, solo utiliza la colaboración para la resolución de problemas, mientras que la otra, Collpad 2 con argumentador, integra además un argumentador que obliga a los alumnos a participar activamente en la construcción de argumentos que justifiquen sus respuestas, ideas y opiniones y sean capaces de evaluar la de los demás del mismo modo. Los resultados obtenidos muestran que Collpad 2, no refleja una diferencia estadísticamente significativa con el grupo sin tecnología. Por lo que no podemos afirmar que la tecnología con colaboración utilizada represente un aporte real en el aprendizaje. No obstante los resultados de Collpad 2 con argumentador muestran que los alumnos que utilizaron esta aplicación obtuvieron mejores resultados que el grupo control. Sin embargo, el tamaño de la muestra podría no ser suficientemente grande, por lo que se propone extender esta investigación a un grupo más amplio de alumnos.
uc
EFL motivation in primary school students : American films to enhance motivation for EFL learning at school.
The following research accounted on how authentic resources, specifically films, motivate more than traditional resources for FL learning. Thus, the origin of the investigation is the point of departure of every learning process: motivation. The context of this study is primary school education, particularly chosen because as they start their education in the language, the objective is that they do not think of English as a school subject rather of how it should be taken, as a language. For the same reason, one of the objectives was exposing students to the FL communicatively so as to present it as it is in real life. The means by which English was presented to students attempted to change the traditional resource of the textbook to films which they were interested in. In this regard, the language would be learned because it was more appealing and even considered as fun rather than an obligation because it was school. Even though the fact of them to be entertained was at all the end, the fact that they took it as that helped the investigation in the sense that there were more possibilities that they learned the language incidentally rather than intentionally which is the regular and imposed manner of learning at school. In the end, the main objective of the investigation was to prove that when learners are motivated learning comes without, or at least with fewer, complications since they are interested in what they are being exposed to. In this sense, the methodology would be in the first place simulating what occurs in reality with the manner language is conveyed, that is, by communicating we learn language. Though the school setting cannot be compared to real life instances at least it can be simulated, and what better than doing it with encouraging resources as films.The following research accounted on how authentic resources, specifically films, motivate more than traditional resources for FL learning. Thus, the origin of the investigation is the point of departure of every learning process: motivation. The context of this study is primary school education, particularly chosen because as they start their education in the language, the objective is that they do not think of English as a school subject rather of how it should be taken, as a language. For the same reason, one of the objectives was exposing students to the FL communicatively so as to present it as it is in real life. The means by which English was presented to students attempted to change the traditional resource of the textbook to films which they were interested in. In this regard, the language would be learned because it was more appealing and even considered as fun rather than an obligation because it was school. Even though the fact of them to be entertained was at all the end, the fact that they took it as that helped the investigation in the sense that there were more possibilities that they learned the language incidentally rather than intentionally which is the regular and imposed manner of learning at school. In the end, the main objective of the investigation was to prove that when learners are motivated learning comes without, or at least with fewer, complications since they are interested in what they are being exposed to. In this sense, the methodology would be in the first place simulating what occurs in reality with the manner language is conveyed, that is, by communicating we learn language. Though the school setting cannot be compared to real life instances at least it can be simulated, and what better than doing it with encouraging resources as films.
uc
Development of performance models and maintenance standards of urban pavements for network management.
Urban pavements in developing countries often provide users with low level of services and result in negative impacts on the population and economy. Two main causes of deferring maintenance actions for urban pavements in developing countries were identified: an institutional organization that limits the optimization of resources assigned to urban pavements because current regulations may not be clear on the responsibilities and faculties of agencies in charge of urban pavement management, and; the lack of effective technical-economic tools that may help agencies in the decision-making process as an updated management system adapted to prevailing urban pavements maintenance requirements. Although the current state-of-the-art and the-practice of PMSs presents great developments in the last decade for interurban pavements, effective tools developed for urban pavement management are still a missing part of current practices. Compared with the management of interurban roads, the management of urban pavements is a comprehensive task given the complexity of urban networks, the coordination with various services and the variable traffic demands. Given this scenario for urban pavement management, there is a need for better understanding urban pavements performance for network management. An overall condition index that combines most relevant distresses affecting urban pavements performance is required for network analysis due to several pavement condition indices available were developed for interurban road networks (highways, express corridor, etc.); moreover, several performance models have been developed for particular distresses, and some of them for pavement condition indexes of interurban pavements. Then, their direct application to urban networks (streets, avenues, etc.) is not representative and their adaptability for these conditions requires previous adjustments and calibration. This research was focused on the network level analysis of urban pavements, towards the development of practical and sustainable technical tools to be further integrated into an Urban Pavement Management System (UPMS). The main objective was to calibrate an Urban Pavement Condition Index (UPCI) and Performance Models, technical components required for an UPMS, based on data collected in urban networks in Chile. UPCI for asphalt and concrete pavement, based on objective measures of surface distresses and evaluations of an expert panel was successfully calibrated and validated with a confidence level of 95%. Multilineal regressions were performed to obtain the UPCI models. Three UPCI models were obtained for asphalt pavements with manual and automated data collection. The distresses resulted significance in asphalt pavement condition are fatigue cracking, transverse and reflection cracking, deteriorated patches, rutting, and potholes for manual data collected. IRI replaces potholes in the condition equation for automated data collected. One UPCI model was achieved with successfully validation for concrete pavements with manual data collection. The distresses representative of concrete pavement condition are longitudinal, transversal and oblique cracking, corner breaks, deteriorated patches, faulting, and deteriorate joints and cracks. Deteriorated patches have an important effect in the UPCI value for all UPCIs calibrated, where utility cuts are frequently observed, resulting in low quality patches and high probabilities of premature deterioration. This conclusion supports the primary hypothesis that special condition evaluation guidelines and indicators are required for urban pavements. Distress evaluation guidelines for asphalt and concrete pavements considering manual and automated surveys were developed and satisfactory validated with a 95% of confidence level through repeatability and reproducibility analysis. This guideline proposes an evaluation methodology for the distresses included in the UPCI. Based on the field evaluation carried out during the research, recommendations about the frequency and sampling for pavement condition evaluation are given for different network hierarchies: primary, every 2 year, the complete network; secondary, every 4 year, the complete network, and; local, every four years samples of homogeneous sections. Performance models were performed based on probabilistic trends of UPCI observed during field evaluations for asphalt and concrete pavements. Five field evaluation campaigns were developed in three regions of Chile during a three-year analysis period for the calibration and validation of performance models. The climates included were dry, Mediterranean and humid. The probabilistic trend over time of data collected was analyzed using Markov chains with Monte Carlo simulation that facilitates the analysis of the deterioration trend with only two points of the curve condition over time, allowing the simulation of pavement performance within the timeframe of the research. Fourteen performance models were calibrated for different combination of three climates, two pavement types and three hierarchy networks, considering a pavement life cycle of 25 years. Twelve of them were successfully validated with a confidence level of 95%. The models of asphalt in humid climate and concrete in dry climate need further analysis for their validation, considering more data collection in these climates. Hierarchies based on grouped functional classification were used: Primary Network (Express and Troncal streets), Secondary Network (Colectors and Services) and Local Network (Local and passages). Additionally, a comparative analysis was performed between the real equivalent axles demanding the sections and the equivalent axles admitted by their structures, in sections of Mediterranean climate. In other climates, the data was not enough to perform this analysis. Five models were obtained for asphalt pavement in mediterranean climate: three for the hierarchies and two for the design analysis. The latest two are recommended to use when information about traffic and structure is available. On the contrary, the models developed based on the hierarchy networks are recommended. Two performance models resulted for asphalt pavements in dry and humid climate: Models for humid climate presents higher deterioration rate than model for dry climate. However, both models present a shorter service life than their design. Likewise asphalts, five models were obtained for concrete pavements in mediterranean climate. Considering the models resulted from the analysis of the design, the deterioration trend does not present big differences within the two conditions analyzed. Therefore, for concrete pavements is recommend the use of the models calibrated based on the hierarchy networks. Two models resulted for concrete pavements in dry and humid climate: Both cases present a long service life; however, on the contrary of what is expected, the dry climate presents a deterioration more accelerated than humid climate. This behavior is probably a consequence of differences in construction standards and maintenance policies, noticed in interviews carried out with agencies of both regions. Finally, suitable P&M&R standards for urban pavement based on the urban pavement condition index and their performance models were developed for asphalt and concrete pavements. Three different standards are proposed for primary, secondary and local networks. The practical tools calibrated in this research can be easily implemented and used by local agencies, and simply adaptable over time and to different scenarios. The results of the study were developed with field data collected in Chilean cities; however, the results may be adapted and adopted in other countries for urban pavement management.
uc
Determinantes de la productividad total de factores en la minería chilena 1996-2013.
El objetivo de esta investigación es identificar y evaluar los determinantes de la Productividad Total de Factores (PTF) de la industria del cobre chilena en el período 1996-2013. Se calculó la evolución de PTF de la minería chilena mostrando una tendencia negativa durante el período en estudio, con una variación del 68%. Luego, a partir del conocimiento específico de la industria, se identificaron 5 determinantes que logran explicar esto.Utilizando un Modelo de Corrección de Errores que permitió elevar supuestos de los modelos clásicos de medición de PTF y eliminar problemas estadísticos, se calcularon los pesos relativos de los determinantes que afectan a la PTF en el corto y largo plazo. El factor de mayor peso relativo identificado es la ley de mineral que logra explicar, ceteris paribus, un 26% de la variación de la PTF en el período en estudio. El segundo determinante de mayor peso relativo es el deterioro de las operaciones expresado en el aumento de la distancia de transporte que logra explicar un 7.5% de variación de la PTF, el tercero es el capital invertido que explica un 35% (de menor peso relativo que el consumo diésel o ley de mineral, pero con mayor variación) y el cuarto son los términos de intercambio que explican un 1.2%. Por otro lado, en las regresiones no se encontró evidencia estadística suficiente para afirmar que el factor trabajo sea significativo como determinante de la PTF.De los resultados obtenidos se puede concluir que la ley de mineral y el deterioro de las operaciones son los principales determinantes de la PTF en la minería chilena. La inversión (stock de capital) surge como el principal factor intrínseco (y gestionable) para combatir estos factores exógenos y que ésta debe crecer en relación a la variación de la ley y deterioro de las operaciones para contrarrestar dicho efecto en la PTF.
uc
On the use of fuzzy real options hybrid simulation : analysis and interpretation.
Una guía para la aplicación de opciones reales difusas por medio de simulación híbrida para evaluar proyectos riesgosos es presentada. El valor de las opciones reales es estimado a través de simulación de Monte Carlo por mínimos cuadrados, capturando el valor de flexibilidad de gestión dentro de un proyecto. Teoría de posibilidad y sets difusos son usados para representar la opinión de expertos sobre parámetros inciertos que no poseen suficiente información histórica para ser correctamente representados mediante una función de densidad de probabilidad. Una metodología para procesar y presentar resultados de carácter aleatorio-difuso por medio de niveles de confianza referidos a la precisión de la opinión de los expertos es propuesta. Para poder mostrar los beneficios de esta metodología dos casos de estudio son desarrollados; un ejemplo ilustrativo de evaluación de proyecto y una aplicación real sobre la comparación de evaluaciones entre dos generadoras hidroeléctricas.
uc
Managing uncertainty in agroforestry problems : applications of operation research models and methodologies in the wine and forestry industries.
Esta investigación se centra principalmente en la aplicación de modelos y metodologías de investigación operativa a problemas que surgen en la industria forestal y de la agricultura. A pesar que los modelos desarrollados difieren tanto en su naturaleza como en el ámbito de aplicación, ´estos comparten el mismo objetivo: incrementar la efectividad de los procesos productivos modelados al incorporar la incertidumbre que afecta su desempeño.En el segundo capítulo de esta tesis se considera el problema de programación de la producción en aserraderos sujeto a incertidumbre. En particular, el modelo propuesto por Maturana et al. (2010) es reformulado con el fin de hacer frente a la incertidumbre tanto en el abastecimiento de materias primas como en las órdenes de los productos. A través de la aplicación del enfoque de optimización robusta propuesto por Bertsimas & Sim (2004), se desarrollan tres modelos robustos: en el primero, sólo se toma en cuenta la incertidumbre en la demanda; en el segundo, sólo incertidumbre en elabastecimiento; y en el tercero, ambas fuentes de incertidumbre son consideradas. En cada uno de ellos, varios experimentos son realizados con el fin de evaluar la robustez de las soluciones, el efecto del nivel de conservatismo en la función de costos y en impacto de la incertidumbre en la programación del aserrado. Además, y mediante simulación de Monte Carlo, se plantean varias estrategias para seleccionar un adecuado nivel de conservatismo con implicancias en la toma de decisiones. En el tercer capítulo se considera la problemática asociada a la gestión de vinos premium y se desarrolla una heurística de dos etapas con el fin de establecer niveles adecuados de inventarios cuando una política (s-1, s) se emplea para la gestión de stock. Se asume que las órdenes por productos llegan de acuerdo a procesos de Poisson independientes; que los inventarios de vinos etiquetados son revisados en forma continua; que hay sólo una máquina que etiqueta; y que el proceso de etiquetado se realiza sólo si existen órdenes por productos. Considerando la minimización de la suma de los costos estacionarios de productos en proceso, en inventario y faltantes por unidad de tiempo, la heurística opera como sigue: en la primera etapa, el proceso de etiquetado es modelado como un sistema polling asimétrico que opera bajo una política de servicio exahustiva y se emplea el enfoque de Winands et al. (2006) para obtener los tiempos medios de espera por producto. Luego,en la segunda etapa se aplica el teorema de Palm (Palm, 1938) que reduce el problema global a la resolución de un problema del vendedor de diarios por cada tipo de etiqueta. La heurística se expone en forma sucinta mediante ejemplos numéricos y también se evalúa su precisión a través de un modelo de simulación. En el cuarto capítulo se analiza la estrategia de postponement como herramienta para hacer frente a la incertidumbre en las órdenes por productos en las viñas. El objetivo de este trabajo, que se basa en el desarrollado por Cholette (2009), es evaluar bajo qué condiciones operacionales un modelo de planificación de la producción (táctico) que opera desacoplando las líneas de etiquetado y embotellado, entrega mejores planes de producción que otro, el cual sólo considera inventario de productos etiquetados. Ambos modelos de programación entera mixta son analizados bajo un marco de horizonte rodante considerando diversas condiciones de holgura en la capacidad productiva, longitud del horizonte y grados de incertidumbre por los productos. Con significancia estad´ıstica semuestra que el nivel de beneficios derivados del uso de postponement son significantes, especialmente,cuando la holgura productiva es baja, el horizonte de planificación es extenso y el grado de incertidumbre es alto.Finalmente, en el quinto capítulo se presentan las conclusiones de esta tesis donde se describen los hallazgos, las debilidades de las formulaciones y propuestas para trabajo futuro.
uc
Cn2 profiler for a multi-conjugated adaptative optics system.
Esta tesis presenta un método pionero e innovador para la medición de la distribución vertical del perfil de turbulencias atmosférica, en sistema de óptica adaptativa de campo amplio. Con la capacidad de proporcionar en tiempo real las mediciones para instrumentos de óptica adaptativa (OA), durante las observaciones astronómicas.La OA nos permite compensar los efectos negativos que tiene la turbulencia de la atmosfera sobre la calidad y la resolución de las imágenes tomadas para astronomía. Hoy en día, se ha optado por aumentar el tamaño de los telescopios ópticos para poder cumplir con los objetivos científicos y la OA ha desarrollado importantes nuevos avances. Mientras que el perfil de turbulencias no es algo nuevo, los sistemas desarrollados no proporcionan toda la información requerida por la ciencia, ya que se encuentran en un telescopio separado y por ende, independiente del instrumento de OA. El objetivo de esta nueva técnica es usar directamente los datos ya observados de un sistema de OA multi-conjugado, de modo de medir directamente la turbulencia que afecta al telescopio usado para la ciencia, sin la necesidad de un sistema externo. Además puede ser usada para la evaluación misma del sistema de OA y además se descubrió que nos permite la estimación de la intensidad del “seeing” dentro de la cúpula del telescopio. El método es la adaptación de una técnica conocida (SLODAR) para la medición del perfil vertical de turbulencia, pero en lugar de usar estrellas naturales, usa estrellas generadas con un láser. En principio se simularon datos para validar el perfil reconstruido y que nos permitiera identificar los parámetros importantes. El método fue primero implementado y calibrado en el sistema multi-conjugado de Gemini sur (GeMS), para ser finalmente validado con los datos tomados de observaciones reales en el cielo. El método encontró algunos factores limitantes, como el efecto “fratricida” proveniente de la dispersión del laser en la atmosfera y de la existencia del “seeing” presente en la cúpula, pero ambos efectos fueron identificados y mitigados.En una segunda aproximación para la reconstrucción del perfil, fue la implementación de técnicas de correlaciones temporal, llamada “perfil del viento”, la que nos proporcionó, no sólo el perfil vertical de turbulencias, sino que proporciona la dirección y velocidad del viento para cada capa, proporcionando un mayor desempeño ya que se ajusta automáticamente a la turbulencia, y condiciones como cambios de la escala externa (“outerscale”), ruido del sensor de frente de onda o la fuerza de la turbulencia no le afecta. Mejoras futuras de la técnica desarrollada, podrían beneficiar métodos de control predictivo, al compensar del los retrasos inherentes al ciclo de OA, al proporcionar información de velocidad y dirección del viento. Esta técnica fue inicialmente desarrollada para GeMS, pero es en la actualidad probada en al menos otros tres instrumentos del mejor nivel.
uc
Efecto del ángulo de incidencia en el coeficiente de absorción y metodología para la fabricación de superficies craneales mediante doblado láser.
El objetivo de este trabajo es comprender de manera satisfactoria el conformado láser y su y simulación numérica con la finalidad de usar esta técnica moderna de manufactura para obtener una superficie 3D compleja Primero se propone un método experimental-numérico para medir el coeficiente de absorción del acero AISI 304 con y sin una capa de grafito superficial. Se muestra que el coeficiente de absorción de láminas metálicas difiere significativamente del valor reportado en la literatura para materiales puros y pulidos. Luego, usando el mismo método, se obtiene la relación entre el coeficiente de absorción y el ángulo de incidencia del láser para el acero AISI 304 cubierto con grafito, mostrándose que hay un efecto importante de este parámetro. A continuación, mediante un modelo termo-mecánico se simula numéricamente de manera correcta el conformado láser, con excepción de los casos en que la temperatura en la zona de irradiación del láser es cercana al punto de fusión del material. Finalmente, se aplica una metodología de diseño mediante la cual se obtiene, con resultados óptimos, una superficie tridimensional correspondiente al cráneo humano a partir de una lámina metálica plana.
uc
Estudio paramétrico del modelo de Mavroeidis y Papageorgiou para la simulación de registros sísmicos impulsivos.
El objetivo fundamental del presente trabajo consiste en el análisis aleatorio de los parámetros de Mavroeidis y Papageorgiou, con el fin de determinar la influencia que estos valores tienen en la generación de sismos impulsivos sintéticos y como estos afectan en mayor o menor medida la respuesta del sistema. Para el análisis paramétrico es necesario la definición de aleatoriedad alta y leve lo que se representa por las distribuciones uniforme y normal respectivamente, definido lo anterior se procede a la obtención de espectro de aceleración y gráficos del factor de desplazamiento inelástico (Cd v/s Tn) para cada variable en análisis y por cada tipo de aleatoriedad asignada, determinando así que parámetros son mayormente determinantes a la hora de generar un sismo impulsivo utilizando el procedimiento descrito en el documento “Mathematical Representation of Near-Fault Ground Motion” de Mavroeidis y Papageorgiou, en donde se postula que los registros sísmicos sintéticos son producto de la superposición de una componente coherente (utilizando los parámetros en estudio) y una componente incoherente (modelada en este trabajo mediante el modelo de Kanai-Tajimi modificado), dando origen a un sismo de fuente cercana (sismo impulsivo) que puede ser de gran utilidad para evaluar la respuesta estructural de edificaciones ubicadas en zonas sísmicas propensas a eventos impulsivos.La gran cantidad de iteraciones tiene como objetivo generar muestras representativas del comportamiento del parámetro en análisis, es por ello que además de las curvas medias, se incluye el análisis de los valores extremos (máximos, mínimos y desviaciones estándar) con el fin de analizar cada variación que los parámetros de la componente coherente genera en la respuesta final del sistema. Del análisis se obtendrá que parámetros como; Tp y el factor de modificación de la respuesta (R) son preponderantes y muy influyentes en la forma del registro obtenido y en la respuesta tanto elástica como inelástica del sistema en estudio.
uc
Modeling and predicting oil vix : internet search volume versus traditional economic variables.
La volatilidad es un importante factor para evaluar y mitigar riesgos en inversiones además de una variable clave en modelos de valorización y política monetaria. Quienes tengan mejores modelos para predecir la volatilidad tendrán una ventaja respecto de otros participantes en un mercado, lo que se debería traducir en mejores retornos. Esta tesis modela y predice el índice de volatilidad implícita del petróleo (Oil VIX) usando modelos heterogéneos autorregresivos (HAR) que incluyen tanto variables económicas tradicionales como volumen de búsqueda en internet. Los principales resultados son los siguientes: Primero, el Oil VIX se puede modelar adecuadamente con un modelo HAR. Segundo, al extender el modelo HAR agregando volumen de búsqueda, esta variable tiene una relación positiva y significativa con Oil VIX. Tercero, esta relación mantiene su significancia cuando también se agregan variables económicas tradicionales, por lo tanto, el volumen de búsqueda en internet no solo es un proxy de estas variables, sino que también agrega información adicional. Finalmente, predicciones fuera de la muestra indican que agregar volumen de búsqueda a los modelos tiene un alto valor económico, permitiendo que los inversionistas aumenten sus retornos. En conclusión, el volumen de búsqueda en internet mejora los modelos y predicciones de Oil VIX. La mejora en rendimiento y la disponibilidad de un gran volumen de datos de búsqueda, hacen de esta variable una valiosa adición a los actuales modelos de predicción de volatilidad.
uc
Fault-controlled development of shallow hydrothermal systems, Southern Andes.
Las zonas de falla controlan la formación de sistemas hidrotermales someros, candidatos para el desarrollo de sistemas geotérmicos. El modo de falla es controlado por la presión de fluido (PF = λV*σV, λV = factor de presión de poro, σV = estrés vertical) y el estrés diferencial (σ1 - σ3), generando distintos estilos de deformación (extensional y/o cizalle). La Zona Volcánica Sur de los Andes (ZVS) es una de las regiones geotermales más vastas e inexploradas del mundo, ideal para estudiar la interacción entre el modo de deformación y el transporte de fluidos. El Sistema de Falla Liquiñe-Ofqui (SFLO) y el Sistema de Falla de Larga Vida Oblicuo al Arco (SFOA) corresponden a fallas corticales que controlan la tectónica de la ZVS. En este trabajo, dos transectas de meso-escala, que representan a cada sistema, fueron estudiadas mediante mapeo estructural, sondajes eléctricos 2D in situ, petrografía, difracción de rayos X y microscopía electrónica de barrido. El análisis meso- y microestructural sugiere que la exposición del SFLO está dominada por una falla EW cíclica en extensión (±cizalle) en un régimen de rumbo Andersoniano. En cambio, el afloramiento del SFOA registra dos modos de falla de rumbo NW sobreimpuestos: (1) cizalle (±extensión) en un régimen de rumbo Andersoniano; y (2) extensión (±cizalle) en un régimen transtensional no-Andersoniano. Zeolitas ricas en Ca y Ca(-Na), que ocurren principalmente en venas del bloque colgante, indican temperaturas de cristalización entre 110-210°C y paleo-profundidades entre 2.1-3.5 km (asumiendo 60-100°C/km). Los resultados de sondajes eléctricos sugieren una correlación significativa entre la cantidad de zeolitas (por unidad de área) y la conductividad de la roca, mayor en el núcleo y el bloque colgante, comparada a una roca de caja andesítica inalterada. Para campos de estrés dados en la ZVS se construyeron, mediante modelación numérica, diagramas de modo de falla en el espacio λ-σ. En la exposición del SFLO, la falla en extensión (±cizalle) probablemente ocurre entre rangos típicos de factor de presión de poro (0.4≤λV≤0.48). Por el contrario, en el afloramiento del SFOA, el cambio entre falla en cizalle (±extensión) y extensión (±cizalle) necesariamente involucra una sobrepresión de fluidos (λV >50-88% sobre la presión hidrostática). Estos resultados sugieren que las condiciones de estrés de largo plazo favorecen: (1) el almacenamiento de fluidos sobrepresurizados en sistemas hidrotermales espacialmente asociados a las fallas NW del SFOA; y (2) flujo localizado y continuo en conductos verticales asociados a las fallas EW del SFLO. La ocurrencia de sistemas geotermales en la ZVS requiere de zonas de falla regionales que acumulen y transporten fluidos hidrotermales, lo que podría estar dado por las interacciones entre las fallas NW del SFOA y EW del SFLO.
uc
Regulation for dynamic spectrum management.
La administración del espectro radioeléctrico está en el corazón del acceso a Internet móvil e inalámbrico y es por eso de importancia vital para asegurar los procesos más importantes de nuestra sociedad moderna. El incremento en la demanda por nuevos servicios urge a las autoridades de regulación nacional (NRAs) a promover un uso más eficiente del espectro. En este contexto, las tecnologías de acceso dinámico del espectro (DSA) y su relacionado manejo dinámico (DSM) pueden proveer nuevos medios para administrar el espectro, asignando dinámicamente aquel espectro que no está siendoeficientemente utilizado (espacios blancos).Esta tesis combina el modelamiento basado en el agente con la dinámica desistemas para estudiar el manejo del espectro desde el punto de vista de la economía neoinstitucionaldinámica. Es decir, este trabajo combina las teorías económicas de costos de transacción con la evolutiva para analizar al ecosistema de las TICs, que se caracteriza por constantes cambios.DSA disminuye los costos asociados a las transacciones de espectro y ayuda a definir claramente los derechos de uso del espectro. De esta forma, DSA cumple con las condiciones básicas para implementar un esquema Coasiano, llevando al espectro gradualmente a un régimen basado en derechos de propiedad.Apoyándose en los escenarios analizados, esta tesis muestra que las redes de linterior son las más prometedoras para implementar tecnologías DSA. Éstas redes, que transmiten en frecuencias más altas, requieren una menor coordinación para obtener los beneficios mutuos debido a las transacciones de espectro. Por esta razón, esta tesis enfatiza que las reformas a la política de espectro, que persigan permitir transacciones,deberían enfocarse en las frecuencias más altas y en las implementaciones de redes del interior, tales como small-cells, 5G, IoT y servicios M2M. Las autoridades deberían entonces permitir una mayor flexibilidad en la asignación de las frecuencias más altas, ya sea a través de un régimen de derechos de propiedad o a través de un licenciamiento con condiciones flexibles, que permitan a las redes del interior responder con mayor flexibilidad a las volatilidades de la demanda. Más aún, estas reformas deberían llevar a una mayor descentralización del espectro e incentivar una innovación centrada en el usuario final.Finalmente, esta tesis compara a DSA con otros mecanismos alternativos, tales como roaming nacional y multihoming del usuario final (end-user multihoming). Cada uno de estos tres mecanismos puede mejorar la eficiencia económica de las redes móviles.En las redes del interior, mientras end-user multihoming y roaming nacional solucionan problemas de cobertura, DSA puede adicionalmente aumentar la eficiencia solucionando problemas de congestión. En las redes del exterior, national roaming y end-user multihoming pueden solucionar problemas de cobertura.
uc
Role of RCO-1 in the control of circadian gene expression and metabolic compensation of the Neurospora crassa circadian clock.
Circadian clocks are endogenous molecular timekeepers, which organize physiology of organisms with respect to the external world, conferring daily rhythms to a large number of biological processes within the cell. These clocks are present in various organisms, impinging close to 24 hours rhythms in the regulation of gene expression, physiology and behavior. A circadian system can be conceptualized as composed of three parts: input mechanisms, a central oscillator and output pathways. Although a detailed molecular description of the core oscillator is available in model eukaryotes, there is limited information on the mechanisms that allows it to regulate rhythmic processes. Such "output pathways" are the least characterized aspect of circadian systems. The filamentous fungus Neurospora crassa has served for decades as a model organism for the study of circadian biology. In an effort to improve current knowledge of output pathways identifying new components involved in this process, a genetic screen was conducted in this fungus, and we identified potential regulatory candidates, among which we characterized the coKrepressor RCOK1 and its role in regulating circadian biology. RCOK1 is the orthologue of the Saccharomyces cerevisiae transcriptional coK repressor Tup1. Contrary to reports that emerged while developing this thesis, we provide evidence that RCOK1 is not an essencial core-clock component in Neurospora. We evaluated the status of the central clock observing that expression of the negative element of the core oscillator, frequency (frq), remains rhythmic in the absence of RCOK1. Interestingly, in this mutant both amplitude and period length of the oscillations were affected. Importantly, we observed a defect in metabolic compensation in Δrco-1, such that high Kglucose concentrations when RCOK1 is not present significantly decrease period. We identified several proteins involved in chromatin remodeling and TFs that physically interact with RCOK1 and, in fact, the absence of one of the latter group also leads to a change in period. In addition, the analysis of RCOK1 target genes revealed that it plays an important role for their circadian expression. In summary, these results indicate a dual role for RCOK1: although it is not essential for core-clock function, it regulates proper period and amplitude of frq-based expression, where as it is also required in output for the rhythmic regulation of several clock-controlled genes. In addition, in the need to develop sensitive methods to follow FRQ expression of Δrco-1 under solid-media culture conditions this thesis also contributed to resolve key aspects of the clockworks. Thus, with this same methodology, we molecularly confirmed FRQ data that was inferred from bioluminescence studies of a Δfwd-1 strain. Thus, we analyzed FRQ levels in a KO of the F-box protein FWD-1 (a ubiquitin ligase that mediates FRQ proteasomal degradation) and that therefore exhibits decreased FRQ turnover. With this, we provided critical evidence showing that circadian period determination does not relay on FRQ stability, but instead on its degree of posttranslational modifications. In toto, although this thesis had as a main objective to contribute defining output pathways components, not only it helped advancing the latter, but it also shed light on basic core-clock mechanisms related to period determination and also to metabolic compensation.
uc
Análisis de las habilidades y dimensiones medidas en la prueba SIMCE de lenguaje, matemáticas y TIC mediante análisis factorial.
Según el modelo de Howard Gardner, la inteligencia está conformada por múltiples dimensiones, entre las que se encuentran la inteligencia lingüística, lógica, espacial, musical, etc. Por tanto, es natural imaginarse que para medirlas se hagan diferentes pruebas para cada una de ellas. El SIMCE es una prueba realizada a nivel nacional que mide tanto conocimientos como habilidades en el ámbito del lenguaje, matemáticas, ciencias naturales y las tecnologías de la información y comunicación. Sin embargo, ¿es así como se dividen las habilidades en la práctica? La investigación realizada busca determinar cómo se agrupan las habilidades medidas a los alumnos en el SIMCE, con un énfasis en la “alfabetización digital”, a través de un análisis de los resultados individuales del SIMCE de Lenguaje y Matemáticas de 8º básico en el año 2009, y el SIMCE TIC de 2º medio del 2011, sobre alumnos que rindieron las tres mediciones en los períodos indicados. Los resultados del estudio indican que las pruebas tienen un núcleo común, correspondiente a un factor latente predominante, pero que no permite explicar de manera concluyente la existencia de unidimensionalidad entre las tres pruebas. Esto se puede interpretar, en la práctica, como que cada prueba mide una arista que nace desde la misma habilidad central, es decir, el desempeño en una de las pruebas medidas permite tener una visión parcial de la habilidad general del alumno, pero no predice el resultado en las otras.
uc
Funcionamiento diferencial del ítem en la prueba SEPA de lenguaje y matemática según necesidades educativas especiales transitorias.
Esta investigación utiliza un enfoque metodológico mixto para explorar el sesgo, un aspecto de la validez de los resultados, de una prueba estandarizada aplicada a más de 100 establecimientos en Chile en las áreas de lenguaje y matemática en los niveles desde 4° a 8° básico para niños con y sin necesidades educativas especiales transitorias (NEET). Un primer análisis cuantitativo exploró el funcionamiento diferencial del ítem (DIF) obteniéndose similitudes en la habilidad promedio de los grupos y pocos ítems con DIF significativo. Mediante el enfoque cualitativo se exploró la forma en que los colegios operacionalizan la variable integración, sugiriendo que el grupo de niños sin NEET usado en el análisis estadístico puede haber sido, en realidad, un grupo híbrido. Este estudio es relevante porque investiga la validez de una prueba estandarizada para evaluar el aprendizaje de alumnos con y sin NEET en Chile. La integración y el aprendizaje de los alumnos con NEET han sido el foco de políticas educacionales especiales implementadas recientemente involucrando recursos, especialistas y nuevas formas de trabajar en las escuelas de nuestro país.
uc
Selected issues of the Chilean food export business.
La industria alimentaria chilena ha crecido de manera importante y sostenida en las últimas 3 décadas llegando a ser el segundo factor exportador del país luego de la industria minera. Debido a esto, se ve a la industria alimentaria como una vía sustentable y sólida para lograr el desarrollo del país. Sin embargo, Chile no ha crecido en las últimas 3 décadas a ritmo similar al de países que han decidido desarrollar su industria alimentaria y han logrado obtener tasas de crecimiento notablemente mayores a la de Chile, debido principalmente a la disponibilidad para la planta productiva de plataformas científicas y tecnológicas de categoría mundial; lo que se cumple incluso en países comparables en geografía y recursos naturales como es el caso de Nueva Zelanda. La principal hipótesis de esta Tesis propone que el desarrollo de la industria alimentaria exportadora de Chile puede ser potenciado al establecer y utilizar plataformas serias de innovación y desarrollo en el área alimentaria, con cuidado de su clase ejecutiva por brindarle sustentabilidad, en conjunto a una robusta, instruida y capaz institución reguladora por parte del gobierno. El objetivo principal de esta Tesis es la comprensión del negocio exportador de alimentos Chileno y de su sector ejecutivo, en sus aspectos de diseño y creación de nuevos productos, gestión y desarrollo de estrategias para la sustentabilidad de esta industria y de su plataforma exportadora. Como objetivo secundario se busca respuesta de parte de la planta ejecutiva de la industria alimentaria acerca de las siguientes preguntas: ¿Por qué los exportadores chilenos prefieren producir commodities en vez de productos con alto valor agregado? ¿Cómo es que los productores de alimentos definen el perfil de características que determinan sus productos? ¿Cómo, los ejecutivos de la industria alimentaria, desarrollan estrategias para entrar o recobrar mercados objetivos? ¿Cómo se pueden coordinar las firmas chilenas para evitar entrar en una situación de la Tragedia de los Comunes? Se presenta como necesario el lograr desarrollar e implementar herramientas que ayuden en la creación de valor en los productos de la industria alimentaria, donde el diseño de nuevos productos requieren de un modelo y metodologías aplicadas para determinar el valor económico e importancia de los atributos que están presentes (por ejemplo: tamaño, elaboración, envase, etc.) y ayudan a definir, de modo apropiado, un producto de la industria alimentaria que capture el valor generado en el precio final del bien. La literatura sobre el desarrollo de nuevos productos alimentarios concuerda con la importancia de obtener conocimiento de los gustos y preferencias de los consumidores como un tema clave para lograr una mayor tasa de éxito de los nuevos productos que se lanzan al mercado. Sin embargo, la tasa de fracaso en la introducción al mercado de nuevos productos alimentarios sigue siendo alta. En economías con una plataforma desarrollada de grandes cadenas de tiendas de venta o retail chain stores (como ocurre en Chile) se ha creado una barrera de comunicación entre los productores y los consumidores finales. Consecuentemente, el desarrollo de nuevos productos presenta dificultades en estas condiciones debido a que existirán diferencias de información y retroalimentación entre productores y los consumidores. Para investigar este problema, se buscó establecer si los diseñadores de nuevos productos alimentarios valorizan los atributos del producto de modo similar con respecto al valor que le es otorgado efectivamente por el mercado. El desafío se abordó en 2 etapas, en la primera se entrevistó a 3 productores y exportadores de vino, 3 de ciruelas secas y 3 de arándanos frescos y se determinó el perfil de atributos de productos que ellos consideraban relevantes de integrar en sus productos. En una segunda etapa el trabajo desarrollado correspondió a la ejecución de encuestas basadas en las metodologías de Análisis Conjunto y de Kano, se realizaron encuestas a los productores y a 300 consumidores. El contraste de los resultados de ambas partes indicó las visiones coincidentes y diferentes para cada uno de los atributos de los productos que entran al mercado. Los resultados mostraron que algunas de las suposiciones de los productores acerca de los gustos y preferencias de los consumidores podían ser bastante distintas de las reales entregadas por los consumidores. Algunas industrias presentan una estructura de desarrollo y operación en las que el espacio disponible para el ejercicio es limitada, algunos recursos son compartidos entre actores, y existe un alto nivel de interferencia en las operaciones. En estos casos es frecuente observar que está presente una situación de Tragedia de los comunes, caracterizada por Garret Hardin en 1968, una situación en la que los actores agotan los recursos en común y así la industria se ve afectada negativamente y, en algunos casos, terminada. En estos casos, actores que actúan como free riders son los que inician la destructiva operación de sobreexplotar los recursos disponibles, lo cual fuerza al resto de los actores a imitar este comportamiento. La Industria del Salmón en Chile presenta muchos recursos que son compartidos; las operaciones en el mar son interconectadas lo que permite que se dispersen y propaguen pestes y otras amenazas y, de este modo, se deterioran las condiciones de cultivo en el mar. En el año 2007, tras varios años de una sobre-explotación constante y un crecimiento sostenido, esta industria vivió una crisis sanitaria devastadora y sus resultados fueron catastróficos: la producción se detuvo, decenas de miles de personas fueron despedidas, una importante parte de la biomasa se perdió y comenzó una gran crisis financiera. Para poder entender los procesos de los ejecutivos en una situación de los Comunes, este estudio revisó y exploró las dinámicas de la gestión de firmas de la industria alimentaria, específicamente en la Industria del Salmón en Chile bajo la mirada de responsabilidad ambiental, una vuelta al re-compromiso moral (moral reengagement) y justicia reparadora. Se obtuvo y recopiló información estratégica clave por medio de entrevistas en profundidad (in-depth) con la gerencia y ejecutivos claves de esta industria para así analizar el comportamiento gerencial en cuanto a los temas ambientales y de compromiso moral con estándares de producción de la industria. Los resultados sugieren un cambio en el comportamiento gerencial de las firmas y también un cambio en el rol del gobierno en establecer los estándares de la industria y hacerlos cumplir. La gestión ambiental responsable (ERM) alcanzada a través de una vuelta al compromiso moral y un comportamiento de justicia reparadora es la clave para que la industria del salmón en Chile pueda aumentar su competitividad internacional y así su sustentabilidad; A partir de esto, se debe establecer y hacer cumplir un nuevo orden que no permita la aparición de free riders que imponen estándares de un bajo nivel sanitario. Se presentan lecciones para gerentes y entidades regulatorias. Durante la crisis de la industria del salmón en Chile mencionada anteriormente, los productores de firmas Chilenas no fueron capaces de continuar abasteciendo los Estados Unidos de América, su mercado más importante, permitiendo así que productores Noruegos y Canadienses tomaran su lugar durante algunos años. Finalmente, los productores Chilenos pudieron recuperar y restablecer su capacidad productiva, teniendo que enfrentar el desafío de recuperar sus mercados perdidos. Literatura reciente en estrategia internacional relacionada a la re-entrada a un mercado (market reentry) y el reposicionamiento de productos (repositioning) se enfoca en naciones exportadoras desarrolladas que intentan volver a entrar en mercados en desarrollo o subdesarrolladas, y no en sentido contrario. Este estudio revisa y explora la estrategia internacional de re-entrada a un mercado en un contexto de una nación emergente exportadora. Información estratégica fue obtenida por medio de entrevistas en profundidad realizadas a la gerencia y ejecutivos claves de la industria del salmón en Chile con el propósito de estudiar y comprender la re-entrada de exportaciones en economías desarrolladas. Los resultados indican que los factores claves en el éxito de la re-entrada de productores chilenos de salmón en sus mercados objetivos son el precio y la disponibilidad. Se presentan conclusiones para ejecutivos y entes reguladores. Las empresas chilenas de la industria alimentaria actualmente no cuentan ni utilizan apoyo científico y tecnológico para sus necesidades de investigación y desarrollo (R&D) de modo comparable a empresas similares en tamaño y rubro presentes en otras potencias alimentarias y esto no se debe a una falta de recursos de capital sino que por la decisión y estrategia de desarrollo de los empresarios; para suplir esta carencia y necesidad es que asociaciones gremiales o el estado deben proveer una plataforma de investigación y desarrollo de bajo costo y fácil acceso, en especial para empresas de perfil innovador, independiente del tamaño de éstas. Así también se debe contar con organizaciones de regulación y fiscalización ad-hoc para cada industria y priorizando de modo urgente la industria del salmón cultivado. Como resumen, los productores deciden el perfil de los nuevos productos que lanzan al mercado en base a suposiciones sobre las preferencias de los consumidores y a la observación del comportamiento comercial de productos similares en el mercado. La gerencia chilena prefiere producir productos básicos (commodities) en vez de productos de mayor valor agregado debido a que carecen de una plataforma comercial exportadora que permita destinar exitosamente la gran diversidad de productos que se podrían crear, declarando que "mientras más simple, mejor." Los ejecutivos de la industria alimentaria exportadora escogen y desarrollan estrategias para entrar y recuperar mercados repitiendo su estrategia y posicionamiento. Las firmas productoras chilenas no se coordinarán ante una situación de Tragedia de los Comunes; entonces, una asociación de productores en conjunto al respaldo de una autoridad gubernamental debe establecer un conjunto de leyes y normas, y hacerlas cumplir para evitar que las crisis sanitarias y sus devastadoras consecuencias vuelvan a aparecer. Dado lo anterior, la industria Chilena alimentaria de exportación debiera de beneficiarse con el establecimiento de plataformas especialmente dedicadas al desarrollo de alimentos, con una clase ejecutiva pendiente y activa en el camino hacia la sustentabilidad, y con una robusta y seria plataforma gubernamental que fiscalice y sea una guía para la industria.
uc
Ausencia del lugar : desplazamiento, migración, nostalgia del hogar.
La memoria de obra titulada Ausencia del lugar es una investigación desde la práctica artística que reflexiona acerca de la migración constante en Latinoamérica, específicamente en el territorio chileno, que a la actualidad acoge a miles de migrantes. En el transcurso de esta investigación se han encontrado cuatro conceptos esenciales : acción migrante, desplazamiento-viaje, lugar y transculturación, conceptos que se vincularán desde la migración de poblaciones latinas hacia Chile, haciendo hincapié en los migrantes colombianos. Esta memoria está dividida en dos partes, en la primera parte se realiza una reflexión de teóricos y de exhibiciones de artistas que dialogan en torno a la migración. En la segunda parte se expone el proceso de creación basado en la investigación de conceptos esenciales y vivencias del ser migrante.
uc
Superficies, Marcas y territorio : reflexiones acerca del paisaje y el cuerpo en la pintura.
La presente memoria, constituye una reflexión acerca del desarrollo de un procesode obra cuya problemática principal, se basa en la relación entre los conceptos de paisaje y cuerpo, instalados en tanto signos, mediante la práctica de la pintura, y considerando lascargas simbólicas, políticas y visuales que se encuentran implícitas en ellos.A partir de la definición de conceptos tales como territorio y paisaje, el texto intentaaproximarse a las lecturas posibles de la obra, estableciendo relaciones entre su cargahistórica, su materialidad y los procedimientos implícitos en la ejecución de sussoluciones.Este escrito, toma como base, los datos que involucran el período de formación, yciertos antecedentes de la biografía y la memoria personal, para elaborar unaaproximación a los conceptos antes mencionados, desde la ejecución del trabajo pictórico,cuya lectura ha sido ordenada, en base a categorías temáticas, problemáticas y visuales, como un modo (entre otros posibles), de presentar los factores que constituyen el cuerpode obra y el presente texto.
uc
Puentes entre simulación y teatralidad: aproximación teatral a las prácticas de simulación clínica con pacientes simulados para la formación médica.
La siguiente investigación se aproxima desde una perspectiva teatral a un grupo de prácticas de simulación clínica con pacientes simulados en su mayoría actores que representan casos clínicos para escenarios pedagógicos orientadas a la formación clínica de estudiantes de medicina, desarrolladas en el marco de la Escuela de Medicina de la Pontificia Universidad Católica de Chile. En primera instancia, el estudio se interroga en un nivel teórico-crítico por las posibles relaciones entre teatralidad, simulación y educación médica en el contexto de las prácticas mencionadas. Como resultado de esta discusión, se propone abordar las prácticas pedagógicas en analogía con una escenificación, tomando como caso de estudio un curso particular de la malla curricular de medicina. A través de la observación de las prácticas y la entrevista a sus protagonistas, la investigación explora, en un sentido general, la conformación del trabajo en Pacientes Simulados en la Escuela de Medicina UC, y en un sentido particular, las dimensiones escénicas que se dejan entrever en el desarrollo de las prácticas en cuestión. El esfuerzo del presente estudio se dirige tanto a ofrecer a la educación médica un punto de vista particular sobre el desarrollo de la simulación clínica con pacientes simulados, como a estimular la apertura de la teoría teatral hacia campos poco explorados donde el teatro y la teatralidad se encuentran desarrollando funciones específicas.
uc
Eviscerados, extrañamiento por metonimia y dramaturgia escénica en la construcción de un texto teatral.
La siguiente memoria de obra se centra en el proceso de creación de Eviscerados, texto dramatúrgico basado en una historia real : el conflicto de la Caleta sudamericana de Valparaíso, Chile. El dispositivo artístico se desarrolló en la búsqueda de extrañar la palabra a través del uso de la metonimia, como un camino para conseguir la dislocación del referente. El recurso retórico forma parte tanto de la estética como de la perspectiva poética. El texto teatral se construyó en un trabajo conjunto con actores, utilizando el tiempo-espacio del ensayo para explorar, por tanto la metodología queda inscrita dentro de lo que hoy llamamos dramaturgia escénica.
uc
Pilares: procesos de recolección y apropiación artística
La presente Memoria de Obra da cuenta de los procesos creativos y de producción de obra de una serie de instalaciones tituladas Pilares. Estas problematizan la noción de residuo mediante la intervención de diversos espacios con material de desecho recolectado. Se desarrollan las nociones de recolección y apropiación artística tenidas como ejes fundantes tanto de los procesos de trabajo como de las instalaciones resultantes. Ambos conceptos convocan dos experiencias vitales de ser en el mundo : El caminar y el habitar.
uc
Insulin-like growth factor 2 promotes ovarian cancer growth and resistance to traditional chemotherapy.
Cáncer de ovario sigue siendo la enfermedad ginecológica más mortal en el mundo con relativamente pocos avances en su tratamiento. El conocimiento limitado de sus orígenes moleculares y la ausencia de síntomas claros llevan a un diagnóstico tardío que resulta en una enfermedad avanzada y un mal pronóstico en los primeros cinco años. Aunque la cirugía inicial y el tratamiento con quimioterapia reducen la patología, a menudo la enfermedad recurre y frecuentemente se desarrolla resistencia a la quimioterapia. La vía de señalización del factor de crecimiento semejante a la insulina (IGF) esta involucrada con varios tipos de cáncer y la expresión aumentada de IGF2 podría estar asociada con baja supervivencia en mujeres con cáncer de ovario. En este estudio, buscamos determinar el rol de IGF2 en el crecimiento y quimioresistencia de cáncer de ovario. Observamos que Taxol, una quimioterapia estándar típicamente administrada a pacientes con cáncer de ovario, induce el aumento en la expresión de IGF2 en dos líneas celulares de cáncer de ovario. Similarmente, líneas celulares resistentes a múltiples agentes estabilizantes de microtubulos también mostraron un aumento en los niveles de expresión de IGF2. La inhibición de la vía de señalización de IGF con un inhibidor de molécula pequeña o con el knockdown del mRNA de IGF2 sensibilizaron las células a Taxol, tanto en cultivo celular como en xenografts. Inmunohistoquímica de muestras de cáncer de ovario mostraron una correlación significativa entre una alta expresión de IGF2, estado avanzado, grado del tumor y disminuida supervivencia libre de enfermedad. Análisis de los datos de mRNA de The Genome Cancer Atlas de cáncer de ovario seroso también reveló una correlación significativa entre altos niveles de mRNA de IGF2 y la reducida supervivencia libre de progresión y general. Cuando IGF2 fue sobreexpresado constitutivamente en una línea celular de cáncer de ovario, se observó un aumento en el crecimiento de xenograft comparado con la línea celular parental control transfectada. Junto con esta aumento en crecimiento, había un aumento en la presencia de neutrófilos infiltrantes en los xenografts de IGF2-sobreexpresado. Además, observamos que una línea celular humana de precursor neutrofílico migraba significativamente mas hacia el medio condicionado de la línea HEY con sobreexpresión de IGF2 in vitro. Estos resultados sugieren un rol importante de IGF2 en el crecimiento tumoral y en la respuesta a quimioterapia estándar en cáncer de ovario, así como un potencial nuevo blanco para el tratamiento preciso de ciertos tumores de ovario.
uc
Representaciones e imaginario del medio ambiente en la publicidad de empresas en Chile: una aproximación desde avisos en diarios.
Esta investigación identifica y caracteriza las representaciones del imaginariosocial del medio ambiente en la publicidad de empresas en Chile, a partir de avisos publicados en 2014 en los cuatro principales diarios de circulación nacional (El Mercurio, Las Últimas Noticias, La Tercera y La Cuarta).Para contextualizar el tema y operacionalizar variables se ofrece un marcoteórico y metodológico original para analizar la representación en el discurso y explicar su vínculo con los imaginarios sociales. Luego se sistematizan conceptos sobre la problemática ambiental y se formula una caracterización del imaginario social contemporáneo del medio ambiente. Finalmente se reflexiona sobre la publicidad y su rol cultural, valorándola como parte del discurso social.A partir de una muestra probabilística y un diseño metodológico mixto, primerose reconocen y describen tendencias y prácticas de representación publicitaria delimaginario ambiental, desde un análisis de contenido que concluye con la identificación de los casos con las tematizaciones más profundas. Luego, mediante un análisis semiótico-enunciativo, se profundiza en las estrategias discursivas de dichos avisos y se reflexiona sobre el modo en que los anunciantes dialogan con el tópico, se presentan en sus textos y representan a sus potenciales consumidores.En los resultados se advierte que apenas el 3,054% de los anuncios de empresasen Chile tematizan, en cualquier nivel, al medio ambiente. Dicho diálogo con elimaginario se materializa casi totalmente desde valores asociados a la acción social, especialmente mediante alusiones a la gestión ambiental, la autoexpresión y el (auto) cuidado de los consumidores. Los avisadores se representan a sí mismos y a sus eventuales consumidores desde un ambientalismo moderado, es decir, dialogando con el paradigma del desarrollo sostenible y la responsabilidad social.
uc
La ciencia conversa con la escuela : propuesta de capacitación para estudiantes de doctorado interesados en comunicar la ciencia a niños y niñas entre 1° y 4° año de educación básica en Chile.
Este trabajo es una propuesta de capacitación en comunicación de la ciencia para estudiantes de doctorado de cualquier disciplina con el objetivo de que puedan establecer un diálogo cercano y significativo con niñas y niños entre seis y diez años.En base a la identificación de las necesidades de los científicos, a una revisión de experiencias internacionales y a las recomendaciones de expertos en educación científica y/o divulgación, se construyó un modelo de capacitación con cinco módulos secuenciales, pero flexibles, que pueden variar según las necesidades de los asistentes o el análisis de los relatores. Esta iniciativa busca contribuir al intercambio entre ciencia y sociedad desde las primeras etapas de escolarización, no sólo porque es importante que la ciencia y la tecnología sean un horizonte posible para las nuevas generaciones, sino también porque este diálogo contribuye al establecimiento de sociedades más democráticas.
uc
Aprovechamiento educomunicacional de un dispositivo de enseñanza-aprendizaje virtual (foro) para el desarrollo de la escritura académica : de la discusión a la colaboración.
El Programa de Lectura y Escritura Académicas (PLEA) de la Pontificia Universidad Católica de Chile ofrece cursos virtuales de escritura académica que son optativos para los estudiantes de pregrado. Una de las actividades contempladas en estos cursos consiste en participar en foros asincrónicos en los que los participantes deben dialogar entre ellos. Durante el año 2015, estas actividades pasaron de apuntar a la discusión, en el primer semestre (implementación I), a plantearse como verdaderas actividades colaborativas en que los estudiantes debían trabajar conjuntamente en torno a una meta común, en el segundo semestre (implementación II). Actualmente existe numerosa evidencia del impacto que tiene participar en foros colaborativos sobre el aprendizaje de los estudiantes, lo que se ve respaldado desde la tradición cognitivo- constructivista y sociocultural del aprendizaje. Sin embargo, no se ha observado de qué manera pueden aportar los foros virtuales colaborativos en el desarrollo de la escritura académica particularmente. El presente proyecto pretende contribuir a llenar esta brecha mediante la evaluación de un foro de discusión y un foro de colaboración para determinar en qué medida cada dispositivo logró cumplir ciertos objetivos de aprendizaje relacionados con el desarrollo de la escritura, con el propósito de sacar conclusiones relevantes para la próxima implementación de los cursos. Para ello, se aplicó una pauta de evaluación a una muestra de cada tipo de foros y se realizaron dos focus groups con el equipo docente que imparte los cursos. Los resultados obtenidos a partir de ambos procedimientos muestran que en la segunda implementación se lograron en mayor medida los objetivos de aprendizaje planteados para la actividad. La modalidad de trabajo colaborativo con entrega de un producto grupal, la conformación de grupos pequeños y la ausencia de la moderación de las docentes son los principales cambios a los que se atribuyen los mejores resultados, por lo que forman parte de las recomendaciones incluidas en este proyecto. Las debilidades que se mantuvieron en ambas implementaciones del foro permiten desprender algunas proyecciones que requieren de un estudio más acabado en futuras investigaciones.
uc
Comunicación, educación y salud: estudio cualitativo de la experiencia usuaria de adultos mayores en atención ambulatoria en el Complejo Asistencial Dr. Sótero del Río.
Esta investigación se basa en el análisis de la experiencia usuaria que tienen los adultos mayores que se atienden en el área ambulatoria del Complejo Asistencial Dr. Sótero delRío, establecimiento de salud público de alta complejidad de la comuna de Puente Alto. El objetivo es analizar esta experiencia para conocer cuál es el rol de los actores y qué elementos comunicacionales intervienen, con el fin de proponer acciones educomunicativas que permitan dar respuesta a las necesidades de atención que tiene la población de tercera edad y así contribuir a mejorar dicha experiencia usuaria. El proyecto se inserta en el área de Comunicación y Salud y específicamente en el marco del proyecto Fondef, Ca13i10210 “Diseño de Sistema de Comunicación de Salud para Adultos Mayores y sus redes de apoyo” (2014-2015) desarrollado por la Pontificia Universidad Católica de Chile. La metodología se centra en entrevistas a informantes claves que otorgan datos relevantes sobre cómo es la atención a los adultos mayores; la observación participante en dos unidades del área ambulatoria (Farmacia y Toma de Muestra); cuestionario a una muestra de adultos mayores y entrevistas a un grupo de ellos. Las variables de análisis de los instrumentos se determinan a través del análisis de la experiencia usuaria y de las entrevistas a los informantes claves. Los principales resultados de esta investigación hacen referencia a la necesidad de contar con funcionarios capacitados y especialistas en la atención al adulto mayor, ya que uno delos temas relevantes que aluden los usuarios con respecto a su atención es el trato, es decir,que creen que no siempre reciben un trato acorde a sus necesidades. No existe un trato preferencial por tratarse de un paciente adulto, sino que la atención dependerá de la voluntad, estado de ánimo y empatía de quienes los atiendan. Por lo anterior, se propone la creación e implementación de un protocolo de atención en el área ambulatoria del CASR que incluya este tipo de elementos, ya que actualmente el establecimiento no cuenta con uno de ellos en el área ambulatoria, sino más bien para pacientes adultos mayores hospitalizados.
uc
Estudiantes de la UC conectados: análisis de sus publicaciones en facebook durante las movilizaciones.
En esta investigación se analizaron las publicaciones presentes en los espacios de Facebook creados por los estudiantes de la Pontificia Universidad Católica de Chile durante el año 2011 como una práctica de comunicación relevante entre jóvenes conectados a través de internet. De modo más específico, se seleccionó estudiar las entradas durante las dos primeras semanas del mes de agosto de dicho año en una página, un perfil y un grupo de la red social. El objetivo fue comprender cuán heterogéneos son los usos que una misma comunidad de estudiantes le dio a la red social en un contexto de movilización. Se consideró que la comprensión de la apropiación tecnológica exige explorar el contexto y el curso de los acontecimientos que enmarcaron dicho uso. Por lo que se combino una perspectiva histórica, especialidad de pregrado del tesista, y una de comunicación-educación. Se concluyó que los usuario son diversos en sus opiniones sobre el movimiento estudiantil y sus objetivos y que la forma en que utilizaron la red social variaba según el curso que toman los acontecimientos. Se estimó que el caso de estudio es relevante pues los estudiantes de la UC jugaron un rol importante en el movimiento estudiantil del año 2011, reconocido por sus compañeros de otras universidades y por los medios de comunicación.
uc
Diseño conceptual de estrategia de comunicación educativa para la motivación de la enseñanza de la eficiencia energética en Liceo Técnico-Profesional Baldomero Lillo, San Bernardo.
Nuestro país enfrenta un gran desafío en materia de recursos energéticos. Por una parte se ve presionado por las exigencias del crecimiento económico y la aspiración de convertirse en un país desarrollado, y por otra parte, está la presión de la ciudadanía que en los últimos años se ha manifestado a través de movimientos sociales en contra de la instalación de centrales hidroeléctricas y termoeléctricas. Debido a este panorama, en los últimos años surge con más fuerza el concepto de eficiencia energética, el que se refiere a obtener los mismos productos con el uso de menor energía. Así, han surgido tecnologías y servicios que buscan que la eficiencia energética esté presente en las prácticas cotidianas de los chilenos y en los procesos industriales. Por esta razón, la Agencia Chilena de Eficiencia Energética (AChEE) mantiene desde el año 2012 un Programa Educativo Integral sobre Eficiencia Energética para Establecimientos Educacionales (educación inicial y básica), que el año 2013 comenzó con un piloto para la enseñanza media. La integración de la modalidad enseñanza media Técnico-Profesional se hizo con el propósito de preparar a los estudiantes en las demandas actuales del mercado. Los materiales creados por la Agencia (manuales, guías y juegos) se han tomado como base de este proyecto de grado. A partir de ellos, se obtendrán los contenidos que se incluirán en los medios y productos contemplados en esta propuesta.En este proyecto de grado se desarrolla el proceso de Diseño Conceptual de una Estrategia de Comunicación Educativa para la motivación de la Enseñanza de la Eficiencia Energética a estudiantes de la modalidad Técnico-Profesional del Centro Educacional Baldomero Lillo, uno de los participantes del Programa Educativo de la AChEE. El Diseño Conceptual contempla una estrategia de comunicación educativa para abordar la enseñanza de la Eficiencia Energética a través de una plataforma multimedios. El desarrollo completo de un proyecto de este tipo contempla las etapas de Diseño Conceptual, Diseño Experimental, Diseño Operacional y la etapa de Implementación. Para efectos de este proyecto de grado, solo se desarrollará la Etapa de Diseño Conceptual, es decir -a partir del análisis educativo, del análisis de los actores involucrados, pasando por el árbol de problemas y soluciones-, se propondrá un conjunto de productos, servicios, estrategias e indicadores (matriz de marco lógico) para entregar contenidos en eficiencia energética a estudiantes de la modalidad Técnico-Profesional; diseño conceptual que considere las características e intereses para el aprendizaje de los estudiantes.
uc
La Catrina al patio 29 : estrategias performativas de conmemoración en espacios de memoria chilena.
En la presente memoria se muestra la investigación que se inscribe dentro de la metodología PAR, que estudia la relación de la Catrina (personaje icono de la muerte en la cultura mexicana) con el Patio 29 (Monumento Histórico Nacional de Chile, considerado Patrimonio del dolor debido a los cuerpos sepultados como N.N. durante el periodo de Dictadura Militar). Las preguntas iniciales de este proyecto de creación son: ¿Cómo entran en relación las prácticas corporales y festivas del personaje La Catrina con el contexto actual de memoria que sostiene el Patio 29? ¿Qué características tendría que tener una práctica artística para lograr poner en diálogo ambas visiones? Estas preguntas llevaron a formular el siguiente objetivo general : Desarrollar una serie de prácticas artísticas en y con el espacio, que relacionen las prácticas corporales y festivas de la tradicional Catrina mexicana con el contexto actual de memoria que sostiene el espacio Patio 29, para que ambas dimensiones de la muerte (muerte festiva-tradicional en México/ memoria de la muerte por dictadura en Chile) logren transformarse en una nueva práctica artística de memoria y conmemoración. Fue así como durante el presente año realicé 5 Intervenciones en el Patio 29 y los espacios aledaños, ensayando distintas estrategias de relación de la Catrina con el Patio 29. El proyecto finalizó con una última intervención que se inició en el Patio 29 con el personaje de la Catrina y culminó en el Museo de la Memoria, conmigo despojada de la representación de la Catrina. El aporte de este proyecto de creación es visibilizar y concientizar sobre los actos de conmemoración de los muertos desde diversas perspectivas culturales, exponiendo desde la práctica artística posibles caminos de sanación.
uc
Low tech is the new povera : tecnología desuso y repetición.
El presente texto constituye el conjunto de reflexiones en torno a la relación entre la utilización de bajas tecnologías dentro de la práctica de artistas mediales nacionales y las sensibilidades halladas en el arte povera italiano de finales de la década del 60. Dicha relación establecerá, al mismo tiempo, el marco teórico desde el que se sustentará, en primera instancia, la producción de "Low tech is the new povera" tomando ambas sensibilidades y conciliándolas con los intereses artísticos particulares del autor, dando como resultado un conjunto de trabajos cuyo énfasis estará enfocado en la producción de una obra final, más que en su proceso en sí.
uc
Radio escolar digital y su aporte al desarrollo de competencias comunicacionales y habilidades del siglo 21 para estudiantes de enseñanza media del Colegio Altazor.
Dada la importancia que tiene el desarrollo de competencias comunicacionales y la necesidad de desarrollar habilidades acordes al siglo en el que los adolescentes están viviendo, la radio escolar digital adquiere relevancia como un medio a través del cual se pueden mejorar los aprendizajes de los estudiantes. En este proyecto se revisan las potencialidades que esta herramienta aporta a los colegios en los que se implementa en la era de las tecnologías, la relación de la radio escolar digital con los planes y programas de lenguaje y comunicación y la contribución al desarrollo de habilidades como la creatividad, el pensamiento crítico y el aprendizaje colaborativo.
uc
Análisis del daño observado a pasarelas peatonales durante el terremoto del Maule del 27/02/2010.
El objetivo de esta tesis es realizar un estudio detallado del comportamiento de las pasarelas peatonales durante el terremoto de Chile del 2010 que permita, a futuro, hacer recomendaciones a la norma de diseño. Para lograr este objetivo este estudio se divide en dos partes. La primera, hacer una base de datos con el detalle de los daños sufridos por las pasarelas durante el terremoto, para luego estudiarla y obtener las variables críticas que determinaron el comportamiento de las pasarelas durante el sismo. La segunda parte consiste en el desarrollo de un modelo no lineal en el programa SAP2000 que pueda replicar la falla observada en las pasarelas. Para lograr esto, se realizaron mediciones en terreno de las propiedades dinámicas elásticas de una pasarela, para calibrar el modelo y que se adaptara a la realidad. Luego se hizo un análisis tiempo historia no lineal utilizando registros del terremoto del 2010. Las principal variable crítica que determinó el comportamiento de las pasarelas fue su estructuración, más que la ubicación o el suelo. El modelo pudo replicar el daño observado, que se debió principalmente a que en la dirección longitudinal las vigas no están restringidas al movimiento.
uc
Podcast educativo como estrategia didáctica para la comunicación y enseñanza de la ecología: un proyecto para el colegio Compañía María Seminario de Santiago.
Las ciencias ecológicas son fundamentales para la formación de los ciudadanos, sin embargo el desinterés por esta disciplina y otras ciencias en los estudiantes del sistema escolar, sumado a la incapacidad de profundizar los contenidos a tratar en la escuela y la poca comunicación entre el sector científico y el educativo, generan una sociedad que no está consciente en su relación con el medio ambiente y su papel en materias de conservación y degradación del entorno. La siguiente propuesta busca desarrollar una estrategia educomunicativa para la profundización de contenidos ecológicos, a través de una herramienta medial del tipo podcast educativo que se adecúa al contexto curricular de la enseñanza del subsector de biología, según los planes y programas educacionales del Ministerio de Educación del Estado de Chile. La audiencia objetiva serán profesores de biología y estudiantes pertenecientes a segundo año medio del colegio particular Compañía María Seminario de la comuna de Providencia, en la ciudad de Santiago. La estrategia medial consta de dos tipos de episodios podcast: uno para uso en aula de corta duración, que pretende apoyar la apertura o cierre de una clase lectiva, y otro para uso complementario de larga duración, que tiene la finalidad de profundizar las habilidades cognitivas y contenidos enmarcados en un proceso de enseñanza. La unidad que se abordará en los podcast educativos, será la que corresponde a Dinámica de poblaciones y comunidades biológicas enmarcada en el área temática denominada como Organismo y ambiente del currículum escolar chileno.
uc
El profesor como mediador intercultural en la sala de clases : diseño de un programa de desarrollo de competencias interculturales orientado a profesores de colegios anfitriones participantes de programas de AFS Chile.
El proyecto fortalece la figura del profesor como mediador intercultural, dentro de los programas de intercambio escolar desarrollados por la organización internacional AFS Chile (www.afs.cl). El objetivo del proyecto es promover el desarrollo de competencias interculturales en profesores de colegios anfitriones del programa de AFS mediante el diseño de un programa de formación que los perfile como mediadores interculturales efectivos al interior de las salas de clases. El programa de formación combina un ambiente de aprendizaje presencial con uno digital. La propuesta destaca tanto el potencial de aprendizaje para los docentes, como su potencial multiplicador al fomentar las competencias interculturales de sus estudiantes, habilidades tan requeridas en una sociedad cada día más diversa y global como la chilena. Esta propuesta parte del reconocimiento de las dificultades que los docentes enfrentan en la sala de clases para integrar a un estudiante extranjero a una clase regular. Dificultades que surgen producto de la ausencia de un trabajo anterior de AFS Chile con los establecimientos educacionales y los docentes, y la falta de contenidos y metodologías en educación intercultural en la formación inicial docente chilena. Con objeto de justificar y fundamentar lo propuesto se recurre a la literatura especializada en educación intercultural y a la documentación interna de AFS, que surge como mandante inicial. Se acompaña de 4 entrevistas a profesores de colegios anfitriones y una entrevista al Director Nacional de la organización, cuyas opiniones ayudan a validar y corregir tanto la problemática como la propuesta que se diseña.
uc
Fecundidad : su concepto en gloria : una estética teológica de Hans Urs von Balthasar.
El presente capítulo, sin duda, remonta al origen pneumatológico de la fecundidad, dejando en claro el pensamiento de Hans Urs von Balthasar en lo que respecta a dicha fecundidad, al interior de la Iglesia, de los grandes carismas misioneros que en ella irrumpen y se derraman en discursos inspirados por el Espíritu Santo, teniendo su cédula humana más densa en el amor humano en el matrimonio, pero centrado en Jesús el Cristo, posibilitada por la fe de María en cuanto obrado por el Espíritu Santo. Sin embargo, en definitiva, es el envío del Espíritu Santo a partir de la partida de Jesús Crucificado al Padre, que se constituye en fuente inagotable de la fecundidad aquí en la tierra, siempre proyectándose a la vida eterna con mayor desemejanza con respecto a la semejanza experimentada.El presente capítulo, sin duda, remonta al origen pneumatológico de la fecundidad, dejando en claro el pensamiento de Hans Urs von Balthasar en lo que respecta a dicha fecundidad, al interior de la Iglesia, de los grandes carismas misioneros que en ella irrumpen y se derraman en discursos inspirados por el Espíritu Santo, teniendo su cédula humana más densa en el amor humano en el matrimonio, pero centrado en Jesús el Cristo, posibilitada por la fe de María en cuanto obrado por el Espíritu Santo. Sin embargo, en definitiva, es el envío del Espíritu Santo a partir de la partida de Jesús Crucificado al Padre, que se constituye en fuente inagotable de la fecundidad aquí en la tierra, siempre proyectándose a la vida eterna con mayor desemejanza con respecto a la semejanza experimentada.El presente capítulo, sin duda, remonta al origen pneumatológico de la fecundidad, dejando en claro el pensamiento de Hans Urs von Balthasar en lo que respecta a dicha fecundidad, al interior de la Iglesia, de los grandes carismas misioneros que en ella irrumpen y se derraman en discursos inspirados por el Espíritu Santo, teniendo su cédula humana más densa en el amor humano en el matrimonio, pero centrado en Jesús el Cristo, posibilitada por la fe de María en cuanto obrado por el Espíritu Santo. Sin embargo, en definitiva, es el envío del Espíritu Santo a partir de la partida de Jesús Crucificado al Padre, que se constituye en fuente inagotable de la fecundidad aquí en la tierra, siempre proyectándose a la vida eterna con mayor desemejanza con respecto a la semejanza experimentada.El presente capítulo, sin duda, remonta al origen pneumatológico de la fecundidad, dejando en claro el pensamiento de Hans Urs von Balthasar en lo que respecta a dicha fecundidad, al interior de la Iglesia, de los grandes carismas misioneros que en ella irrumpen y se derraman en discursos inspirados por el Espíritu Santo, teniendo su cédula humana más densa en el amor humano en el matrimonio, pero centrado en Jesús el Cristo, posibilitada por la fe de María en cuanto obrado por el Espíritu Santo. Sin embargo, en definitiva, es el envío del Espíritu Santo a partir de la partida de Jesús Crucificado al Padre, que se constituye en fuente inagotable de la fecundidad aquí en la tierra, siempre proyectándose a la vida eterna con mayor desemejanza con respecto a la semejanza experimentada.El presente capítulo, sin duda, remonta al origen pneumatológico de la fecundidad, dejando en claro el pensamiento de Hans Urs von Balthasar en lo que respecta a dicha fecundidad, al interior de la Iglesia, de los grandes carismas misioneros que en ella irrumpen y se derraman en discursos inspirados por el Espíritu Santo, teniendo su cédula humana más densa en el amor humano en el matrimonio, pero centrado en Jesús el Cristo, posibilitada por la fe de María en cuanto obrado por el Espíritu Santo. Sin embargo, en definitiva, es el envío del Espíritu Santo a partir de la partida de Jesús Crucificado al Padre, que se constituye en fuente inagotable de la fecundidad aquí en la tierra, siempre proyectándose a la vida eterna con mayor desemejanza con respecto a la semejanza experimentada.
uc
Overlooked topics in building codes : floor accelerations and accidental torsion.
En esta investigación se analizan dos temas relacionados con la respuesta sísmica de estructuras que aún no han sido analizados con suficiente detalle: la demanda de aceleración en Componentes No Estructurales (CNEs) y la torsión accidental en AnálisisTiempo Historia No-Lineal (ATHNL). A pesar de que estos temas han sido objeto de investigaciones de otros autores su inclusión en los códigos de diseño sísmico modernos,en particular en ASCE 7-10, es demasiado simplificada. Las aceleraciones en CNEs se estudian en dos secciones. En la primera sección se examina el nivel de detalle requerido en la modelación estructural para evaluar correctamente las aceleraciones en CNEs, y en la segunda sección se examinan las diferencias entreaceleraciones en dos sistemas estructurales distintos. En la primera sección se encontró que las aceleraciones en CNEs son generalmente menores cuando se considera el comportamiento inelástico de la estructura, sobre todo cuando el período del CNE es iguala uno de los períodos modales de la estructura. También se encontró que la parte de la estructura que sólo soporta cargas de gravedad no influye significativamente en las aceleraciones en CNEs. En la segunda sección se encontró que las especificaciones de ASCE 7-10 son muy conservadoras para CNEs situados en los pisos superiores de estructuras de múltiples pisos. También se encontró que distintos sistemas estructurales resultan en aceleraciones en CNEs cualitativamente similares entre sí, y cuantitativamente distintas en grado significativo sólo cuando la respuesta estructural es inelástica. En la segunda parte de esta disertación se estudia la influencia de la torsión accidental en ATHNL. Se examina la influencia de factores tales como el nivel de irregularidad torsional, la naturaleza bidireccional de la excitación sísmica, y los efectos de segundo orden (P-Delta). Se encontró que la torsión accidental influye significativamente en la respuesta sísmica no lineal de estructuras, y que la evaluación realista de su influencia requiere modelar correctamente los efectos de segundo orden y la acción simultánea de ambas componentes horizontales de registros sísmicos.
uc
El efecto de tener una familia monoparental en la deserción escolar : evidencia para Chile
En este trabajo se investigará el efecto de pertenecer a una familia monoparental sobre la deserción escolar. Para ello se utiliza el panel de la Encuesta de Protección Social con datos de Chile entre 2002 y 2009, y se analiza la deserción jóvenes hasta los 18 años que pasaron de tener una estructura familiar biparental a tener una monoparental, es decir, que viven en hogares que comenzaron con un(a) jefe(a) de hogar y una pareja, y luego pasaron a tener solamente un(a) jefe(a). El cambio de una estructura familiar a otra puede deberse tanto a separación de los padres como a viudez de alguno de los cónyuges. Los hallazgos de este estudio indican que pasar a tener una familia monoparental aumenta la probabilidad de desertar de los estudios en 4,13 puntos porcentuales si controlamos por edad, número de personas del hogar, sexo del individuo, sexo del jefe de hogar e ingresos per cápita. Con respecto a las variables de control, podemos decir que la edad y el hecho ser hombre se asocian de manera positiva con la probabilidad de deserción escolar, mientras que los ingresos per cápita del hogar se asocian de manera negativa con la probabilidad de desertar. Sin embargo, la magnitud de esta última correlación es muy pequeña.
uc
Midiendo el efecto de la maternidad adolescente sobre la educación : evidencia para Chile.
El objetivo principal de este trabajo es estimar el efecto causal de la maternidad adolescente sobre la educación en Chile. Como la relación entre maternidad y escolaridad es endógena, se estima utilizando la metodología de variables instrumentales. El instrumento utilizado es la disponibilidad de la píldora del día después en las distintas comunas de Chile (anticonceptivo de emergencia). Los resultados del estudio brindan evidencia de que existe un efecto causal negativo de la maternidad sobre la educación. En particular, ser madre adolescente provocaría una disminución de 6.91 puntos porcentuales en la probabilidad de terminar la secundaria
uc
Políticas monetaria y macroprudencial óptimas post Basilea III.
El presente trabajo estudia la interacción monetaria-macroprudencial óptima en una economía pequeña y abierta calibrada para Chile al enfrentarse a un choque de riesgo financiero, al estilo de Christiano et al. (2014). Se utiliza el modelo propuesto en García-Cicco et al. (2014), modificándolo para introducir un regulador bancario. Específicamente se evalúa el efecto en el bienestar de utilizar un requerimiento de capital cíclico al estilo de lo propuesto en Basilea III y su relación con la tasa de interés de política monetaria en un contexto de estrés financiero. Los resultados muestran que la política monetaria no debe responder al crédito bancario debido a que incrementa los costos de la estabilización macroeconómica. Además, la introducción del componente cíclico del requerimiento de capital genera ganancias de bienestar significativas respecto al régimen de Basilea II.
uc
Elecciones del ejecutivo y restricciones al poder : efecto sobre el riesgo soberano.
En los meses previos a las elecciones del Ejecutivo, los políticos pueden tomar decisiones sobre el uso del fisco o las políticas públicas que afecten a la economía. Ante esta situación, los inversionistas interesados en los bonos del Gobierno se verán enfrentados a un escenario de mayor incertidumbre. ¿Cómo es interpretado el comportamiento de los políticos por los inversionistas de bonos soberanos en el evento de una elección?, y ¿de qué manera inciden las diferentes instituciones políticas en esta interpretación? El presente trabajo estudia el efecto de las elecciones sobre los spreads soberanos, y cómo este efecto se ve atenuado por la institucionalidad que limita o equilibra las atribuciones del Poder Ejecutivo. Se busca responder las preguntas enunciadas de manera empírica, mediante un panel de 16 países de economías democráticas y emergentes. Los resultados muestran que las elecciones del Ejecutivo aumenta el spread soberano, medido como el logaritmo del EMBIG, en una desviación estándar, pero que este efecto se ve atenuado en la medida que el Poder Ejecutivo se encuentra más restringido. Esto se debe probablemente a la incertidumbre asociada a los candidatos, más que a las acciones de los gobernantes contemporáneos al proceso eleccionario. Se analiza además el impacto que puedan tener sobre el resultado anterior la competitividad de la elección, la posibilidad de reelegirse y la polarización del país, que pueden potenciar los incentivos que tienen los candidatos en una elección, junto con las características de la oposición como la encargada de ejercer las acciones restrictivas sobre el Ejecutivo.
uc
Una aproximación al salario diferencial compensatorio por riesgo laboral en Chile
Según la teoría del salario diferencial compensatorio, los trabajadores deben ser compensados por el riesgo laboral. Si el trabajador tiene un seguro público por accidentes laborales, la compensación será menor. El objetivo de este estudio es aproximarse a las compensaciones por riesgo laboral recibidas en Chile, teniendo en cuenta diferentes ocupaciones y adscripción al seguro público. Se propone un marco conceptual para entender la composición del premio por riesgo y estimar la incidencia del riesgo en el salario para calcular los diferenciales compensatorios. La medición del riesgo se hace a través de dos indicadores de riesgo fatal y uno de riesgo no fatal. Se obtiene que los trabajadores no asegurados exigen un mayor salario en ocupaciones con mayor riesgo, ceteris paribus. Sin embargo, para los trabajadores asegurados, se obtiene sólo una aproximación a la compensación por riesgo pues existen sesgos que no permiten identificar en detalle su composición. Al comparar ambos grupos, los trabajadores asegurados obtienen menores remuneraciones que los no asegurados para las ocupaciones con alto riesgo laboral fatal, ceteris paribus. Finalmente, para el caso del riesgo no fatal, se encuentra que existe sesgo de selección y al corregirlo, la variable deja de ser significativa.
uc
Aumento de la cobertura de salas cuna y jardines infantiles en Chile : efecto sobre la tasa de participación laboral femenina incorporando posible presencia de externalidades.
A partir del año 2006 se implementó en Chile una política pública que aumentó considerablemente la cobertura de salas cuna y jardines infantiles públicos. Solo para niños y niñas menores de dos años se amplió de 781 establecimientos que existían al año 2005 a más de 4.200 en la gran mayoría de las comunas del país al término del primer gobierno de la Presidenta Michelle Bachelet. En general, trabajos previos que han analizado el impacto de esta política sobre variables relacionadas con la tasa de participación femenina no han encontrado efectos estadísticamente significativos. Mediante un método de diferencias en diferencias se busca estimar el efecto de esta política sobre medidas relacionadas con el empleo femenino pero esta vez incluyendo en el análisis la posible presencia de externalidades, que si existiesen podrían haber ocasionado una subestimación de los resultados en trabajos previos que no las consideraron. Las externalidades podrían surgir al verse beneficiadas de la política mujeres de comunas donde esta no fue intensiva, pero que se encuentran lo suficientemente cerca de comunas que sí estuvieron expuestas por lo que se verían beneficiadas indirectamente, lo que se traduciría en una subestimación de los resultados si no se toma esto en cuenta en la estimación. Aun así, los hallazgos de este estudio no muestran evidencia de la presencia de externalidades por lo que no serían un problema y no considerarlas no llevaría a una subestimación de los resultados en este caso. Por otro lado, en línea con lo encontrado en estudios previos no se encuentra evidencia de algún impacto significativo de esta política sobre variables relacionadas con la tasa de participación femenina.
uc
Tarificación bajo exclusión imperfecta
El propósito de la tesis es encontrar un precio eficiente como política óptima para proveer y financiar un servicio público cuando una parte de los consumidores no pagan por su consumo, con el objetivo de proporcionar una herramienta al regulador. Esto se hace en el marco de un modelo de tarifa en dos partes con el número de consumidores que pagan como variable y considerando la falta de pago por parte de algunos consumidores como una externalidad negativa que afecta al resto de la sociedad. Los resultados sugieren que el precio por unidad óptimo debe reflejar un cargo que es igual a la proporción de consumo promedio no pagado sobre consumo promedio pagado. Este cargo está directamente relacionado con la elasticidad precio del número de consumidores que paga e inversamente relacionado con la elasticidad precio de la demanda de los consumidores que pagan. Luego, si el cambio en el número de consumidores es pequeño ante un aumento en la tarificación, el monto del cargo adicional será menor. También será menor a medida que la elasticidad precio de la demanda pagada sea mayor. Por otro lado, si la demanda es inelástica pero el número de consumidores es elástico, es relativamente más eficiente usar el precio por unidad que el cargo por acceso para financiar la producción.
uc
Incoming spillovers & cooperación en innovación : análisis en Chile a partir de la 8va encuesta de innovación
Desde la economía de la innovación se ha apuntado a los incoming spillovers como uno de los factores más importantes para incentivar a las firmas a realizar acuerdos de cooperación en innovación (I+D). A partir de esta idea, la presente investigación empírica buscó analizar los efectos heterogéneos de los distintos tipos de spillovers (públicos, institucionales, verticales y horizontales) sobre la decisión de cooperación en innovación de las firmas chilenas. Para ello se analizó el efecto de los spillovers sobre distintos tipos de acuerdos de cooperación realizados por Pymes y grandes empresas. Usando la 8va Encuesta de Innovación (2011-2012) y aplicando un modelo Probit con variables instrumentales para cada uno de los spillovers, se encontró que efectivamente existen efectos heterogéneos de los distintos incoming spillovers sobre la realización de acuerdos de cooperación en innovación. En particular, destaca que el efecto de los spillovers institucionales es mayor para las pequeñas y medianas empresas, lo que sugiere la importancia del flujo de conocimiento desde universidades e institutos de I+D sobre la realización de cooperación en I+D.
uc