title
stringlengths
0
720
abstract
stringlengths
1
32.5k
source
stringclasses
3 values
Hydrological risk allocation and its influence over long term contracting in the Chilean electricity system.
El riesgo hidrológico es un riesgo sistémico, y como tal, afecta a todas las partes interesadas de un mercado eléctrico como el Sistema Interconectado Central (SIC), cuyos precios spot se ven altamente influenciados por la generación hidroeléctrica. Los contratos de energía de largo plazo son atractivos para los generadores y para sus clientes, pero cubrirse ante los riesgos es un desafío para ambos. El nivel de contratación para generadores debe responder a restricciones físicas de energía generada esperada en cualquier hidrología, tomando en cuenta incertidumbres de largo plazo. Para clientes debe considerar tanto incertidumbre en las proyecciones de demanda, como responder al compromiso que enfrentan entre variabilidad del costo de suministro y costo de la energía. En ese sentido, hay una cantidad optima de energía asociada a contratos bilaterales futuros que está intimamente relacionada con las condiciones específicas de cada mercado eléctrico. Este estudio considera el impacto del riesgo hidrológico sobre la contratación óptima del sistemay evalúa la posición óptima de contratación del SIC bajo la premisa que los generadores, aversos al riesgo, buscan minimizar la varianza de su margen comercial como política de cobertura. La existencia de una asignación incorrecta de riesgo hidrológico en la regulación chilena motiva este estudio, que revela que, aunque se pueda cubrir perfectamente cualquier riesgo, y se desarrolle una expansión óptima en nueva capacidad, no existen incentivos adecuados que aseguren la contratación de toda la demanda a precio fijo sin mecanismos de compartición de riesgo hidrológico entre las partes interesadas. La expansión óptima se evalúa minimizando los costos de operación e inversión del sistema en un horizonte de 10 años. Palabras clave: licitaciones de energía, gestión del riesgo, coberturas hidrológicas, contratos de suministro de energía.El riesgo hidrológico es un riesgo sistémico, y como tal, afecta a todas las partes interesadas de un mercado eléctrico como el Sistema Interconectado Central (SIC), cuyos precios spot se ven altamente influenciados por la generación hidroeléctrica. Los contratos de energía de largo plazo son atractivos para los generadores y para sus clientes, pero cubrirse ante los riesgos es un desafío para ambos. El nivel de contratación para generadores debe responder a restricciones físicas de energía generada esperada en cualquier hidrología, tomando en cuenta incertidumbres de largo plazo. Para clientes debe considerar tanto incertidumbre en las proyecciones de demanda, como responder al compromiso que enfrentan entre variabilidad del costo de suministro y costo de la energía. En ese sentido, hay una cantidad optima de energía asociada a contratos bilaterales futuros que está intimamente relacionada con las condiciones específicas de cada mercado eléctrico. Este estudio considera el impacto del riesgo hidrológico sobre la contratación óptima del sistemay evalúa la posición óptima de contratación del SIC bajo la premisa que los generadores, aversos al riesgo, buscan minimizar la varianza de su margen comercial como política de cobertura. La existencia de una asignación incorrecta de riesgo hidrológico en la regulación chilena motiva este estudio, que revela que, aunque se pueda cubrir perfectamente cualquier riesgo, y se desarrolle una expansión óptima en nueva capacidad, no existen incentivos adecuados que aseguren la contratación de toda la demanda a precio fijo sin mecanismos de compartición de riesgo hidrológico entre las partes interesadas. La expansión óptima se evalúa minimizando los costos de operación e inversión del sistema en un horizonte de 10 años. Palabras clave: licitaciones de energía, gestión del riesgo, coberturas hidrológicas, contratos de suministro de energía.El riesgo hidrológico es un riesgo sistémico, y como tal, afecta a todas las partes interesadas de un mercado eléctrico como el Sistema Interconectado Central (SIC), cuyos precios spot se ven altamente influenciados por la generación hidroeléctrica. Los contratos de energía de largo plazo son atractivos para los generadores y para sus clientes, pero cubrirse ante los riesgos es un desafío para ambos. El nivel de contratación para generadores debe responder a restricciones físicas de energía generada esperada en cualquier hidrología, tomando en cuenta incertidumbres de largo plazo. Para clientes debe considerar tanto incertidumbre en las proyecciones de demanda, como responder al compromiso que enfrentan entre variabilidad del costo de suministro y costo de la energía. En ese sentido, hay una cantidad optima de energía asociada a contratos bilaterales futuros que está intimamente relacionada con las condiciones específicas de cada mercado eléctrico. Este estudio considera el impacto del riesgo hidrológico sobre la contratación óptima del sistemay evalúa la posición óptima de contratación del SIC bajo la premisa que los generadores, aversos al riesgo, buscan minimizar la varianza de su margen comercial como política de cobertura. La existencia de una asignación incorrecta de riesgo hidrológico en la regulación chilena motiva este estudio, que revela que, aunque se pueda cubrir perfectamente cualquier riesgo, y se desarrolle una expansión óptima en nueva capacidad, no existen incentivos adecuados que aseguren la contratación de toda la demanda a precio fijo sin mecanismos de compartición de riesgo hidrológico entre las partes interesadas. La expansión óptima se evalúa minimizando los costos de operación e inversión del sistema en un horizonte de 10 años. Palabras clave: licitaciones de energía, gestión del riesgo, coberturas hidrológicas, contratos de suministro de energía.El riesgo hidrológico es un riesgo sistémico, y como tal, afecta a todas las partes interesadas de un mercado eléctrico como el Sistema Interconectado Central (SIC), cuyos precios spot se ven altamente influenciados por la generación hidroeléctrica. Los contratos de energía de largo plazo son atractivos para los generadores y para sus clientes, pero cubrirse ante los riesgos es un desafío para ambos. El nivel de contratación para generadores debe responder a restricciones físicas de energía generada esperada en cualquier hidrología, tomando en cuenta incertidumbres de largo plazo. Para clientes debe considerar tanto incertidumbre en las proyecciones de demanda, como responder al compromiso que enfrentan entre variabilidad del costo de suministro y costo de la energía. En ese sentido, hay una cantidad optima de energía asociada a contratos bilaterales futuros que está intimamente relacionada con las condiciones específicas de cada mercado eléctrico. Este estudio considera el impacto del riesgo hidrológico sobre la contratación óptima del sistemay evalúa la posición óptima de contratación del SIC bajo la premisa que los generadores, aversos al riesgo, buscan minimizar la varianza de su margen comercial como política de cobertura. La existencia de una asignación incorrecta de riesgo hidrológico en la regulación chilena motiva este estudio, que revela que, aunque se pueda cubrir perfectamente cualquier riesgo, y se desarrolle una expansión óptima en nueva capacidad, no existen incentivos adecuados que aseguren la contratación de toda la demanda a precio fijo sin mecanismos de compartición de riesgo hidrológico entre las partes interesadas. La expansión óptima se evalúa minimizando los costos de operación e inversión del sistema en un horizonte de 10 años. Palabras clave: licitaciones de energía, gestión del riesgo, coberturas hidrológicas, contratos de suministro de energía.
uc
Meshed low voltage distribution system planning with special reliability standards.
Un método para la planificación de sistemas de distribución de baja tensión sub- terráneos es presentado, determinando los transformadores, la red de media tensión radial y la red de baja tensión enmallada requeridos. La meta de la optimización es encontrar el costo total más bajo posible, lo que incluye conductores, transformadores, canalizaciones y pérdidas de energía y potencia. Restricciones técnicas como los límites de capacidad de conductores, las caídas de tensión y el envejecimiento máximo de los transformadores deben ser cumplidas. Por propósitos de confiabilidad de suministro, la red en su conjunto debe ser capaz de sobrellevar la falla de un alimentador completo. A su vez, la red de baja tensión debe poder enfrentar la falla temporal de un pequeño grupo de transformadores. El modelo de planificación es formulado mediante pasos heurísticos, que usan algoritmos genéticos en varias etapas. Los resultados obtenidos de la planificación de una red de distribución eléctrica real con 2241 consumos son presentados.
uc
Análisis del daño observado en estanques de acero inoxidable para vino durante el terremoto del Maule del 02/27/2010 y recomendaciones para mejorar el diseño de estas estructuras.
El terremoto de Maule (27 de Febrero del 2010, Chile), uno de los más grandes registrados en la historia, afectó a un área muy amplia del país, donde se encuentra una gran variedad de industrias importantes. Particularmente, la industria vitivinícola fue una de las más afectadas, ya que la mayor parte del vino se produce en la zona afectada. Con el apoyo de esta industria y el gobierno, se llevó a cabo un reconocimiento general de los daños. En esta etapa, se encontraron varios problemas, que produjeron grandes pérdidas, en los estanques y otros elementos utilizados en el proceso de elaboración del vino, entre los que se encuentran la carencia de diseño estructural sísmico, la falta de redundancia estructural, y un diseño y ejecución inadecuados de los anclajes. Se presenta un resumen con las principales observaciones hechas durante esta inspección, seguido por una comparación del desempeño observado, con los resultados de un modelo de elementos finitos no-lineal de uno de los tipos de estanque más dañado por el terremoto, llamado estanque con patas. Este modelo fue capaz de predecir la localización de la concentración de tensiones y deformaciones, y el tipo de daño que produjo la falla de las estructuras representadas por los modelos. Además, la resistencia obtenida de los modelos se comparó favorablemente con la resistencia obtenida usando un método de diseño aproximado propuesto por otros investigadores. Finalmente, se propone un sistema pasivo de disipación de energía, que es incorporado a la modelación de un estanque. Este modelo se evalúa en forma no-lineal y se comparan las solicitaciones resultantes con las de un modelo que no posee disipadores. Estos resultados podrían ser usados para el desarrollo de directrices en el diseño sísmico y la construcción, para así reducir la vulnerabilidad de la industria en terremotos futuros. Palabras Claves: terremoto del Maule del 2010, sistema de almacenamiento de vino, modo de falla de pandeo, normas de diseño sísmico, estanque de acero inoxidable de pared delgada, falla de anclaje, trabajo de reconocimiento, vulnerabilidad sísmica, instalaciones industriales, disipador de energía metálico.
uc
Colaboración silenciosa en grupos pequeños para la enseñanza de matemáticas
Durante los últimos años ha sido la ambición de muchos profesionales el aplicar tecnologías en las salas de clases. La colaboración entre los alumnos ha mostrado ser un instrumento valioso para potenciar el aprendizaje. Sin embargo, la colaboración tradicional está asociada con la comunicación verbal lo cual es muy difícil de lograr en una sala de clases por los múltiples focos de distracción que esto conlleva. La metodología propuesta es generar una nueva dinámica de colaboración que permita argumentar las observaciones que se hagan entre pares sin la necesidad de que los alumnos se comuniquen verbalmente. Para la experimentación, se utilizaron contenidos de matemáticas de tercero básico proyectados en un “Shared Display Interpersonal Computer”. Se otorgó un mouse por estudiante y se formaron grupos de 3 niños separados de tal manera que para estar de acuerdo necesitaban hacerlo a través del software. Los resultados se compararon con los de un segundo grupo experimental que realizó el mismo trabajo en un laboratorio en que cada equipo tenía su propio computador. Con los resultados obtenidos se llegó a la conclusión que la colaboración silenciosa es más efectiva en términos de aprendizaje en grupos pequeños en comparación a la colaboración hablada.
uc
Valoración de atributos de barrios patrimoniales desde la perspectiva de sus habitantes
Esta investigación tuvo por objetivo avanzar en la comprensión de cómo valoran su barrio los habitantes de zonas patrimoniales. Específicamente, se buscó identificar los elementos de barrios patrimoniales con alta importancia para sus habitantes y, posteriormente, estimar su valoración subjetiva. En una primera etapa se procedió a seleccionar los atributos de mayor relevancia, mediante una encuesta Delphi y el análisis de información cualitativa recopilada a través de mesas de discusión y árboles de ideas. La segunda etapa consistió en diseñar y aplicar una encuesta de preferencias declaradas basada en un experimento de elección barrial, que consideró las variables: Estilo morfológico, Interacción vecino-vecino, Interacción vecino-agente y Precio. La última etapa consideró la estimación de distintos modelos de elección discreta, incluyendo logit con variaciones sistemáticas de gustos, logit mixto con componentes de error, para tratar las múltiples respuestas de cada encuestado (efecto panel) y un modelo híbrido incorporando una variable latente asociada a la “Sociabilidad” de las personas. El modelo que presentó mejor ajuste fue el logit mixto; sin embargo, cada modelo estimado permitió comprender distintos aspectos del comportamiento humano en temas de valoración barrial. En las distintas fases de la investigación se identificó la existencia de dos categorías de elementos patrimoniales con alta valoración. En primer lugar, elementos tangibles relacionados con las construcciones patrimoniales del barrio; en segundo lugar aspectos intangibles, relacionados con la comunidad que lo habita. Corroborando lo anterior, las variables Estilo morfológico tradicional, Interacción vecino-vecino e Interacción vecino-agente obtuvieron alta ponderación en los modelos estimados. En cuanto a la heterogeneidad de gustos, se encontró que hombres y mujeres, y chilenos e inmigrantes, presentaban diferencias significativas en sus preferencias. Por otro lado, los inmigrantes parecen valorar menos las variables asociadas a relaciones sociales. Por último, se detectó una relación positiva entre la Sociabilidad de la persona y su valoración de la variable Interacción vecino-vecino.
uc
PV installation on building rooftops and façades in Chile : technical and economic potential.
El potencial económico en techos y fachadas para proyectos fotovoltaicos en Chile ha sido estudiado analizando la radiación, generación de electricidad a partir de la instalación fotovoltaica, curvas de consumo eléctrico y tarifas eléctricas de 318 comunas a lo largo de Chile. El estudio considera curvas de generación fotovoltaica para diferentes orientaciones e inclinaciones en techos y fachadas. El sector de Chile con el mayor potencial técnico económico para instalaciones fotovoltaicas se encuentra en la región de atacama, que combina altos niveles de precios eléctricos y altos niveles de radiación. Este estudio indica que Chile es uno de los países privilegiados en Latinoamérica en donde la instalación de proyectos fotovoltaicos en techos es costo-efectivo sin necesidad de políticas de incentivos o subsidios. El período de retorno de inversión para proyectos fotovoltaicos ubicados en techos para un costo de inversión de 2.000 USD/kW varía desde los 7.7 años a más de 20 años. Por el contrario, a los precios actuales los proyectos fotovoltaicos instalados en fachadas no son costo-eficientes en ninguna región, considerando sólo los ingresos por energía generada.
uc
Numerical study of the arching effect using the discrete element method.
En el presente trabajo, el denominado “efecto arco” fue reproducido mediante un modelo numérico del ensayo Trapdoor descrito por Terzaghi usando el Método de Elementos Discretos (DEM) tridimensionales. Esta metodología representa el suelo como un conjunto de partículas, reproduciendo su respuesta macroscópica mediante las interacciones micro-mecánicas entre partículas individuales. Uno de los propósitos de este trabajo es estudiar la capacidad de esta metodología para reproducir el efecto arco, el cual consiste en un mecanismo que ocurre naturalmente en suelos producto de la redistribución de tensiones hacia zonas más rígidas cuando existe reacomodamiento de partículas debido a desplazamientos impuestos a parte del soporte del sistema. En una etapa previa de este estudio, se ensayó en el laboratorio una prueba Trapdoor instrumentada con celdas de carga y la técnica de la Correlación de Imágenes Digitales (DIC). El campo de desplazamiento y el perfil de cargas en la base obtenido con esta instrumentación, se compara a los resultados de la modelación DEM. La calibración de los parámetros micro-mecánicos fue realizada mediante ensayos de corte directo, usando una distribución de tamaño de partículas similar a la granulometría real. Para estudiar el efecto que tienen los parámetros y la densidad inicial, se realizó un análisis de sensibilidad con dos probetas con diferentes índices de vacíos. Aprovechando las ventajas de esta metodología discontinua, como la capacidad de rastrear el desplazamiento y fuerzas de contacto entre partículas, se realizó un análisis de la migración de partículas fuera del plano de corte y de la rotación de las fuerzas intergranulares. Debido al alto costo computacional, se estudió la respuesta de curvas granulométricas escaladas, para disminuir los tiempos de cálculo sin perder la representatividad del fenómeno. En general, se obtuvo una buena correlación entre los resultados experimentales y numéricos en términos de la tensión de corte, pero la respuesta en dilatancia fue difícil de replicar.En el presente trabajo, el denominado “efecto arco” fue reproducido mediante un modelo numérico del ensayo Trapdoor descrito por Terzaghi usando el Método de Elementos Discretos (DEM) tridimensionales. Esta metodología representa el suelo como un conjunto de partículas, reproduciendo su respuesta macroscópica mediante las interacciones micro-mecánicas entre partículas individuales. Uno de los propósitos de este trabajo es estudiar la capacidad de esta metodología para reproducir el efecto arco, el cual consiste en un mecanismo que ocurre naturalmente en suelos producto de la redistribución de tensiones hacia zonas más rígidas cuando existe reacomodamiento de partículas debido a desplazamientos impuestos a parte del soporte del sistema. En una etapa previa de este estudio, se ensayó en el laboratorio una prueba Trapdoor instrumentada con celdas de carga y la técnica de la Correlación de Imágenes Digitales (DIC). El campo de desplazamiento y el perfil de cargas en la base obtenido con esta instrumentación, se compara a los resultados de la modelación DEM. La calibración de los parámetros micro-mecánicos fue realizada mediante ensayos de corte directo, usando una distribución de tamaño de partículas similar a la granulometría real. Para estudiar el efecto que tienen los parámetros y la densidad inicial, se realizó un análisis de sensibilidad con dos probetas con diferentes índices de vacíos. Aprovechando las ventajas de esta metodología discontinua, como la capacidad de rastrear el desplazamiento y fuerzas de contacto entre partículas, se realizó un análisis de la migración de partículas fuera del plano de corte y de la rotación de las fuerzas intergranulares. Debido al alto costo computacional, se estudió la respuesta de curvas granulométricas escaladas, para disminuir los tiempos de cálculo sin perder la representatividad del fenómeno. En general, se obtuvo una buena correlación entre los resultados experimentales y numéricos en términos de la tensión de corte, pero la respuesta en dilatancia fue difícil de replicar.En el presente trabajo, el denominado “efecto arco” fue reproducido mediante un modelo numérico del ensayo Trapdoor descrito por Terzaghi usando el Método de Elementos Discretos (DEM) tridimensionales. Esta metodología representa el suelo como un conjunto de partículas, reproduciendo su respuesta macroscópica mediante las interacciones micro-mecánicas entre partículas individuales. Uno de los propósitos de este trabajo es estudiar la capacidad de esta metodología para reproducir el efecto arco, el cual consiste en un mecanismo que ocurre naturalmente en suelos producto de la redistribución de tensiones hacia zonas más rígidas cuando existe reacomodamiento de partículas debido a desplazamientos impuestos a parte del soporte del sistema. En una etapa previa de este estudio, se ensayó en el laboratorio una prueba Trapdoor instrumentada con celdas de carga y la técnica de la Correlación de Imágenes Digitales (DIC). El campo de desplazamiento y el perfil de cargas en la base obtenido con esta instrumentación, se compara a los resultados de la modelación DEM. La calibración de los parámetros micro-mecánicos fue realizada mediante ensayos de corte directo, usando una distribución de tamaño de partículas similar a la granulometría real. Para estudiar el efecto que tienen los parámetros y la densidad inicial, se realizó un análisis de sensibilidad con dos probetas con diferentes índices de vacíos. Aprovechando las ventajas de esta metodología discontinua, como la capacidad de rastrear el desplazamiento y fuerzas de contacto entre partículas, se realizó un análisis de la migración de partículas fuera del plano de corte y de la rotación de las fuerzas intergranulares. Debido al alto costo computacional, se estudió la respuesta de curvas granulométricas escaladas, para disminuir los tiempos de cálculo sin perder la representatividad del fenómeno. En general, se obtuvo una buena correlación entre los resultados experimentales y numéricos en términos de la tensión de corte, pero la respuesta en dilatancia fue difícil de replicar.
uc
Uso de modelación organizacional para evaluar el impacto de principios de lean construction en el desempeño de proyectos.
Recientemente, una teoría de producción relacionada con la filosofía Lean Production ha otorgado un marco conceptual para analizar proyectos describiendo los proyectos como sistemas en los cuales actividades de transformación y flujo coexisten. Esta tesis reporta los resultados de cinco modelos virtuales de organizaciones de proyectos de construcción, desarrollados usando la metodología Virtual Design Team (VDT). Los resultados fueron comparados con el desempeño real de proyectos y las probabilidades de entrada de los modelos fueron calibradas para obtener referencias para futuros proyectos. Los modelos fueron validados comparando sus predicciones con los resultados reales de proyectos y el comportamiento de las organizaciones fue sometido a la aprobación de los expertos técnicos de las empresas en estudio. En una segunda etapa de modelación, se utilizaron los modelos para evaluar el impacto en los resultados al probar diseños organizacionales inspirados en los conceptos de Lean Production, tales como: Desarrollo de Organizaciones Planas, Multifuncionalidad y Reducción de Desperdicios. Este ejercicio demostró que los modelos de VDT se pueden utilizar para evaluar el impacto de los conceptos Lean en el desempeño de proyectos, representando estos conceptos en el diseño organizacional y mostrando los beneficios de su aplicación en proyectos reales. En general, los modelos predijeron un impacto positivo en términos de Costo, Plazo, Variabilidad y Reducción de Residuos en las organizaciones inspiradas en conceptos Lean. Sin embargo, estos impactos fueron diferentes en magnitud para proyectos distintos. Estos resultados contribuyen a ampliar los usos de la metodología de VDT, que permite a las empresas modelar conceptos de Lean Project Management en la fase de diseño, logrando mejoras en términos de Costo, Programa y Variabilidad.
uc
Desarrollo de un nuevo disipador de energía friccional piezoeléctrico semi-activo.
Este trabajo presenta el desarrollo de un nuevo disipador de energía friccional, junto con ideas de su implementación para el control de la respuesta sísmica en estructuras de gran escala. Su diseño simple permite producir altos niveles de fuerza, los cuales pueden desarrollarse tanto en forma pasiva como semi-activa. En el último caso, actuadores piezoeléctricos son incluidos en un sistema de apriete especial que aplica la fuerza normal sobre las superficies de contacto. Con el fin de verificar la estabilidad y el concepto del disipador, un prototipo cuyas superficies de contacto fueron fabricadas con acero inoxidable y pastillas de freno para autos, fue construido para ser ensayado bajo operación pasiva y semi-activa. Además, se desarrolló un modelo analítico para estimar el desempeño de los actuadores piezoeléctricos en el sistema de apriete mencionado. Los resultados analíticos y experimentales muestran buena concordancia y permiten verificar que el disipador es altamente estable y que el sistema de apriete es lo suficientemente rígido como para producir un comportamiento semi-activo con el uso de actuadores piezoeléctricos.
uc
Almacenamiento de energía por bombeo (hydro-pumped storage) en el marco regulatorio chileno.
La inclusión de generación renovable intermitente requiere medios adicionales de flexibilidad en los sistemas eléctricos de potencia. El almacenamiento de energía por bombeo (HPS) se plantea como una posible solución para la integración a gran escala de generación solar fotovoltaica en el Sistema Interconectado del Norte Grande (SING) de Chile. En esta tesis, se realiza una evaluación sobre los potenciales beneficios que esta tecnología de almacenamiento podría ofrecer en el SING, para lo cual se definen modelos de negocio y esquemas de operación. Sin embargo, para realizar los cálculos sobre los beneficios económicos de esta tecnología, es necesario modelar la intermitencia de la generación renovable tanto en la operación de corto plazo como en la planificación a largo plazo de los sistemas eléctricos. Con el fin de abordar lo discutido anteriormente, se formula y desarrolla una metodología con la cual se simula la operación del SING ante la inclusión de gran escala de generación solar fotovoltaica y generación eólica, así como también sistemas de almacenamiento de energía. Los resultados indican que la generación renovable evita el uso de combustible como el carbón (US$40/MWh) y gas natural (US$90/MWh), pero exige el uso de unidades de respaldo, encareciendo la operación del sistema. Para el año 2018, por cada MWh de generación renovable se evitan en promedio US$39,62 por el menor uso de combustible, lo que indica que se reemplaza el combustible más económico del sistema y además se utilizan recursos de mayor costo (centrales diésel y turbinas a gas en ciclo abierto). Esto por supuesto que no es favorable para el ingreso de estas tecnologías intermitentes. Además, los resultados también indican que el factor de planta de las unidades base a carbón es reducido en 8,6%, lo cual incrementa en US$3/MWh el costo levelizado de las unidades a carbón. Si este costo fuese atribuido a la generación intermitente, significa un costo indirecto de US$21,08 por cada MWh de generación ERNC. Por otro lado, el uso de sistemas de HPS ayuda a controlar la intermitencia, ya que permite un mejor uso de los recursos de menor costo (carbón) a expensas de utilizar menos combustible de alto costo (i.e. GNL y diésel). Esto ayuda a controlar los efectos anteriormente discutidos. Finalmente, en esta tesis se desarrolla un modelo de planificación de largo plazo denominado MOPRA (Modelo de operación y planificación incluyendo renovables y almacenamiento), que incluye los aspectos operacionales de corto plazo. Los resultados de este modelo indican que la inclusión de unidades de HPS es económica para el sistema en un escenario de integración a gran escala de generación intermitente. Como aporte novedoso, se calculan las externalidades asociadas a la generación solar fotovoltaica. Así también se evalúa su cambio ante la presencia de unidades de HPS. Finalmente, se analiza la aplicación de ley de fomento a las ERNC (Ley 20/25) en el SING, y se concluye que si esta ley fuese cumplida por este sistema en forma individual, este enfrentará serios desafíos en su mercado eléctrico, así como también un mayor precio de la energía. Los mayores desafíos regulatorios se explican por la insuficiencia de las señales de precio existente e incertidumbre en la operación. Esto dificulta el financiamiento y desarrollo de unidades de HPS, lo cual no se condice con los beneficios que estas pueden otorgar al sistema. Para hacer frente a esto, se realizan propuestas para el ajuste de la regulación chilena.
uc
Impacto de metadata basada en currículum en la eficiencia de sistemas de recomendación en educación.
Los profesores se encuentran a diario con la tarea de recopilar material para preparar sus lecciones. Muchas veces el proceso de crear material nuevo es difícil y el tiempo disponible es escaso. En internet existen repositorios de recursos digitales de aprendizaje especializados; el problema es que, debido a la gran cantidad y variedad de recursos disponibles, la tarea de encontrar un recurso de calidad y adecuado al propósito educativo se vuelve compleja. Los sistemas de recomendación constituyen una herramienta adecuada para apoyar este proceso de búsqueda y descubrimiento; técnicas de filtrado colaborativo aprovechan el comportamiento de la comunidad, enfoques basados en contenido se enfocan en la descripción de los recursos para encontrar ítems similares a recomendar, mientras que los enfoques híbridos combinan filtrado colaborativo y por contenido. En esta investigación se comparó varios sistemas de recomendación en un escenario educativo real, correspondiente al portal educacional Educarchile. Se encontró que el sistema de recomendación híbrido Collaborative Topic Regression (CTR), que saca provecho de las características de los usuarios y de la descripción de los recursos, es el que mejor se adecúa al escenario educacional estudiado. Además, se pudo concluir que describir los recursos digitales de aprendizaje a través de metadata curricular (nivel, asignatura, etc.) mejora la precisión del sistema de recomendación, mientras que el texto libre u otro tipo de metadata impacta negativamente en los resultados.
uc
Supervised detection of anomalous light-curves in massive astronomical catalogs.
El desarrollo de sondeos sinópticos del cielo en los últimos años ha generado cantidades masivas de datos. Su análisis requiere por lo tanto recursos que superan las capacidades humanas. Por esta razón, las técnicas de aprendizaje de máquina se han vuelto esenciales para procesar esta información y extraer todo el conocimiento posible. En este trabajo se presenta una nueva metodología automática para descubrir objetos anómalos en grandes catálogos astronómicos. De manera de aprovechar toda la información que se tiene de estos objetos, el método propuesto se basa en un algoritmo supervisado. En particular, se entrena un clasificador random forest con objetos de clases conocidas y se obtienen los votos de clasificación para cada uno de ellos. En una segunda instancia, se modela la repartición de estos votos con una red de Bayes consiguiendo así su distribución conjunta. La idea tras de esto es que un objeto desconocido podrá ser detectado como anomalía en la medida que sus votos de clasificación tengan una baja probabilidad conjunta bajo este modelo. Nuestro método es apropiado para explorar bases de datos masivas dado que el proceso de entrenamiento se realiza de forma offline. Testeamos nuestro algoritmo en 20 millones de curvas de luz del catálogo MACHO y generamos una lista de candidatos anómalos. Luego de realizar un análisis, los dividimos en dos clases principales de anomalías: artefactos y anomalías intrínsecas. Los artefactos se deben principalmente a variaciones de la masa de aire, cambios estacionales, mala calibración o errores instrumentales y fueron por lo tanto removidos de la lista de anomalías y agregados al set de entrenamiento. Después de re-entrenar y ejecutar nuevamente el modelo llevamos a cabo una fase de post-análisis consistente en buscar información de los candidatos en todos los catálogos públicos disponibles. Dentro de nuestra lista identificamos ciertos objetos escasos pero conocidos tales como estrellas Cefeidas, variables azules, variables cataclísmicas y fuentes de rayos X. Sin embargo, para ciertas anomalías no se encontró información adicional. Fuimos capaces de agrupar algunas de estas en nuevas clases variables. No obstante, otras, que emergieron como únicas en su comportamiento, tendrán que ser examinadas por telescopios de manera de realizar un análisis en profundidad.El desarrollo de sondeos sinópticos del cielo en los últimos años ha generado cantidades masivas de datos. Su análisis requiere por lo tanto recursos que superan las capacidades humanas. Por esta razón, las técnicas de aprendizaje de máquina se han vuelto esenciales para procesar esta información y extraer todo el conocimiento posible. En este trabajo se presenta una nueva metodología automática para descubrir objetos anómalos en grandes catálogos astronómicos. De manera de aprovechar toda la información que se tiene de estos objetos, el método propuesto se basa en un algoritmo supervisado. En particular, se entrena un clasificador random forest con objetos de clases conocidas y se obtienen los votos de clasificación para cada uno de ellos. En una segunda instancia, se modela la repartición de estos votos con una red de Bayes consiguiendo así su distribución conjunta. La idea tras de esto es que un objeto desconocido podrá ser detectado como anomalía en la medida que sus votos de clasificación tengan una baja probabilidad conjunta bajo este modelo. Nuestro método es apropiado para explorar bases de datos masivas dado que el proceso de entrenamiento se realiza de forma offline. Testeamos nuestro algoritmo en 20 millones de curvas de luz del catálogo MACHO y generamos una lista de candidatos anómalos. Luego de realizar un análisis, los dividimos en dos clases principales de anomalías: artefactos y anomalías intrínsecas. Los artefactos se deben principalmente a variaciones de la masa de aire, cambios estacionales, mala calibración o errores instrumentales y fueron por lo tanto removidos de la lista de anomalías y agregados al set de entrenamiento. Después de re-entrenar y ejecutar nuevamente el modelo llevamos a cabo una fase de post-análisis consistente en buscar información de los candidatos en todos los catálogos públicos disponibles. Dentro de nuestra lista identificamos ciertos objetos escasos pero conocidos tales como estrellas Cefeidas, variables azules, variables cataclísmicas y fuentes de rayos X. Sin embargo, para ciertas anomalías no se encontró información adicional. Fuimos capaces de agrupar algunas de estas en nuevas clases variables. No obstante, otras, que emergieron como únicas en su comportamiento, tendrán que ser examinadas por telescopios de manera de realizar un análisis en profundidad.
uc
Impacto económico y ambiental de la capacidad de las líneas de transmisión en los sistemas eléctricos de potencia.
La planificación de la transmisión eléctrica frecuentemente se ha fundamentado en la búsqueda de la alternativa óptima desde el punto de vista económico y de la seguridad del sistema eléctrico. En Chile, esta concepción no es diferente y el agente planificador realiza los estudios de expansión, como el Estudio de Transmisión Troncal, con los objetivos mencionados como su foco principal, sin focalizarse en las repercusiones ambientales que traerán la incorporación de las líneas de transmisión determinadas debido a las variaciones en el despacho de las centrales eléctricas. En la presente investigación, se estudian los efectos ambientales derivados de la incorporación de nuevos circuitos de transmisión a corredores ya existentes y su interrelación con los costos económicos y las variaciones de la confiabilidad en el sistema, ante distintos escenarios de expansión de la red. Se plantea una metodología que permite analizar el impacto de contaminantes globales y locales, cuantificando la variación de las emisiones mediante el concepto del daño marginal evitado para los contaminantes locales y del precio del futuro de los bonos de carbono para los contaminantes globales. Para la obtención del despacho hidrotérmico óptimo y de los costos del sistema, es utilizado el software OSE2000, el cual es capaz de resolver problemas de despacho eléctrico considerando múltiples embalses y nodos del sistema eléctrico. De los resultados obtenidos se concluye que la variable ambiental presenta una importante relación con la estructura de la red y el nivel de confiabilidad deseado del sistema eléctrico. Además, existen una serie de fenómenos que implican que los análisis entre las variables no son tan evidentes, y requieren de una simulación detallada de la operación del sistema para cuantificar los diversos efectos.La planificación de la transmisión eléctrica frecuentemente se ha fundamentado en la búsqueda de la alternativa óptima desde el punto de vista económico y de la seguridad del sistema eléctrico. En Chile, esta concepción no es diferente y el agente planificador realiza los estudios de expansión, como el Estudio de Transmisión Troncal, con los objetivos mencionados como su foco principal, sin focalizarse en las repercusiones ambientales que traerán la incorporación de las líneas de transmisión determinadas debido a las variaciones en el despacho de las centrales eléctricas. En la presente investigación, se estudian los efectos ambientales derivados de la incorporación de nuevos circuitos de transmisión a corredores ya existentes y su interrelación con los costos económicos y las variaciones de la confiabilidad en el sistema, ante distintos escenarios de expansión de la red. Se plantea una metodología que permite analizar el impacto de contaminantes globales y locales, cuantificando la variación de las emisiones mediante el concepto del daño marginal evitado para los contaminantes locales y del precio del futuro de los bonos de carbono para los contaminantes globales. Para la obtención del despacho hidrotérmico óptimo y de los costos del sistema, es utilizado el software OSE2000, el cual es capaz de resolver problemas de despacho eléctrico considerando múltiples embalses y nodos del sistema eléctrico. De los resultados obtenidos se concluye que la variable ambiental presenta una importante relación con la estructura de la red y el nivel de confiabilidad deseado del sistema eléctrico. Además, existen una serie de fenómenos que implican que los análisis entre las variables no son tan evidentes, y requieren de una simulación detallada de la operación del sistema para cuantificar los diversos efectos.
uc
Método de medición por estereoscopía radiográfica para sistema hexápodo de Ilizarov.
Una técnica ampliamente utilizada para corregir deformidades óseas en extremidades es la osteogenénesis por distracción utilizando un tutor hexápodo. Para implementar este método es necesaria la medición de parámetros geométricos mediante dos radiografías ortogonales. Desviaciones de las condiciones de ortogonalidad ideales de medición e instalación de los anillos inducen un error en la corrección final. Para reducir dicho error este trabajo muestra cómo el uso de marcadores fiduciarios y el uso de la técnica de space resection permite la interpretación estereográfica de las radiografías, creando un ambiente de medición robusto y versátil. El método desarrollado permite levantar las restricciones de ortogonalidad del método tradicional y abordar el tema de la colisión entre fragmentos al estimar la superficie 3D de los huesos a partir de su contorno 2D. El método fue implementado en una plataforma TSF eliminando todas las restricciones de ortogonalidad presentes en el método tradicional y abordando la eventual colisión de fragmentos estimando la forma 3D de los fragmentos a partir de sus contornos radiográficos. El valor del axial view angulation es medido de la manera tradicional. El error promedio de medición de parámetros en las pruebas realizadas fue de 1.04 mm y 1.9o, similar al obtenido por otros estudios y dentro del rango admitido para el uso médico. Las desviaciones admisibles pueden alcanzar los 30o. Este método simplifica la instalación del aparato al permitir montar ambos anillos en una orientación arbitraria.
uc
Analysis of spectral wave energy transfer methodologies from deep to shallow water.
Antes de diseñar cualquier obra marítima es necesario conocer primero las condiciones de oleaje reinante a la cual estará sometida a fin de lograr un diseño adecuado. Como las boyas de medición son escasas considerando el tamaño del océano, los ingenieros generalmente recurren a modelos numéricos de generación de oleaje para determinar estas condiciones. El problema: el número de simulaciones que se requiere hacer en el modelo para generar una estadística completa es elevado, y el tiempo computacional que requiere cada simulación también lo es. En este trabajo se aborda el problema de la propagación espectral de oleaje desde aguas profundas a aguas someras, formalizando un método robusto de transferencia de climas de oleaje que permite ahorrar tiempos significativos de cálculo. Otros métodos de propagación son también descritos y comparados. El método propuesto consiste en propagar un número limitado de espectros sintéticos en el modelo y con esa información transformar un número cualquiera de espectros reales, mediante superposición lineal. El resultando de esa transformación es equivalente a haber propagado todos los espectros reales en el modelo numérico. El método logra reducir significativamente el número de simulaciones requeridas y al mismo tiempo representar adecuadamente la forma y los parámetros resumen del espectro de salida, con diferencias en estos menores al 1% en comparación con la propagación espectral completa. La desventaja del método es que sólo es válido en casos donde los efectos no-lineales son poco importantes. La información espectral de un estado de mar además presenta varias ventajas contra la información resumida en parámetros estadísticos de resumen. Entre ellas: (1) entrega mejores resultados al propagar estados de mar en un modelo numérico y (2) entrega una mejor estimación de la potencia media de oleaje. Los parámetros de resumen tienden a sobreestimar esta última; y la forma en que estos se extraen del espectro puede tener un gran impacto en los resultados.
uc
Facts aplicados al sector generación-transmisión para la mitigación de oscilaciones de potencia.
El problema de oscilaciones de potencia en un sistema eléctrico y su mitigación a través de dispositivos FACTS, basados en electrónica de potencia y sus correspondientes controladores POD, son de interés en el presente trabajo de investigación. Los compensadores estáticos de reactivos de impedancia variable, como SVC y TCSC son examinados y empleados en sistemas prueba (tomados de publicaciones técnicas) y en un sistema real, a gran escala, como el Sistema Eléctrico de Chile. Esta Tesis detalla los procedimientos para mejorar el amortiguamiento de las oscilaciones electromecánicas en un sistema de potencia con la incorporación de esquemas de control secundario en los dispositivos FACTS (controladores POD), obteniendo una adecuada sintonización (cálculo de parámetros de las constantes de tiempo y ajuste de ganancia) del controlador POD. El Análisis de Pequeña Señal, Diagramas de Nyquist y Lugar Geométrico de las Raíces, son técnicas adoptadas y las que se utilizan en programas computaciones como PSAT, MATLAB y NEPLAN.Por último, como aplicación real del diseño de controladores POD de dispositivos FACTS, se analiza el Sistema Eléctrico Interconectado Central de Chile, Zona Norte (perteneciente al Sistema Eléctrico de Chile), con un compensador serie TCSC (instalado conjuntamente con controlador POD) verificando el mejoramiento de su estabilidad a pequeña señal. Se emplean Estudios de Flujo de Carga, Estabilidad de Pequeña Señal y Estabilidad Transitoria para determinar la ubicación óptima del TCSC en el sistema, diseño de controladores POD y respuesta del SIC, respectivamente, frente a diversos tipos de perturbaciones, como cortocircuito, desconexión no planificada de un gran consumo, salida de un circuito de línea de transmisión del sistema 220 kV y desconexión de generación.
uc
Analysis, design and testing of an hourglass-shaped ETP-copper energy dissipation device.
Se ha desarrollado con éxito un disipador de energía metálico construido de cobre ETP, que funciona en dos direcciones de desplazamiento (Cu-BEDD). El desarrollo fue llevado a cabo en cuatro etapas: (1) Caracterización y representación numérica del comportamiento cíclico del cobre ETP con incrusión en el rango plástico, utilizando el modelo constitutivo de Chaboche; (2) Generación de un modelo de elementos finitos incluyendo grandes deformaciones y el modelo constitutivo del cobre; (3) Diseño del Cu-BEDD utilizando la teoría de diseño de experimentos aplicada a experimentos numéricos; (4) Ensayo de prototipos tanto en una como en dos direcciones de desplazamiento relativo. La respuesta cíclica de los Cu-BEDD ensayados muestra una gran capacidad para disipar energía al ser sometido a un desplazamiento relativo cíclico, incluso a amplitudes pequeñas, resistiendo además una cantidad de ciclos a gran amplitud equivalente a más de dos sismos severos. La respuesta numérica obtenida del modelo de elementos finitos muestra una correcta representación de la mayoría de las características de los resultados obtenidos de los ensayos de los prototipos. Adicionalmente, el proceso de diseño fue validado utilizando la respuesta experimental de los Cu-BEDD, demostrando ser un método versátil y de bajo costo, el cual puede ser utilizado en el diseño de otros disipadores de energía metálicos.
uc
Producción de proteínas recombinantes en cultivos fed-batch de saccharomyces cerevisiae y escherichia coli.
En los últimos años la industria salmonera ha sufrido una fuerte crisis por enfermedades que han afectado a los salmones (ISA, SRS y caligus) generándose una alta demanda por vacunas que prevengan dichas patologías. Las vacunas subunitarias son una alternativa altamente rentable, sin embargo, su principal cuello de botella es el proceso fermentativo. Existen aspectos claves para lograr un proceso fermentativo satisfactorio, tales como el metabolismo de sobreflujo, el medio de cultivo y la capacidad de transferencia de oxígeno. La industria productiva no ha logrado una correcta caracterización de dichos aspectos por lo que les ha sido difícil generar cultivos de alta densidad celular. El objetivo del presente trabajo consiste en desarrollar una plataforma productiva con protocolos optimizados para la generación de cultivos de alta densidad, aplicado a la generación de vacunas subunitarias de salmones, en dos factorías celulares microbianas: Escherichia coli y Saccharomyces cerevisiae. El medio de cultivo fue definido mediante el cálculo empírico de los requerimientos nutricionales de cada factoría celular en distintos sustratos esenciales. A través de una estrategia de control de oxígeno disuelto –que manipula secuencialmente: agitación, flujo gaseoso y concentración de oxígeno en el gas– se liberó la restricción en cuanto a transferencia de oxígeno. La elaboración y calibración de un modelo metabólico de sobreflujo permitió caracterizar los parámetros dinámicos del proceso, particularmente la tasa específica de crecimiento crítica. Una estrategia de alimentación a tasas específicas de crecimiento decrecientes junto al manejo adecuado de las limitaciones nutricionales permitieron generar cultivos fed batch limitados en glucosa con metabolismo 100% oxidativo. La concentración celular final aumentó de 15 a 65 g DCW/L para E. coli y de 14 a 46 g DCW/L para S. cerevisiae. La productividad volumétrica obtenida se incrementó de 1.7 a 3.9 g DCW/L/h para E. coli y de 0.64 a 1.14 g DCW/L/h para S. cerevisiae. Estos resultados serán de utilidad para maximizar la producción de antígenos recombinantes para salmones en la empresa Centrovet logrando tres veces más producto en la mitad del tiempo en comparación con el método anterior.
uc
Modelo para diseñar videojuegos educativos pedagógicamente eficientes
En los últimos años, los videojuegos educativos se han convertido en una herramienta de enseñanza popular considerando su capacidad de motivar al estudiante en la tarea. Diversos trabajos han desarrollado modelos y guías para la creación de videojuegos educativos que simultáneamente permitan enseñar como entretener. Lograr el equilibrio entre estos dos componentes (objetivos pedagógicos y elementos lúdicos) no es una tarea fácil. Con este fin, el presente trabajo describe un modelo para apoyar el diseño de videojuego educativo cuya idea central es la necesidad que la metáfora del juego debe coincidir con el concepto a enseñar. El proceso de diseño presentado se aplicó a un videojuego para la enseñanza de óptica, demostrando en un estudio comparativo cuasi-experimental que alineando la componente lúdica y pedagógica, se logran juegos pedagógicos efectivos que a la vez permiten mantener la motivación y el interés del alumno durante el proceso de aprendizaje. El trabajo termina ilustrando como mecánicas de juegos populares ya existentes se alinean con contenidos pedagógicos.
uc
Effective design procedure of buildings with energy dissipation devices /
El buen desempeño de edificios equipados con sistemas de protección sísmica durante terremotos recientes ha gatillado el entusiasmo en diversas industrias de usar estas tecnologías para proteger su patrimonio. En la literatura existen varios procedimientos para el diseño de sistemas de disipación de energía, aunque no haya acuerdo acerca de un marco estándar y criterios óptimos para el diseño de estos sistemas, con el fin de desarrollar normas de diseño. Por estos motivos, una metodología de diseño basada en el desempeño para edificios con dispositivos de disipación de energía pasivos es propuesta, basada en identificar y controlar modos relevantes por medio de perturbar sus parámetros modales con el fin de obtener una reducción objetivo en el desempeño. Para identificar estos modos, un procedimiento es desarrollado, motivado por problemas observados al utilizar factores tradicionales como el de participación de masa modal en edificios complejos y con amortiguamiento no proporcional. El algoritmo trabaja con amortiguadores lineales, que posteriormente serán transformados en dispositivos físicos por medio de un método modificado de linealización harmónica. El objetivo es obtener una distribución de amortiguadores bajo un criterio de minimizar el amortiguamiento lineal equivalente suplementario maximizando la perturbación de los parámetros modales. Estos se modifican por medio de amortiguamiento y rigidez lineal suplementaria resolviendo un problema singular de valores propios de doble parámetro para obtener parámetros modales de acuerdo a curvas de iso-desempeño. Ejemplos con edificios chilenos reales, muchos de los cuales sufrieron daño severo en el pasado sismo del día 27 de Febrero de 2010, son desarrollados con el fin de ejemplificar el procedimiento y analizar los resultados obtenidos. Un ejemplo consiste en un edificio de gran complejidad con el fin de ilustrar las ventajas del procedimiento propuesto.
uc
Experimental evidence for enhanced copper release from household drinking copper pipes under differents hydrodynamic conditions.
Este trabajo presenta un estudio de la liberación de cobre en cañerías de cobre, usando datos experimentales para desarrollar un modelo conceptual del proceso de incorporación de cobre a la columna de agua y posterior transporte. Los experimentos fueron conducidos para determinar la influencia del flujo en la liberación de cobre bajo dos condiciones: superficies abióticas y superficies bióticas. Para las condiciones bióticas se midieron diferencias entre el cobre total y el disuelto dependiendo del flujo después de la primera descarga. Para condiciones abióticas, se analiza la correlación entre la liberación de cobre y el término fuente requerido para cerrar el balance de masa a través del tiempo. En la etapa experimental se comparan distintas cañerías con caudales diferentes, y se analiza si la liberación de cobre aumenta a medida de que el caudal es mayor, o si este sólo influye en el tiempo necesario para desplazar una cantidad fija de cobre disponible para ser transportado. Los valores de caudal oscilan entre los 1 y 10 L/min y presentan números de Reynolds entre 1,000 y 11,000 aproximadamente, representativos de régimen laminar, transición a turbulento y turbulento. Para condiciones abióticas, los resultados presentados indican que existe una influencia en la tasa de la liberación de cobre, de acuerdo con el cambio en un término fuente, en un balance de masa proveniente de una ecuación de advección-difusión. Este cambio refleja, bajo las condiciones establecidas, que el flujo desplaza en el tiempo una cierta cantidad de cobre determinada por las condiciones químicas preestablecidas, pero que en sí, no parece producir un aumento neto en la cantidad de cobre incorporado al flujo. Para condiciones bióticas se observan diferencias comparado con los experimentos abióticos: en la concentración total, en la relación entre el cobre total y el cobre disuelto, y en la magnitud requerida para el término fuente para cerrar el balance de masa.Este trabajo presenta un estudio de la liberación de cobre en cañerías de cobre, usando datos experimentales para desarrollar un modelo conceptual del proceso de incorporación de cobre a la columna de agua y posterior transporte. Los experimentos fueron conducidos para determinar la influencia del flujo en la liberación de cobre bajo dos condiciones: superficies abióticas y superficies bióticas. Para las condiciones bióticas se midieron diferencias entre el cobre total y el disuelto dependiendo del flujo después de la primera descarga. Para condiciones abióticas, se analiza la correlación entre la liberación de cobre y el término fuente requerido para cerrar el balance de masa a través del tiempo. En la etapa experimental se comparan distintas cañerías con caudales diferentes, y se analiza si la liberación de cobre aumenta a medida de que el caudal es mayor, o si este sólo influye en el tiempo necesario para desplazar una cantidad fija de cobre disponible para ser transportado. Los valores de caudal oscilan entre los 1 y 10 L/min y presentan números de Reynolds entre 1,000 y 11,000 aproximadamente, representativos de régimen laminar, transición a turbulento y turbulento. Para condiciones abióticas, los resultados presentados indican que existe una influencia en la tasa de la liberación de cobre, de acuerdo con el cambio en un término fuente, en un balance de masa proveniente de una ecuación de advección-difusión. Este cambio refleja, bajo las condiciones establecidas, que el flujo desplaza en el tiempo una cierta cantidad de cobre determinada por las condiciones químicas preestablecidas, pero que en sí, no parece producir un aumento neto en la cantidad de cobre incorporado al flujo. Para condiciones bióticas se observan diferencias comparado con los experimentos abióticos: en la concentración total, en la relación entre el cobre total y el cobre disuelto, y en la magnitud requerida para el término fuente para cerrar el balance de masa.
uc
Determinación de la confiabilidad implícita en el método de diseño estructural de pavimentos flexibles AASHTO-93 en base a modelos de predicción del deterioro.
En la actualidad cuando se requiere definir la confiabilidad que se utilizará en el diseño de un pavimento, esta se asigna según recomendaciones de guías de diseño o de acuerdo al criterio del diseñador. Esta situación hace probable que cuando se evalúa la estructura la vida diseño puede verse sub o sobre dimensionada. Adicionalmente, el valor de confiabilidad elegido se define como un valor determinista, que en el diseño se involucra como una simplificación de un análisis basado en la teoría de confiabilidad y que para efectos prácticos se configura como un factor de seguridad que minora el número de ejes equivalentes predichos por el método de diseño. De otro lado, los modelos de comportamiento son desarrollos empíricos que se calibran en base a información tomada de campo y que gracias a ella pueden evaluar el desempeño de una estructura de pavimento en condiciones reales de clima, calidad del proceso constructivo, desempeño de los materiales, comportamiento del tránsito, etc. Por lo tanto, la forma adecuada de enfrentar el diseño es evaluar el desempeño en términos de la probabilidad de éxito, definida como la probabilidad de que el número de repeticiones carga realmente aplicadas sobre el pavimento, no excedan el número de repeticiones de carga que puede soportar hasta alcanzar un nivel mínimo de serviciabilidad especificada y no desde una perspectiva determinista. Debido a lo anterior, esta investigación propone un método que relaciona el diseño con los modelos de comportamiento, mediante el cual puede obtenerse valores de confiabilidad que reducen la incertidumbre de su asignación y proporcionen una estimación realista de la vida de diseño, al tomar en cuenta los modelos de comportamiento. Para lograr este objetivo se desarrolló un modelo conceptual del método de diseño, que considerando su naturaleza aleatoria y aplicando técnicas de simulación permitieran obtener distribuciones de probabilidad que caracterizan la vida de diseño utilizando datos tomados en campo. Paralelamente, se realizó una propuesta mediante la cual fuese posible integrar los modelos de deterioro, de tal manera que pudiesen predecir la evolución de la serviciabilidad con respecto a las cargas del tránsito que circulan sobre el pavimento. De esta manera, puede estimarse la vida útil del pavimento, que se caracterizó mediante funciones de densidad de probabilidad que fueron ajustadas utilizando datos tomados en campo. Posteriormente con las representaciones aleatorias de la vida de diseño y vida útil, y la utilización de la teoría de la confiabilidad se obtienen valores de confiabilidad que contrastan adecuadamente el diseño predicho con el desempeño esperado de un pavimento en servicio. Finalmente, la propuesta de este estudio fue evaluada mediante un caso de estudio sobre carreteras localizadas en Chile. Los modelos desarrollados definieron valores de confiabilidad para distintas categorías de caminos, clasificados por ubicación geográfica, nivel de tránsito y capacidad estructural. Además se obtuvieron representaciones probabilísticas de los distintos deterioros analizados y de la expectativa de vida de diseño por categorías clasificadas según se indicó antes. Se concluye que la relación entre el método de diseño empírico AASHTO-93 y los modelos de comportamiento del programa HDM-4 es una herramienta válida para definir el valor de confiabilidad, que ajusta el resultado del diseño gracias a una evaluación anticipada de la evolución del camino cuando se coloca en servicio, lo que representa una menor variabilidad de la vida útil de la estructura de pavimento.En la actualidad cuando se requiere definir la confiabilidad que se utilizará en el diseño de un pavimento, esta se asigna según recomendaciones de guías de diseño o de acuerdo al criterio del diseñador. Esta situación hace probable que cuando se evalúa la estructura la vida diseño puede verse sub o sobre dimensionada. Adicionalmente, el valor de confiabilidad elegido se define como un valor determinista, que en el diseño se involucra como una simplificación de un análisis basado en la teoría de confiabilidad y que para efectos prácticos se configura como un factor de seguridad que minora el número de ejes equivalentes predichos por el método de diseño. De otro lado, los modelos de comportamiento son desarrollos empíricos que se calibran en base a información tomada de campo y que gracias a ella pueden evaluar el desempeño de una estructura de pavimento en condiciones reales de clima, calidad del proceso constructivo, desempeño de los materiales, comportamiento del tránsito, etc. Por lo tanto, la forma adecuada de enfrentar el diseño es evaluar el desempeño en términos de la probabilidad de éxito, definida como la probabilidad de que el número de repeticiones carga realmente aplicadas sobre el pavimento, no excedan el número de repeticiones de carga que puede soportar hasta alcanzar un nivel mínimo de serviciabilidad especificada y no desde una perspectiva determinista. Debido a lo anterior, esta investigación propone un método que relaciona el diseño con los modelos de comportamiento, mediante el cual puede obtenerse valores de confiabilidad que reducen la incertidumbre de su asignación y proporcionen una estimación realista de la vida de diseño, al tomar en cuenta los modelos de comportamiento. Para lograr este objetivo se desarrolló un modelo conceptual del método de diseño, que considerando su naturaleza aleatoria y aplicando técnicas de simulación permitieran obtener distribuciones de probabilidad que caracterizan la vida de diseño utilizando datos tomados en campo. Paralelamente, se realizó una propuesta mediante la cual fuese posible integrar los modelos de deterioro, de tal manera que pudiesen predecir la evolución de la serviciabilidad con respecto a las cargas del tránsito que circulan sobre el pavimento. De esta manera, puede estimarse la vida útil del pavimento, que se caracterizó mediante funciones de densidad de probabilidad que fueron ajustadas utilizando datos tomados en campo. Posteriormente con las representaciones aleatorias de la vida de diseño y vida útil, y la utilización de la teoría de la confiabilidad se obtienen valores de confiabilidad que contrastan adecuadamente el diseño predicho con el desempeño esperado de un pavimento en servicio. Finalmente, la propuesta de este estudio fue evaluada mediante un caso de estudio sobre carreteras localizadas en Chile. Los modelos desarrollados definieron valores de confiabilidad para distintas categorías de caminos, clasificados por ubicación geográfica, nivel de tránsito y capacidad estructural. Además se obtuvieron representaciones probabilísticas de los distintos deterioros analizados y de la expectativa de vida de diseño por categorías clasificadas según se indicó antes. Se concluye que la relación entre el método de diseño empírico AASHTO-93 y los modelos de comportamiento del programa HDM-4 es una herramienta válida para definir el valor de confiabilidad, que ajusta el resultado del diseño gracias a una evaluación anticipada de la evolución del camino cuando se coloca en servicio, lo que representa una menor variabilidad de la vida útil de la estructura de pavimento.
uc
Study of transport phenomena during frying using glass micromodels.
Las nuevas tendencias en nutrición y la creciente demanda por alimentos más sanos han sido las fuerzas motrices para el desarrollo de productos fritos con un menor contenido final de aceite. A pesar de los esfuerzos realizados por comprender a cabalidad el fenómeno de absorción de aceite durante la fritura, debido a que múltiples cambios ocurren durante este rápido y complejo proceso, la descripción completa de éste sigue siendo poco clara. Hasta el momento, el fenómeno de absorción de aceite en alimentos fritos, ha sido estudiado de diferentes maneras, utilizando diferentes técnicas de microscopia, métodos químicos, y se han realizado importantes esfuerzos por modelarlo. Debido a su complejidad, la mayoría del trabajo ha sido realizado desde un enfoque macroscópico, ya que los flujos claves son afectados por muchos factores que interactúan de numerosas maneras, en niveles diferentes. Esta tesis busca abordar el fenómeno de transporte ocurrido durante la fritura desde una perspectiva microscópica con el fin de lograr un mejor entendimiento de los mecanismos envueltos en el proceso. En consecuencia, la hipótesis fundamental de esta tesis fue que es posible estudiar y ganar un mejor entendimiento de la evaporación de los fenómenos de evaporación de agua y absorción de aceite, los cuales ocurren durante la inmersión en aceite desde un punto de vista microscópico mediante el uso de micromodelos. Por lo tanto, el objetivo principal de esta investigación fue obtener evidencia visual de los mecanismos responsables de la evaporación de agua y absorción de aceite durante la inmersión en aceite usando micromodelos de vidrio, para imitar una matriz alimentaria porosa, con el fin de establecer los mecanismos de flujo y secuencia durante el proceso, identificando cuando y como ocurren los movimientos de los fluidos. Los micromodelos son redes estrechas y transparentes de poros que simulan la complejidad de un medio natural poroso. Los micromodelos de vidrio han sido utilizados para estudiar flujo en medios porosos en muchas áreas de la ciencia y tecnología, como por ejemplo en la industria del petróleo, donde su aplicación ha contribuido a la comprensión de los fenómenos de flujo y en la optimización de los procesos de extracción. En el procesamiento de alimentos han sido usados para entender fenómenos claves en secado, impregnación a vacío y secado en frío. El primer paso consideró la implementación de la técnica fotolitográfica para la fabricación de los micromodelos de una manera reproducible. Además, se diseñaron 2 tipos de sistemas para simular el proceso de fritura, y se usaron varios tipos de cámaras para capturar imágenes estáticas y videos, los cuales fueron posteriormente procesados; con el fin de obtener información cuantitativa del fenómeno. El primer estudio estuvo centrado en visualizar las distintas etapas durante el periodo de inmersión y enfriamiento, con el objetivo de entender los principales mecanismos involucrados. Dentro de los principales resultados de este estudio, cabe destacar que fue posible obtener evidencia visual de los periodos de inmersión y enfriamiento, previamente descritos en la literatura. Específicamente, fue posible observar el movimiento (o evolución) del frente de evaporación y la dinámica del burbujeo. Respecto al fenómeno de absorción de aceite, fue posible concluir que solamente una pequeña fracción de aceite penetraba dentro del micromodelo de vidrio durante el periodo de inmersión. Durante el enfriamiento, la succión comenzó solo algunos segundos después de ser retirado el micromodelo del baño de aceite y se detuvo abruptamente cuando la continuidad de la capa de aceite superficial en el lado abierto del micromodelo se perdió. Esto permitió la entrada de aire, el cual penetró rápidamente en los capilares que aún se encontraban vacíos hasta que la presión interna alcanzó la externa. Los frentes de evaporación tienden en gran medida a tomar las formas de los perfiles de temperatura, como se refleja en la termografía infrarroja. En general, g afectó severamente el contenido de aceite. Específicamente, cuando g=0, una absorción mínima de aceite fue observada. Posteriormente, se estudió el efecto de la gravedad en la cinética de pérdida de humedad y absorción de aceite, con el objetivo de desacoplar la gravedad de los otros factores. Los microdelos fueron ubicados dentro del baño de aceite, usando diferentes orientaciones con respecto de la gravedad (g>0; g=0; g <0) con el fin de entender su efecto en la penetración capilar. Se observó que cuando g<0 la velocidad de secado de la matriz disminuyó y afectó el frente de evaporación, el cual fue menos estable como se indica por su mayor dimensión fractal (1.818±0.032). Finalmente, el efecto de diferentes matrices alimentarias sobre los fenómenos de transporte fue analizado. Para lo cual, se diseñaron tres micromodelos diferentes, basados en los patrones porosos de manzanas, papas y zanahorias. Los micromodelos que imitaban la estructura de una manzana mostraron las mayores velocidades de secado, y alcanzaron un mayor contenido de aceite final. Los micromodelos de zanahoria mostraron menores velocidades de secado, con un frente de evaporación menos estable, como se indica en su mayor dimensión fractal (1.826 ± 0.015). La menor porosidad de los micromodelos de zanahoria redujo significativamente la succión de aceite durante el periodo de enfriamiento, con un 34, 8 % del volumen total disponible ocupado por aceite. Por otro lado, el volumen ocupado por el aceite en los micromodelos de papa y manzana fue 37,0% y 41,5%, respectivamente. En general, el trabajo presentado en este documento permite obtener evidencia visual directa de los mecanismos implicados en la evaporación del agua y la absorción de aceite, con el fin de establecer los mecanismos de flujo más importantes y su secuencia durante el proceso, identificando cuándo y cómo los movimientos de los fluidos dentro de la matriz se producen. La inmersión de un micromodelo de vidrio en aceite, tiene ciertamente algunas diferencias respecto de la inmersión de un material alimentario. Por ejemplo, los micromodelos de vidrio no son higroscópicos, poseen una estructura fija y son 100% saturados con agua. Por otro lado, los materiales alimentarios están compuestos por variados componentes y la estructura porosa se desarrolla durante su procesamiento. En alimentos amiláceos por ejemplo, una de las principales categorías de alimentos; la gelatinización del almidón afecta la formación de la estructura del medio poroso la cual se desarrolla durante la fritura, donde los poros pueden además expandirse o colapsar durante el proceso. Sin embargo, el uso de micromodelos permite la observación directa del fenómeno de transporte, lo cual no ha sido posible alcanzar en los sistemas alimenticios. Esta evidencia podrá establecer las bases para conocimientos futiros en estos fenómenos y contribuir a la mejora de modelos predictivos, diseños de procesos y tecnologías de procesamiento para desarrollar productos fritos con menores contenidos de aceite. Junto a ello, el trabajo y técnicas desarrolladas en esta tesis ilustran como los micromodelos podrían ser usados para visualizar y proveer de valiosa información que permita entender fenómenos de transporte determinantes del procesamiento en otros campos.
uc
Bioavailability of interesterified lipids in food emulsions.
La importancia de los lípidos en los alimentos va mas allá de su rol como fuente de energía y nutrientes. También son parcialmente responsables de propiedades organolépticas clave, tales como textura, liberación del sabor, y saciedad, la cual es difícil de duplicar en formulaciones libres de grasa. Además, los lípidos han sido asociados al desarrollo de numerosas enfermedades, pero también a la prevención de varias otras, principalmente debido al efecto de ácidos grasos esenciales. Desafortunadamente, las propiedades fisicoquímicas y nutricionales de los lípidos no se encuentran juntos con frecuencia. Existen grasas cuyas propiedades físicas son aptas para aplicaciones específicas, pero no son nutricionalmente recomendables. Otros, en cambio, pueden tener un excelente perfil de ácidos grasos, pero su distribución en la molécula de triacilglicerol podría no permitir una absorción óptima. Además, la matriz alimentaria donde los lípidos están ubicados, puede ser un factor clave para determinar el grado en el cual los lípidos son absorbidos. La hipótesis de este estudio fue que a través de interesterificación enzimática es posible sintetizar lípidos estructurados con un buen perfil de ácidos grasos –alto en acidos grasos n-3 y cero trans- y un perfil de fusión similar al de una grasa comercial, cuya biodisponibilidad puede ser modulada, además de la nueva estructura de TAG, a través del diseño de emulsiones. De acuerdo a esto, el objetivo principal de esta tesis fue conseguir un mejor entendimiento del efecto de la interesterificación enzimática, en la síntesis de grasas plásticas, así como de la emulsificación, en la biodisponibilidad postprandial de lípidos in vivo. Primero se analizó el efecto de la interesterificación en la estructuración de lípidos. Para ello, se compararon las interesterificaciones química y enzimática de mezclas binarias en la obtención de lípidos estucturados con cero trans y un alto contenido de ácido linolénico (C18:3n3), además de adecuadas propiedades funcionales. Aceite de soya full hidrogenado (fully hydrogenated soybean oil, FHSBO) y aceite de nuez (walnut oil, WO) fueron usados como materias primas. Metóxido de sodio y Lipozyme TL IM fueron usados como catalizadores químico y enzimático, respectivamente. Mezclas FHSBO/WO en relaciones de masa de 20/80, 40/60 y 60/40 fueron evauladas, y la interesterificaión total se determinó por la estabilización en su contenido de grasa sólida (solid fat content, SFC). La mezclas interesterificadas químicamente fueron estabilizadas a los 10 min para al mezcla 20/80 y a los 15 min para las mezclas 40/60 y 60/40. Mientras, todas las mezclas enzimáticamente interesterificadas se completaron a los 120 min. Una reducción significativa en el SFC para todas las composiciones se produjo después de completar las interesterificaciones química o enzimática. Las mezclas 60/40 interesterificadas química y enzimáticamente mostraron la curva plástica de un shortening multipropósito, rico en ácidos grasos poliinsaturados, especialmente en C18:3n3 y cero trans. La interesterificación enzimática fue escogida para estudios adicionales debido a su estereoespecificidad. Dado que, el perfil de ácidos grasos es un factor crítico en las propiedades nutricionales de las grasas, pero también la estereoquímica juega un rol fundamental, la biodisponibilidad de ácidos grasos en las mezclas interesterificadas fue analizada. Para ello, mezclas de aceite de linaza (linseed oil, LO) y esterarina de palma (palm stearin, PS) fueron comparadas con sus mezclas interesterificadas usando una lipasa estereoespecífica en las posiciones sn 1 y 3, para determinar si había alguna diferencia en términos de biodisponibilidad cuando se usaba esta tecnología. Las dos mezclas tenían el mismo perfil de ácidos grasos, pero distinto SFC, debido al cambio en la estereoquímica de los triacilgliceroles. Ratas Sprague-Dawley macho fueron alimentadas con las mezclas interesterificada (IE) o no interesterificada (nIE) a través de un tubo de alimentación bucogástrico luego de 18 h de ayuno. Se utilizó suero fisiológico como control. Se tomaron muestras de sangre luego de la administración de los test meals y se determinó el perfil de ácidos grasos plasmáticos en el periodo postprandial. Los resultados mostraron que la modificación en los perfiles de fusión de las mezclas a través de la interesterificación, sin alterar la biodisponibilidad determinada por la posición sn-2, puede retrasar la absorción de los lípidos al principio de la digestión, con peaks de absorción de C18:3n3 a 1,5 y 4,5 h postadministración, para IE y nIE, respectivamente, pero esto no tiene un efecto en la absorción total de los lípidos. La estructura alimentaria es también responsable de la biodisponibilidad de lípidos. Un diseño apropiado de la matriz alimentaria podría restringir o facilitar la liberación de ácidos grasos y dejarlos disponibles para la absorción, tal como en la emulsificación. Para comprender mejor éste fenómeno, evaluamos el efecto de la emulsificación, así como el uso de diferentes agentes emulsificantes, en la biodisponibilidad postprandial de lípidos estructurados en emulsiones O/W en ratas. Emulsiones O/W estables, preparadas con caseinato de sodio (Sc) o quitosán (Ch) fueron dosificadas como test meals. Una mezcla no emulsificada fue utilizada como control (C), y suero fisiológico fue usado como blanco (B). Ratas Sprague-Dawley fueron intragástricamente alimentadas con Sc, Ch, C o B, y se tomaron muestras de sangre en el periodo postprandial. Los resultados mostraron que la emulsificación puede aumentar la absorción de lípidos, como se determinó luego de la administración de emulsiones Sc, cuya absorción de AG totales es 20% mayor que el control. Sin embargo, éste resultado no puede ser generalizado. Los lípidos interesterificados que fueron emulsificados con quitosán, fueron igualmente absorbidos que aquellos en la mezcla lípidos interesterificados/agua destilada, no emulsificados. Se sugirió que esto puede ser debido a un acceso limitado de la lipasa pancreática a los lípidos. El mayor pH que se encuentra en el duodeno (pH>pKa quitosan) puede reducir la solibilidad de Ch, y puede contrapesar el efecto positivo de la pre-emulsificación. Esto sugiere que la emulsificación, como herramienta para el diseño de matrices alimentarias, no es la única responsable de una mayor biodisponibilidad, sino que las interacciones que ocurren entre el estabilizante y los alrededores durante la digestión, es también crucial. En general, este estudio confirma que la interesterificación parece ser una herramienta apropiada para la sintesis de grasas estructuradas con un buen perfil nutricional y propiedades funcionales adecuadas. Sin duda, el diseño de matrices alimentarias es también un asunto de interés, como se refleja en este estudio, el cual establece las bases para una futura investigación con respecto a la necesidad de conseguir un mejor entendimiento de las interacciones entre los nutrientes y su entorno. Distintos enfoques pueden ser utilizados para el diseño de una estructura alimentaria apropiada, la cual puede maximizar o reducir la biodisponibilidad de lípidos y/o ácidos grasos específicos, según necesidad. Como tal, este estudio contribuye al creciente campo del diseño de estrucuras alimentarias y resalta como la estructura puede ser personalizada para satisfacer las demandas de los consumidores.
uc
Surf zone boundary layer and 2D large scale hydrodynamics /
Este trabajo trata de los procesos hidrodinámicos en la zona litoral, de grande importancia para la dinámica global del flujo costero y la morfodinámica de la costa en particular. Dos temas principales son estudiados. El primero trata de la capa límite oscilante provocada por la interacción entre el oleaje y el fondo al acercarse a la costa. El segundo tema trata de la evolución de la circulación y la vorticidad inducida por la batimetría y/o el oleaje. Estos dos temas tienen escalas de tiempo y espacio distintas, pero son ambos importantes para entender los procesos hidrodinámicos a lo largo de la costa. Un modelo de capa límite turbulenta ha sido elaborado y validado para analizar la evolución de la capa límite oscilante bajo la influencia de oleaje no-lineal, apoyándose en una modelación física, con un oleaje bicromático, realizada en el canal de olas del LEGI con un sedimento ligero para respetar las similitudes de Rouse y Shields. Los perfiles instantáneas de velocidad y posición del fondo fijo obtenidos por mediciones acústicas, permiten definir la evolución de las no-linealidades inducidas por las olas dentro de la capa límite. El modelo numérico acoplado a una modelación del movimiento del fondo móvil es capaz de reproducir la evolución de estas no-linealidades, una asimetría en velocidad de las olas llevando a una disimetría dentro de la capa límite, así como una relación lineal entre estos dos términos. El modelo explica también que la difusión vertical observada experimentalmente es principalmente debida al movimiento vertical del fondo inducido por el oleaje. El estudio de la circulación y de la vorticidad en zonas costeras se hace mediante un modelo numérico 2D promediado en la vertical de tipo Shallow Water que es validado con los datos de una experiencia llevada a cabo en la piscina de olas del Laboratoire Hydraulique de France (ARTELIA) con un lecho móvil. La formación de corrientes rip se realiza a través de frentes de olas con un déficit de energía en el medio de la piscina. El modelo numérico es validado con mediciones de superficie libre, de velocidades, y de circulación y vorticidad por medio de drifters Lagrangianos. Utilizando la ecuación de vortcidad potencial como herramienta de diagnóstico, con un oleaje monocromático se predice un equilibrio entre la generación de vorticidad y su advección por las corrientes. Con un oleaje bicromático se ven también que la vorticidad evoluciona con el grupo de olas y que se llega a un estado de equilibrio con períodos de grupos grandes.
uc
Influence of the mechanical properties of friction dampers on the seismic response of steel frame structures.
El objetivo de esta tesis consiste en identificar y cuantificar la influencia de las propiedades mecánicas de disipadores de fricción sobre la respuesta sísmica de marcos de acero. Un disipador de fricción puede ser modelado como una arriostra, caracterizada por su rigidez elástica, en serie con un dispositivo de fricción de Coulomb, caracterizado por su fuerza de activación. Se consideraron tres marcos realistas de acero de 3, 6 y 9 pisos. Se analizó la respuesta sísmica de estas estructuras equipadas con arriostras de distintas rigideces y con dispositivos de fricción de distintas fuerzas de activación. La respuesta sísmica fue obtenida mediante análisis tiempo-historia no-lineal utilizando como excitación sísmica registros reales. También se analizó la posible influencia del número de pisos, de la distribución en altura de las propiedades mencionadas, y de las características de los registros sísmicos. Los resultados obtenidos indican que la reducción de la respuesta de desplazamiento de entrepiso del marco de 3 pisos es principalmente controlada por la rigidez de las arriostras, mientras que la reducción de la misma respuesta en los marcos de 6 y 9 pisos es controlada tanto por la rigidez de las arriostras como por los dispositivos de fricción. También se encontró que una distribución en altura uniforme de la fuerza de activación de los dispositivos de fricción resulta en menores fuerzas axiales en las columnas y en menores aceleraciones de piso que aquellas que resultan cuando la distribución en altura es variable. Finalmente, el estudio también indica que la distribución en altura de la rigidez de las arriostras y las características de la fuente sismogénica de los registros sísmicos no son de mayor relevancia.
uc
Simplified probabilistic evaluation of the seismic performance of three pile-supported bridges affected by liquefaction.
El terremoto de Maule del 2010 de magnitud M8.8 causó daños y colapsos parciales en varios puentes apoyados sobre pilotes a lo largo de la costa de Chile. Estos daños fueron probablemente debido a efectos de desplazamiento lateral y asentamientos inducidos por licuación, los que generalmente causan grandes deformaciones en el suelo y a la vez imponen cargas adicionales en los pilotes de las fundaciones. En esta tesis se analizará el desempeño sísmico de tres puentes, basándose en el desplazamiento lateral residual de los estribos y/o cepas de cada puente, utilizando una metodología simplificada. Los puentes analizados son: Juan Pablo II, Llacolén y Mataquito. Dichos puentes fueron seleccionados no sólo por la clara evidencia de licuación en sus respectivas ubicaciones, sino también porque su comportamiento sísmico fue muy distinto entre ellos. El análisis se llevó a cabo utilizando dos enfoques, una evaluación de activación de licuación en conjunto con el concepto de “pile-pinning” y una evaluación probabilística enfocada al desempeño. Para la evaluación de susceptibilidad de licuación se utilizaron perfiles de Penetración Standart (SPT), los cuales fueron proporcionados por el Ministerio de Obras Públicas (MOP). El método analítico consiste principalmente en: identificación de capas licuables, análisis de estabilidad del estribo y/o cepa, estimación del máximo desplazamiento lateral del suelo y análisis de respuesta de los pilotes de la fundación ante el desplazamiento lateral. El método probabilístico se evaluó utilizando una hoja de cálculo proporcionada por los autores de este método. Se encontró que existe una correlación razonable buena entre las estimaciones de desplazamiento lateral obtenidas y el daño observado en los puentes. Comparando los resultados obtenidos, no existe clara evidencia de que un método sea mas preciso que otro, pues ambos métodos entregan rangos de desplazamiento conservadores, sobre todo el método probabilístico.El terremoto de Maule del 2010 de magnitud M8.8 causó daños y colapsos parciales en varios puentes apoyados sobre pilotes a lo largo de la costa de Chile. Estos daños fueron probablemente debido a efectos de desplazamiento lateral y asentamientos inducidos por licuación, los que generalmente causan grandes deformaciones en el suelo y a la vez imponen cargas adicionales en los pilotes de las fundaciones. En esta tesis se analizará el desempeño sísmico de tres puentes, basándose en el desplazamiento lateral residual de los estribos y/o cepas de cada puente, utilizando una metodología simplificada. Los puentes analizados son: Juan Pablo II, Llacolén y Mataquito. Dichos puentes fueron seleccionados no sólo por la clara evidencia de licuación en sus respectivas ubicaciones, sino también porque su comportamiento sísmico fue muy distinto entre ellos. El análisis se llevó a cabo utilizando dos enfoques, una evaluación de activación de licuación en conjunto con el concepto de “pile-pinning” y una evaluación probabilística enfocada al desempeño. Para la evaluación de susceptibilidad de licuación se utilizaron perfiles de Penetración Standart (SPT), los cuales fueron proporcionados por el Ministerio de Obras Públicas (MOP). El método analítico consiste principalmente en: identificación de capas licuables, análisis de estabilidad del estribo y/o cepa, estimación del máximo desplazamiento lateral del suelo y análisis de respuesta de los pilotes de la fundación ante el desplazamiento lateral. El método probabilístico se evaluó utilizando una hoja de cálculo proporcionada por los autores de este método. Se encontró que existe una correlación razonable buena entre las estimaciones de desplazamiento lateral obtenidas y el daño observado en los puentes. Comparando los resultados obtenidos, no existe clara evidencia de que un método sea mas preciso que otro, pues ambos métodos entregan rangos de desplazamiento conservadores, sobre todo el método probabilístico.
uc
CVAR constrained planning of renewable generation with consideration of system inertial response, reserve services and demand participation.
La integración de generación renovable puede ayudar a la diversificación de fuentes de energía, mejorando el desempeño económico del sector generación, como también puede significar un incremento en el costo de la electricidad debido a la necesidad de recursos de flexibilidad adicionales que permitan una operación segura, frente al carácter impredecible, variable y asíncrono de este tipo de tecnologías. En este contexto, se propone un modelo de costo-riesgo capaz de planificar la generación y determinar portafolios eficientes, balanceando los beneficios de la diversificación del mix y los costos de mantener la seguridad de suministro incorporando servicios de control de frecuencia y flexibilidad de la demanda, incluyendo la satisfacción de los niveles necesarios de inercia presentes en el sistema. El modelo minimiza el costo esperado de inversión y operación del sistema en base a diversos escenarios hidrológicos y de precios de combustibles fósiles, restringiendo al mismo tiempo la exposición a riesgo de los portafolios a través de su Conditional Value at Risk (CVaR). Problemas de gran tamaño pueden ser resueltos utilizando el modelo (e.g. 8760h y 1000 escenarios) dado que se utiliza programación lineal y se desarrolla un algoritmo basado en descomposición de Benders, adaptado para tratar con restricciones de CVaR en el problema maestro. A través de diversos análisis, incluyendo el principal sistema eléctrico de Chile, se muestra los efectos de las tecnologías renovables en la reducción del riesgo hidrológico y de precios de combustibles fósiles, los efectos de la seguridad de suministro en el costo, riesgo y la inversión en renovables y la importancia de los servicios provistos por la demanda en la limitación de la exposición a riesgo a través de la inversión en energías renovables.La integración de generación renovable puede ayudar a la diversificación de fuentes de energía, mejorando el desempeño económico del sector generación, como también puede significar un incremento en el costo de la electricidad debido a la necesidad de recursos de flexibilidad adicionales que permitan una operación segura, frente al carácter impredecible, variable y asíncrono de este tipo de tecnologías. En este contexto, se propone un modelo de costo-riesgo capaz de planificar la generación y determinar portafolios eficientes, balanceando los beneficios de la diversificación del mix y los costos de mantener la seguridad de suministro incorporando servicios de control de frecuencia y flexibilidad de la demanda, incluyendo la satisfacción de los niveles necesarios de inercia presentes en el sistema. El modelo minimiza el costo esperado de inversión y operación del sistema en base a diversos escenarios hidrológicos y de precios de combustibles fósiles, restringiendo al mismo tiempo la exposición a riesgo de los portafolios a través de su Conditional Value at Risk (CVaR). Problemas de gran tamaño pueden ser resueltos utilizando el modelo (e.g. 8760h y 1000 escenarios) dado que se utiliza programación lineal y se desarrolla un algoritmo basado en descomposición de Benders, adaptado para tratar con restricciones de CVaR en el problema maestro. A través de diversos análisis, incluyendo el principal sistema eléctrico de Chile, se muestra los efectos de las tecnologías renovables en la reducción del riesgo hidrológico y de precios de combustibles fósiles, los efectos de la seguridad de suministro en el costo, riesgo y la inversión en renovables y la importancia de los servicios provistos por la demanda en la limitación de la exposición a riesgo a través de la inversión en energías renovables.
uc
Evaluación del desempeño sísmico de una vivienda de muros de hormigón armado.
El uso de muros de hormigón armado de espesor y cuantía de refuerzo reducida es una práctica cada vez más común en la construcción de viviendas de uno y dos pisos en Chile. Para el análisis y diseño sísmico de estas estructuras, no existe una norma específica en este país. La norma vigente para el diseño sísmico (Decreto DS60 y DS61) está orientada para edificios y es muy conservadora su aplicación para viviendas. El objetivo de este trabajo es evaluar el desempeño sísmico de una vivienda de muros de hormigón armado de dos pisos, representativa de la construcción en Chile. Los muros son de 10 cm de espesor y están reforzados con una malla electrosoldada central. Para evaluar el desempeño sísmico se utiliza la metodología FEMA P-695, la cual involucra un análisis no lineal estático y un análisis dinámico incremental. Para cumplir el objetivo se desarrolla un modelo no lineal simplificado de la estructura en OpenSees. Para simular el comportamiento no lineal de los muros se consideran relaciones fuerza-desplazamiento, propuestas en la literatura y obtenidas de ensayos experimentales. Para el análisis dinámico incremental de la metodología, se utiliza la aceleración máxima del suelo como medida de intensidad del movimiento del suelo. A partir de los dos análisis, se determina el factor de sobrerresistencia y ductilidad y se verifica la aceptabilidad del factor de modificación de la respuesta de la estructura (R=4). Adicionalmente, se obtienen curvas de fragilidad de colapso para estimar la probabilidad de colapso de este tipo de viviendas en función de la intensidad sísmica. Los resultados obtenidos permiten concluir que se debiese permitir el uso de muros de hormigón armado de 10 cm de espesor con malla de refuerzo central electrosoldada con cuantía mínima para el diseño de casas de hasta dos pisos en Chile.El uso de muros de hormigón armado de espesor y cuantía de refuerzo reducida es una práctica cada vez más común en la construcción de viviendas de uno y dos pisos en Chile. Para el análisis y diseño sísmico de estas estructuras, no existe una norma específica en este país. La norma vigente para el diseño sísmico (Decreto DS60 y DS61) está orientada para edificios y es muy conservadora su aplicación para viviendas. El objetivo de este trabajo es evaluar el desempeño sísmico de una vivienda de muros de hormigón armado de dos pisos, representativa de la construcción en Chile. Los muros son de 10 cm de espesor y están reforzados con una malla electrosoldada central. Para evaluar el desempeño sísmico se utiliza la metodología FEMA P-695, la cual involucra un análisis no lineal estático y un análisis dinámico incremental. Para cumplir el objetivo se desarrolla un modelo no lineal simplificado de la estructura en OpenSees. Para simular el comportamiento no lineal de los muros se consideran relaciones fuerza-desplazamiento, propuestas en la literatura y obtenidas de ensayos experimentales. Para el análisis dinámico incremental de la metodología, se utiliza la aceleración máxima del suelo como medida de intensidad del movimiento del suelo. A partir de los dos análisis, se determina el factor de sobrerresistencia y ductilidad y se verifica la aceptabilidad del factor de modificación de la respuesta de la estructura (R=4). Adicionalmente, se obtienen curvas de fragilidad de colapso para estimar la probabilidad de colapso de este tipo de viviendas en función de la intensidad sísmica. Los resultados obtenidos permiten concluir que se debiese permitir el uso de muros de hormigón armado de 10 cm de espesor con malla de refuerzo central electrosoldada con cuantía mínima para el diseño de casas de hasta dos pisos en Chile.
uc
A new TDR-waveform approach capable to estimate soil moisture contents at large electrical conductivity ranges.
La reflectometría de dominio temporal (Time Domain Reflectometry, TDR) ha sido ampliamente utilizada por la comunidad científica como un método indirecto de medición del contenido de humedad (θ) de los suelos. Esta metodología es capaz de proporcionar observaciones de θ con una alta resolución temporal y con una precisión aceptable. El funcionamiento de esta metodología consiste en la estimación de la constante dieléctrica aparente del suelo (ε), basada en una interpretación de la reflexión de la señal electromagnética (comúnmente denominada “waveform”) emitida por el sensor, para luego relacionar ε con el contenido de humedad del suelo. En suelos eléctricamente conductivos, la señal electromagnética puede verse fuertemente atenuada debido al efecto de la conductividad eléctrica aparente (bulk electrical conductivity, BEC), lo que impide la detección del final de las varillas del sensor, y por lo tanto la estimación de ε, resultando en errores significativos en las mediciones del contenido de humedad. Esta tesis presenta una nueva metodología de interpretación de la onda reflejada del sensor basada en la detección distintas variables que las utilizadas por la metodología tradicional de TDR. Este novedoso enfoque metodología puede extender la aplicabilidad de sensores TDR, duplicando el rango de conductividad eléctrica actual con mediciones precisas y confiables. El nuevo enfoque extiende la aplicabilidad del sensor TDR, doblando el rango actual de conductividad eléctrica con mediciones confiables y precisas de θ. La nueva metodología presentada en esta tesis abre una nueva ventana investigación de las mediciones del contenido.
uc
Understanding Chilean student's digital skills
La integración y participación plena de las nuevas generaciones a una sociedad crecientemente tecnologizada, demanda prepararlas en la alfabetización digital. A pesar de ser un tema de debate académico y de políticas públicas a nivel internacional, aún ha sido poco estudiado en Chile. Esta tesis busca contribuir a la comprensión de la alfabetización digital de los estudiantes chilenos, luego de más de 20 años de inversión pública en una política de tecnologías en educación que ha entregado equipamiento a los colegios, acceso a Internet, capacitación a profesores y apoyo técnico y pedagógico, pero sin objetivos de aprendizaje específicos para el desarrollo de estas habilidades. Los estudios que configuran la presente tesis buscan analizar este tema de cinco maneras. Primero, por medio de definir las habilidades que debieran ser medidas en estudiantes de 2º Medio, considerando las definiciones de otros países, el marco curricular chileno y la evidencia de la investigación relacionada con las habilidades que se necesitan para resolver problemas digitales. Segundo, a través de aplicar un Modelo Rasch para examinar el desempeño de estudiantes de 2º Medio en una prueba piloto de medición de habilidades digitales implementada el año 2009, y de usar un análisis de regresión para estudiar la relación de estos resultados con factores vinculados con las Tecnologías de la Información y Comunicación (TIC) y con las características sociodemográficas de los estudiantes. Tercero, por medio de emplear un Modelo Logístico de Dos Parámetros (2PL) para investigar qué tipos de tareas mejor discriminan el desempeño de los estudiantes en una prueba nacional de habilidades digitales implementada por primera vez el año 2011 (SIMCE TIC). Cuarto, a través de usar un Modelo Lineal Jerárquico para estudiar la relación entre el desempeño de estudiantes de 2º Medio en el SIMCE TIC 2011 y su desempeño previo en SIMCE Language y SIMCE Matemáticas los años 2005 y 2009. Y finalmente, por medio de aplicar un análisis de Regresión Lineal Multivariado para comparar el efecto marginal del estatus social, económico y cultural de los estudiantes de 2º Medio en su resultado en la prueba nacional de habilidades digitales SIMCE TIC 2011 con el efecto en sus resultados en las pruebas nacionales de SIMCE Lenguaje y SIMCE Matemáticas el año 2009. Junto con ofrecer una perspectiva más amplia a las habilidades digitales a como han sido tradicionalmente concebidas en el currículum chileno, esta tesis entrega evidencia significativa sobre las habilidades digitales de los estudiantes chilenos. Los principales hallazgos son los siguientes: 1) Hay un bajo nivel de desarrollo de habilidades digitales en los estudiantes chilenos. 2) Los resultados están positivamente relacionados con el grupo socioeconómico, el acceso a las TIC en el hogar, la frecuencia de uso de las TIC en el hogar, y la confianza para realizar tareas TIC simples. 3) El tipo de ítemes que mejor discriminan entre diferentes niveles de dominio en el SIMCE TIC 2011 son aquellos que demandan aplicar criterios o conocimientos para resolver problemas relacionados con una cultura digital básica y de procesamiento de información en ambiente digital. 4) El desempeño previo de los estudiantes en lenguaje es más relevante que su desempeño previo en matemáticas en sus resultados en la prueba nacional de habilidades digitales. 5) Finalmente, el efecto marginal del Estatus Ecoómico, Social y Cultural de los estudiantes en las habilidades digitales de los estudiantes es igual al efecto en matemáticas y mayor al efecto en lenguaje.
uc
Modelos de programación estocástica de dos etapas incluyendo medidas de riesgo para la determinación de capacidad destinada a allotment en el transporte aéreo de carga /
Los bajos márgenes en la industria aérea han hecho que las aerolíneas se centren en el área del transporte de carga para aumentar sus ganancias. Uno de los problemas a los que se enfrentan es determinar la proporción de la capacidad de un vuelo que va a ser destinada para los contratos a largo plazo (allotment) y para las reservas más urgentes y cercanas a la fecha del vuelo (free). Por lo general, las tarifas allotment son menores a las tarifas free, lo cual sugiere que de ser posible, uno debiese privilegiar la venta del espacio free por sobre el allotment. Sin embargo, la demanda free tiene mayor incertidumbre, muchas veces no llegando con la carga comprometida aun cuando el espacio fue reservado. En esta tesis se formularon 3 modelos de programación estocástica de dos etapas para decidir la capacidad óptima que debe ser destinada a los contratos allotment, considerando la variabilidad inherente a la demanda, tarifa e índice de cumplimiento de las reservas en el free. El primer modelo (Modelo VE) busca maximizar los ingresos esperados por vuelo, mientras que los modelos λ−CVaR y R−CVaR extienden éste, pero incluyen una penalidad asociada al riesgo y una restricción con el nivel máximo de riesgo deseado, respectivamente, mediante el Conditional Value at Risk (CVaR). Estos modelos fueron comparados con la política de valores medios (EEV) y fueron resueltos utilizando la metodología Sample Average Approximation. Los resultados indican que el uso del Modelo VE genera más beneficios en situaciones en que la variabilidad de la demanda free es alta y la diferencia entre las tarifas allotment y free es baja, alcanzando un aumento de hasta un 7,58% en comparación a los ingresos obtenidos con la política EEV. Los modelos que consideran riesgo logran una mayor estabilidad en los ingresos, reduciendo la desviación estándar hasta en un 49% comparado con el Modelo VE a cambio de menores ingresos promedio, los cuales se reducen en un 2,4%.Los bajos márgenes en la industria aérea han hecho que las aerolíneas se centren en el área del transporte de carga para aumentar sus ganancias. Uno de los problemas a los que se enfrentan es determinar la proporción de la capacidad de un vuelo que va a ser destinada para los contratos a largo plazo (allotment) y para las reservas más urgentes y cercanas a la fecha del vuelo (free). Por lo general, las tarifas allotment son menores a las tarifas free, lo cual sugiere que de ser posible, uno debiese privilegiar la venta del espacio free por sobre el allotment. Sin embargo, la demanda free tiene mayor incertidumbre, muchas veces no llegando con la carga comprometida aun cuando el espacio fue reservado. En esta tesis se formularon 3 modelos de programación estocástica de dos etapas para decidir la capacidad óptima que debe ser destinada a los contratos allotment, considerando la variabilidad inherente a la demanda, tarifa e índice de cumplimiento de las reservas en el free. El primer modelo (Modelo VE) busca maximizar los ingresos esperados por vuelo, mientras que los modelos λ−CVaR y R−CVaR extienden éste, pero incluyen una penalidad asociada al riesgo y una restricción con el nivel máximo de riesgo deseado, respectivamente, mediante el Conditional Value at Risk (CVaR). Estos modelos fueron comparados con la política de valores medios (EEV) y fueron resueltos utilizando la metodología Sample Average Approximation. Los resultados indican que el uso del Modelo VE genera más beneficios en situaciones en que la variabilidad de la demanda free es alta y la diferencia entre las tarifas allotment y free es baja, alcanzando un aumento de hasta un 7,58% en comparación a los ingresos obtenidos con la política EEV. Los modelos que consideran riesgo logran una mayor estabilidad en los ingresos, reduciendo la desviación estándar hasta en un 49% comparado con el Modelo VE a cambio de menores ingresos promedio, los cuales se reducen en un 2,4%.
uc
Diferencias de género y el efecto de los ingresos de la pareja en el bienestar subjetivo
A través de un modelo ordinal de elección discreta, analizamos distintos factores que se relacionan con el bienestar subjetivo (SWB) y en particular, con las diferencias de género que pudieran existir. Usando datos de la encuesta CASEN estudiamos el impacto de los ingresos de la pareja en el bienestar subjetivo de ambos sexos y las posibles diferencias en la valoración de bienes tanto materiales como intangibles. Hallamos diferencias estructurales significativas entre hombres y mujeres en la forma de valorar las distintas variables que se asocian al bienestar, que el nivel donde el ingreso que ya no contribuye al aumento de bienestar es sustancialmente menor en las mujeres, que el ingreso de la pareja es más valorado por las mujeres y que la situación laboral les afecta en forma distinta. Todo esto es consistente con la hipótesis de que prevalecen altos grados de sexismo en la sociedad. Por último, se aprecia un diferencial de bienestar en contra de la mujer, el que es íntegramente explicado por los diferentes recursos que poseen y que las diferencias de juicio contribuyen a mitigar este diferencial.
uc
Measurement of the equilibrium partition of tomato oleoresin between supercritical CO2 and selected adsorbents using dynamic methods.
El dióxido de carbono (CO2) supercrítico (SC) ha sido estudiado como alternativa a la extracción con solventes por sus propiedades beneficiosas. La solubilidad de compuestos naturales en CO2 SC varía con las condiciones de trabajo, siendo un solvente selectivo. Como el proceso de separación tradicional en extracción SC por descompresión o cambio de temperatura es demandante de energía, se propone la adsorción como alternativa para separar y reciclar el solvente. La adsorción y desorción en adsorbentes y compuestos relacionados usando CO2 SC se aplica en adsorción de gases, teñido de fibras, remediación de suelos, regeneración de adsorbentes, y separación/concentración de compuestos, aplicaciones que son revisadas en esta tesis. La interacción con el adsorbente es clave para maximizar la recuperación del extracto. La hipótesis del trabajo es que algunos adsorbentes son apropiados para la recuperación del extracto, así el objetivo fue identificar un adsorbente adecuado y medir la partición de oleorresina de tomate entre el adsorbente escogido y CO2 SC. Para seleccionar el adsorbente se comparó carbón activado, silica gel, quitosano en microesferas, celita, y celulosa microcristalina disolviendo la oleorresina en hexano y midiendo la adsorción a 40 ºC, en función de su concentración. Los adsorbentes escogidos fueron quitosano y silica gel con afinidad intermedia a la oleorresina. Se usó un método dinámico para medir el equilibrio de partición de la oleorresina entre el adsorbente empacado y CO2 SC a 28 MPa y 40 ºC. Limitaciones en el equipo impidieron la medición de la partición de silica gel. Con quitosano se observó una adsorción irreversible y baja interacción. Las isotermas se midieron con métodos basados en balances de masa y curvas de ruptura. Sus diferencias se explican con imprecisiones en curvas de ruptura por el fraccionamiento de la oleorresina. Diferencias de concentraciones en el sólido entre adsorción y desorción se explican por dificultades en mantener saturado el subsistema de equilibrio. El método de balances de masa funcionó mejor ya que considera el fraccionamiento.
uc
Understanding the effect of freezing on starch microstructural changes during heating at high rates.
La congelación es un método tradicional de preservación de alimentos, pero la congelación previa al calentamiento podría afectar el desarrollo de una microestructura deseada durante la cocción de alimentos amiláceos. De hecho, la gelatinización de almidón, una transformación crítica durante el calentamiento que juega un rol fundamental en la formación de estructura y está asociada a atributos de calidad, podría verse afectada. Debido a su importancia, no hay estudios a escala microscópica sobre el efecto de la congelación en la gelatinización de almidón nativo durante el calentamiento. La hipótesis de esta investigación es que a través de la miniaturización de procesos es posible entender el efecto de la congelación y el efecto de la accesibilidad de agua en la gelatinización de almidón, con el fin de mejorar nuestro conocimiento sobre el efecto de estos factores claves en los cambios microestructurales de almidón. Se espera observar y determinar un retraso en la gelatinización de almidón debido a la congelación. El objetivo principal fue estudiar el efecto de la congelación, junto con el efecto de la accesibilidad de agua, en los cambios microestructurales de almidón durante el calentamiento, a través de la miniaturización de procesos usando video-microscopía con luz polarizada y calorimetría diferencial de barrido. Para llevar a cabo lo anterior, muestras de almidón nativo en agua, gel de carragenina o solución de sacarosa fueron, o bien directamente calentadas a 15°C/min, o congeladas durante 48 horas, descongeladas y luego calentadas a la misma tasa. Los cambios microestructurales fueron seguidos con una platina térmica adaptada a un microscopio con luz polarizada, y los cambios energéticos fueron monitoreados con calorimetría diferencial de barrido. Además, la morfología de los gránulos fue analizada usando microscopía electrónica de barrido y microscopía de fuerza atómica. Los resultados indican que la congelación reduce el grado de gelatinización, lo que fue atribuido a un incremento en la cristalinidad del gránulo. Además, una restricción en la accesibilidad de agua produjo una reducción en el grado de gelatinización (DG(%) agua-almidón-sacarosa < DG(%) agua-almidón-carragenina < DG(%) agua-almidón) y un aumento en la entalpía de gelatinización (ΔH agua-almidón-sacarosa > ΔH agua-almidón-carragenina > ΔH agua-almidón). Esto fue atribuido a la presencia de grupos hidroxilos en las moléculas de carragenina y sacarosa. El enfoque microestructural del proceso de gelatinización nos permitió entender lo que ocurre con gránulos de almidón cuando fueron sometidos a un proceso previo de congelación en sistemas con diferente disponibilidad de agua. Esto contribuye a tener una mejor compresión sobre el efecto de congelación-calentamiento en la macro-escala, es decir, en alimentos amiláceos sometidos a procesos de calentamiento que ocurren a altas tasas de transferencia de calor.La congelación es un método tradicional de preservación de alimentos, pero la congelación previa al calentamiento podría afectar el desarrollo de una microestructura deseada durante la cocción de alimentos amiláceos. De hecho, la gelatinización de almidón, una transformación crítica durante el calentamiento que juega un rol fundamental en la formación de estructura y está asociada a atributos de calidad, podría verse afectada. Debido a su importancia, no hay estudios a escala microscópica sobre el efecto de la congelación en la gelatinización de almidón nativo durante el calentamiento. La hipótesis de esta investigación es que a través de la miniaturización de procesos es posible entender el efecto de la congelación y el efecto de la accesibilidad de agua en la gelatinización de almidón, con el fin de mejorar nuestro conocimiento sobre el efecto de estos factores claves en los cambios microestructurales de almidón. Se espera observar y determinar un retraso en la gelatinización de almidón debido a la congelación. El objetivo principal fue estudiar el efecto de la congelación, junto con el efecto de la accesibilidad de agua, en los cambios microestructurales de almidón durante el calentamiento, a través de la miniaturización de procesos usando video-microscopía con luz polarizada y calorimetría diferencial de barrido. Para llevar a cabo lo anterior, muestras de almidón nativo en agua, gel de carragenina o solución de sacarosa fueron, o bien directamente calentadas a 15°C/min, o congeladas durante 48 horas, descongeladas y luego calentadas a la misma tasa. Los cambios microestructurales fueron seguidos con una platina térmica adaptada a un microscopio con luz polarizada, y los cambios energéticos fueron monitoreados con calorimetría diferencial de barrido. Además, la morfología de los gránulos fue analizada usando microscopía electrónica de barrido y microscopía de fuerza atómica. Los resultados indican que la congelación reduce el grado de gelatinización, lo que fue atribuido a un incremento en la cristalinidad del gránulo. Además, una restricción en la accesibilidad de agua produjo una reducción en el grado de gelatinización (DG(%) agua-almidón-sacarosa < DG(%) agua-almidón-carragenina < DG(%) agua-almidón) y un aumento en la entalpía de gelatinización (ΔH agua-almidón-sacarosa > ΔH agua-almidón-carragenina > ΔH agua-almidón). Esto fue atribuido a la presencia de grupos hidroxilos en las moléculas de carragenina y sacarosa. El enfoque microestructural del proceso de gelatinización nos permitió entender lo que ocurre con gránulos de almidón cuando fueron sometidos a un proceso previo de congelación en sistemas con diferente disponibilidad de agua. Esto contribuye a tener una mejor compresión sobre el efecto de congelación-calentamiento en la macro-escala, es decir, en alimentos amiláceos sometidos a procesos de calentamiento que ocurren a altas tasas de transferencia de calor.
uc
Selection of envelope-wall systems for residential projects.
Durante las primeras etapas del proceso de diseño, se toman las decisiones que tienen mayor influencia en los resultados de un proyecto. Al tomar la decisión de qué materiales y diseños usar para la envolvente en casas residenciales, los criterios utilizados por los tomadores de decisiones varían en función de cada persona y por lo general, no tienen en cuenta todos los aspectos relevantes. Por lo tanto, en algunos casos la envolvente escogida puede no ser la óptima. Este proceso de selección tiene varios requisitos y condiciones que tienen que ser tomados en consideración simultáneamente. Con el fin de comparar los muros de envolvente en casas casas antes de tomar la decisión final es necesario identificar los criterios que deben estar presentes en esta comparación. Además, es imprescindible conocer todos los actores presentes en el proceso de selección. Esta investigación, basada en la literatura existente y las prácticas de la industria, propone un set criterios para seleccionar los muros de envolvente más convenientes en proyectos residenciales. Se llevaron a cabo encuestas para identificar y validar el conjunto de criterios usando análisis estadístico. Además, se calculan los pesos relativos de cada criterio con los resultados de las encuestas. También se discuten varios métodos de resolución multi-atributo de la literatura, se identifican sus restricciones y su posible aplicación a la selección de muros de envolventes de viviendas. Por último esta investigación, utilizando el set de criterios definido previamente, propone una nueva metodología para mejorar el proceso de selección en la industria chilena. Se utilizan estudios de casos para validar la metodología. Los resultados indican que el set de criterios considera los más relevantes y la metodología es un aporte para el tomador de decisiones, mejorando varios aspectos del método actualmente usado en Chile por las empresas inmobiliarias.Durante las primeras etapas del proceso de diseño, se toman las decisiones que tienen mayor influencia en los resultados de un proyecto. Al tomar la decisión de qué materiales y diseños usar para la envolvente en casas residenciales, los criterios utilizados por los tomadores de decisiones varían en función de cada persona y por lo general, no tienen en cuenta todos los aspectos relevantes. Por lo tanto, en algunos casos la envolvente escogida puede no ser la óptima. Este proceso de selección tiene varios requisitos y condiciones que tienen que ser tomados en consideración simultáneamente. Con el fin de comparar los muros de envolvente en casas casas antes de tomar la decisión final es necesario identificar los criterios que deben estar presentes en esta comparación. Además, es imprescindible conocer todos los actores presentes en el proceso de selección. Esta investigación, basada en la literatura existente y las prácticas de la industria, propone un set criterios para seleccionar los muros de envolvente más convenientes en proyectos residenciales. Se llevaron a cabo encuestas para identificar y validar el conjunto de criterios usando análisis estadístico. Además, se calculan los pesos relativos de cada criterio con los resultados de las encuestas. También se discuten varios métodos de resolución multi-atributo de la literatura, se identifican sus restricciones y su posible aplicación a la selección de muros de envolventes de viviendas. Por último esta investigación, utilizando el set de criterios definido previamente, propone una nueva metodología para mejorar el proceso de selección en la industria chilena. Se utilizan estudios de casos para validar la metodología. Los resultados indican que el set de criterios considera los más relevantes y la metodología es un aporte para el tomador de decisiones, mejorando varios aspectos del método actualmente usado en Chile por las empresas inmobiliarias.
uc
Performance of javascript frameworks on web single page applications (SPA)
La arquitectura de las aplicationes web ha evolucionado en los últimos años. La necesidad de proveer una mejor experiencia de usuario ha forzado a los desarrolladores a agregar más código en el lado del cliente (JavaScript). Este dramático aumento en el tamaño de los scripts se ha debido en gran parte a la inclusión de librerías que facilitan el trabajo (jQuery) y más recientemente por los frameworks JavaScript. A pesar de que un gran número de aplicaciones usan estas librerías y frameworks, no hay suficientes estudios sobre el impacto (causado por la inclusión de estos) en el performance de las aplicaciones. Una posible causa es la falta de herramientas sencillas y flexibles para realizar estas pruebas en navegadores (browsers) reales. Desarrollamos un framework de testeo y herramientas para dos navegadores populares que facilitan a los desarrolladores a probar distintas alternativas de implementación. Usamos nuestro ambiente de pruebas para realizar una comparación de 6 implementaciones de una misma aplicación Web, encontrando importantes diferencias entre los frameworks utilizados. Estas diferencias se distinguen entre el tiempo de carga de la aplicación y la velocidad con la que ejecutan las acciones una vez cargada la misma.
uc
Lateral-spreading inducido por licuación de suelos durante el terremoto del Maule de 2010 en muelles de Coronel.
Esta tesis describe un estudio de campo detallado efectuado en la zona portuaria de Coronel, donde se observaron grandes desplazamientos de suelos asociadas al fenómeno de lateral spreading, inducido por licuación durante el pasado terremoto del Maule de 2010. El estudio de terreno incluyó sondajes SPT y CPT, así como la aplicación de algunas técnicas geofísicas basadas en ondas de superficie. Sobre la base de esta información, se evaluaron algunas expresiones empíricas de predicción de lateral spreading y se elaboró un modelo de elementos finitos de tipo hidro-mecánico. Ensayos de laboratorio monótonos y dinámicos se efectuaron para calibrar el modelo numérico y así reproducir las condiciones del sitio lo mejor posible. Los resultados tanto de las expresiones empíricas como del modelo numérico se ajustan razonablemente bien con las observaciones de campo post-sísmicas.
uc
A twitter-based citizen channel for natural disaster situations.
Durante las primeras 24 horas en que un terremoto ocurre, se genera una gran necesidad de informarse por parte de la ciudadanía. La mayor parte de esta información proviene de los medios más comunes, desde fuentes oficiales o mediada a través de periodistas de radio y televisión. Durante los últimos años las redes sociales (en particular Twitter) se han posicionado como un importante canal alternativo de información. Chile es un país con alta actividad sísmica, por lo que este tipo de desastre natural ocurre bastante frecuentemente. Por otra parte existe en este país una alta penetración de smartphones y es también uno de los líderes en el uso de redes sociales. Esto explica el gran aumento de ciudadanos que se conectan a Twitter y no a la radio o la televisión cuando algo sucede. Pero aún cuando este medio es rápido y bidireccional, es bastante ruidoso. En este trabajo describimos el desarrollo de un clasificador automático que utiliza algoritmos de aprendizaje de máquinas para filtrar el flujo de mensajes, seleccionando aquellos que son considerados ”relevantes” o ”relacionados” con el evento de desastre natural. En este trabajo se muestran detalles acerca del rendimiento de este clasificador. El modelo fue entrenado con un set de datos extruidos desde Twitter que fueron enviados durante y después del terremoto de magnitud 8.8 ocurrido en el 2010. Los mensajes seleccionados se usan para alimentar a una aplicación web móvil que los ciudadanos pueden acceder desde sus teléfonos.
uc
Study of an evacuation drill in northern Chile.
Esta investigación aborda el estudio y modelamiento de un simulacro de evacuación en un colegio situado a lo largo de la costa en Iquique, el cual cuenta con 1.600 estudiantes de entre 4 y 18 años. La velocidad de las personas y sus tasas de evacuación se calcularon numéricamente y luego se compararon con los resultados medidos en cada edificio. El modelo de evacuación fue desarrollado utilizando un Modelo en Base a Agentes (ABM), programado en Netlogo, un entorno de programación multi-agente. El modelo es capaz de considerar variables físicas, tales como la velocidad y el diámetro de los agentes humanos, la geometría de las instalaciones y de las vías de evacuación, y algunos comportamientos sociales de las personas, tales como la tendencia a seguir a la masa, a formar grupos, y a transferir el conocimiento. Las tasas de evacuación medidas se utilizaron para comparar los datos reales obtenidos durante el simulacro con los resultados de las simulaciones. Mediante esta comparación el modelo propuesto fue validado y, posteriormente, utilizado para realizar análisis de sensibilidad. Se realizaron análisis de sensibilidad con la velocidad preferida, el diámetro de los agentes, y las variables sociales que controlan el comportamiento de masa y de grupo. Los resultados indican que es posible encontrar un óptimo local para las dos variables físicas, y que el modelamiento detallado de los comportamientos sociales, en este caso particular, no influye en la calidad de los resultados.Esta investigación aborda el estudio y modelamiento de un simulacro de evacuación en un colegio situado a lo largo de la costa en Iquique, el cual cuenta con 1.600 estudiantes de entre 4 y 18 años. La velocidad de las personas y sus tasas de evacuación se calcularon numéricamente y luego se compararon con los resultados medidos en cada edificio. El modelo de evacuación fue desarrollado utilizando un Modelo en Base a Agentes (ABM), programado en Netlogo, un entorno de programación multi-agente. El modelo es capaz de considerar variables físicas, tales como la velocidad y el diámetro de los agentes humanos, la geometría de las instalaciones y de las vías de evacuación, y algunos comportamientos sociales de las personas, tales como la tendencia a seguir a la masa, a formar grupos, y a transferir el conocimiento. Las tasas de evacuación medidas se utilizaron para comparar los datos reales obtenidos durante el simulacro con los resultados de las simulaciones. Mediante esta comparación el modelo propuesto fue validado y, posteriormente, utilizado para realizar análisis de sensibilidad. Se realizaron análisis de sensibilidad con la velocidad preferida, el diámetro de los agentes, y las variables sociales que controlan el comportamiento de masa y de grupo. Los resultados indican que es posible encontrar un óptimo local para las dos variables físicas, y que el modelamiento detallado de los comportamientos sociales, en este caso particular, no influye en la calidad de los resultados.
uc
Nonlinear modeling of reinforced concrete shear walls using an improved fiber element.
Los muros de corte de hormigón armado (RC) son de uso común, ya que proporcionan una alta rigidez lateral y han demostrado resistir cargas sísmicas severas. En los últimos años, con el creciente número de edificios altos, estos muros se han vuelto más delgados que nunca. Sin embargo, los típicos modelos no lineales para muros son complejos y computacionalmente exigentes, por lo que un modelado preciso y eficiente de estos elementos es absolutamente necesario para evaluar y predecir de forma rápida el comportamiento de los edificios a base de muros. Aprovechando el aumento de la esbeltez, se programó el modelo clásico de fibra y se analizó en detalle la producción de objetividad en los resultados dadas las condiciones de carga comunes resistidas por muros, por ejemplo, alta carga axial y diagrama trapezoidal de momento entre pisos en el caso de un típico edificio residencial chileno, o cargas axiales muy bajas en muros ensayados en laboratorios. Además, para evaluar el corte, se añadió un modelo basado en la teoría de campo de compresiones modificada. Este documento muestra la formulación del modelo propuesto y su validación experimental con diferentes ensayos cíclicos descritos en la literatura. Después de extensivos análisis, se encontró que con el fin de obtener respuestas objetivas, las técnicas de regularización basadas en energía tuvieron que ser modificadas, y los efectos no lineales como el pandeo y fractura de barras de acero, el aplastamiento del hormigón y los efectos de penetración de deformaciones fueron obligatorios para replicar las curvas cíclicas experimentales. Por lo tanto, el modelo es muy atractivo para generar curvas de fragilidad de estos edificios.Los muros de corte de hormigón armado (RC) son de uso común, ya que proporcionan una alta rigidez lateral y han demostrado resistir cargas sísmicas severas. En los últimos años, con el creciente número de edificios altos, estos muros se han vuelto más delgados que nunca. Sin embargo, los típicos modelos no lineales para muros son complejos y computacionalmente exigentes, por lo que un modelado preciso y eficiente de estos elementos es absolutamente necesario para evaluar y predecir de forma rápida el comportamiento de los edificios a base de muros. Aprovechando el aumento de la esbeltez, se programó el modelo clásico de fibra y se analizó en detalle la producción de objetividad en los resultados dadas las condiciones de carga comunes resistidas por muros, por ejemplo, alta carga axial y diagrama trapezoidal de momento entre pisos en el caso de un típico edificio residencial chileno, o cargas axiales muy bajas en muros ensayados en laboratorios. Además, para evaluar el corte, se añadió un modelo basado en la teoría de campo de compresiones modificada. Este documento muestra la formulación del modelo propuesto y su validación experimental con diferentes ensayos cíclicos descritos en la literatura. Después de extensivos análisis, se encontró que con el fin de obtener respuestas objetivas, las técnicas de regularización basadas en energía tuvieron que ser modificadas, y los efectos no lineales como el pandeo y fractura de barras de acero, el aplastamiento del hormigón y los efectos de penetración de deformaciones fueron obligatorios para replicar las curvas cíclicas experimentales. Por lo tanto, el modelo es muy atractivo para generar curvas de fragilidad de estos edificios.
uc
Control de trayectoria de robots manipuladores móviles utilizando retroalimentación linealizante.
Esta tesis presenta el desarrollo de un controlador de posición para manipuladores móviles que considera la dinámica de la base y el brazo en forma conjunta y no de manera desacoplada como se realiza habitualmente. El controlador desarrollado corresponde a un control linealizante mediante retroalimentación no lineal de estado usando el modelo dinámico del manipulador móvil para anular los términos no lineales de las fuerzas y torques. Esta forma particular de linealización mediante retroalimentación no lineal del estado también es conocida como control por torque precalculado (CTP), y si bien es muy conocida en el ámbito de los robots manipuladores industriales, este trabajo extiende de manera novedosa la aplicación del método al caso de los robots manipuladores móviles. El CTP es validado en simulación como en experimentación, comparando su desempeño con respecto a un controlador por ejes basado en control proporcional-derivativo (PD) optimizado. Ambos controladores son aplicados a un manipulador móvil (MM) cuya base tiene tracción diferencial de giro deslizante y un brazo de tres grados de libertad (gdl.). El modelo considera el movimiento de la base móvil en el plano horizontal con tres gdl., dos de los cuales corresponden a la posición en el plano 2D y el tercero a la orientación (rumbo) de la base móvil, el brazo en cambio se mueve en el espacio 3D. Además otro aporte yace en el desarrollo del modelo dinámico del MM empleando el método recursivo de Newton-Euler para el cálculo de la dinámica inversa y una adaptación de la convención de Denavit-Hartenberg para incorporar la influencia de la base sobre el brazo y viceversa. Los resultados obtenidos muestran que a pesar de la incertidumbre en los parámetros del modelo, el CTP desarrollado tiene un mejor desempeño en términos del índice ITAE que el control PD optimizado. Esto se debe a que este último, si bien es más sencillo, no toma en cuenta la influencia de las perturbaciones que causan los movimientos de la base sobre el brazo, y viceversa.
uc
Shooters in the classroom : an analysis of the videogame genre as an educational tool
En los últimos años el aprendizaje mediante videojuegos se ha convertido en un área de investigación sumamente atractiva dado su amplio campo de aplicación y potencialidades en la sala de clases. Diversos estudios, que han utilizado videojuegos como herramienta educativa, han demostrado los beneficios de la implementación de mecánicas de juego específicas para la educación, pero han sido negligentes con las mecánicas de tipo shooter por considerarlas generalmente violentas. Tomando lo anterior en consideración, este estudio analiza cómo la mecánica shooter pude ser utilizada con fines educativos haciendo uso de trabajo colaborativo en aula, y se propone un modelo para el desarrollo de un shooter colaborativo basándose en la idea de que éstos no son intrínsecamente violentos y no necesariamente vuelven a los jugadores agresivos. Con el objetivo de validar el modelo propuesto, se desarrolló un videojuego educativo para el reforzamiento de la gramática castellana en alumnos de 4º Básico. Los resultados evidencian aprendizaje efectivo de los estudiantes, además de motivarlos y mantenerlos comprometidos con la actividad. El estudio finaliza con la conclusión de que las mecánicas shooter pueden ser empleadas como herramienta educativa sin generar resultados adversos.
uc
Thermodynamic properties of CO2 during controlled decompression of supercritical extraction vessels.
Descompresiones muy rápidas de recipientes de alta presión disminuyen la temperatura de sus paredes por debajo de -10 ºC, volviéndose quebradizos. Por ello, la descompresión podría limitar el tiempo de extracción en plantas industriales de extracción con CO2 supercrítico (aumentando los costos de producción). Este trabajo estudió descompresiones de CO2 inicialmente a 30 MPa en un recipiente de 3.96 L venteado controladamente a través de una válvula de aguja. Esta apertura controlada evitó que el CO2 formara una mezcla líquido-gas en el recipiente. Las caídas de presión fueron rápidas al comienzo y al final de las descompresiones, y comparativamente lentas en el intervalo entre 10–15 MPa, antes que el CO2 cruzara la línea pseudocrítica. La temperatura cayó al comienzo de las descompresiones, se mantuvieron estables en el intervalo intermedio y aumentaron al final. El tiempo de descompresión fue inversamente proporcional a la apertura de la válvula, y fue menor partiendo a 60 que a 50 ºC. La caída de temperatura fue proporcional a la apertura de la válvula. Al empacar semillas de rosa mosqueta o frambuesa prensadas o prensadas y peletizadas previamente extraídas, el tiempo de descompresión dependió de la porosidad total del sustrato. Observándose flujo ahogado en el asiento de la válvula, el flujo evacuado depende de su apertura. Para estimar los cambios en la energía interna del CO2 en el recipiente, se necesita incorporar al balance de energía transiente tanto el calor provisto por el fluido de servicio, como el calor cedido por la pared del recipiente y el sustrato cargado. Los resultados de este trabajo sirven para validar un modelo que simule descompresiones de extractores industriales en función de su tamaño y forma, las condiciones de extracción, y el sustrato empacado. Los tiempos de descompresión predichos restringirían los tiempos de reacondicionamiento de extractores en estudios de minimización de costos de producción.
uc
Operating cost risk analysis for an underground mining project.
Los métodos tradicionales que actualmente se utilizan para la cuantificación del riesgo asociado a los costos de operación de los proyectos mineros proporcionan poca información respecto de las fuentes y efectos del riesgo. Por el contrario, tienden a generar estimaciones estáticas y conservadoras, que no consideran los efectos que los posibles cambios en las condiciones del mercado o en los indicadores de desempeño generarían en el proyecto. Las decisiones asociadas a los costos de operación de grandes proyectos mineros requieren modelos más sofisticados de evaluación del riesgo. Estos deben ser capaces de identificar y cuantificar las incertidumbres, e integrar diferentes escenarios y estrategias en la evaluación, ayudando así al proceso de toma de decisiones. En esta investigación, se presenta un modelo integral para la gestión del riesgo económico de los costos de operación de un proyecto minero en desarrollo. En primer lugar, se identifican los principales generadores de costos del proyecto y se caracterizan sus variabilidades intrínsecas. En segundo lugar, mediante una simulación de Monte Carlo, se incorporan estas variabilidades a la evaluación y se cuantifica el riesgo económico. Por último, se identifican las principales fuentes de riesgo y se proponen medidas de mitigación para estas. El modelo es validado mediante un caso de estudio en el Proyecto Mina Chuquicamata Subterráneo. Los resultados muestran que la variabilidad de los generadores de costo puede aumentar el valor presente de los costos operativos estimados para el proyecto en más de un 10%, siendo la mano de obra y la energía las fuentes de riesgo más relevantes. Algunas de las medidas de mitigación de riesgos propuestas en este caso incluyen la construcción de una planta de generación eléctrica para abastecer al proyecto y la incorporación de nuevas estrategias de recursos humanos enfocadas en mejorar productividad de la mano de obra.Los métodos tradicionales que actualmente se utilizan para la cuantificación del riesgo asociado a los costos de operación de los proyectos mineros proporcionan poca información respecto de las fuentes y efectos del riesgo. Por el contrario, tienden a generar estimaciones estáticas y conservadoras, que no consideran los efectos que los posibles cambios en las condiciones del mercado o en los indicadores de desempeño generarían en el proyecto. Las decisiones asociadas a los costos de operación de grandes proyectos mineros requieren modelos más sofisticados de evaluación del riesgo. Estos deben ser capaces de identificar y cuantificar las incertidumbres, e integrar diferentes escenarios y estrategias en la evaluación, ayudando así al proceso de toma de decisiones. En esta investigación, se presenta un modelo integral para la gestión del riesgo económico de los costos de operación de un proyecto minero en desarrollo. En primer lugar, se identifican los principales generadores de costos del proyecto y se caracterizan sus variabilidades intrínsecas. En segundo lugar, mediante una simulación de Monte Carlo, se incorporan estas variabilidades a la evaluación y se cuantifica el riesgo económico. Por último, se identifican las principales fuentes de riesgo y se proponen medidas de mitigación para estas. El modelo es validado mediante un caso de estudio en el Proyecto Mina Chuquicamata Subterráneo. Los resultados muestran que la variabilidad de los generadores de costo puede aumentar el valor presente de los costos operativos estimados para el proyecto en más de un 10%, siendo la mano de obra y la energía las fuentes de riesgo más relevantes. Algunas de las medidas de mitigación de riesgos propuestas en este caso incluyen la construcción de una planta de generación eléctrica para abastecer al proyecto y la incorporación de nuevas estrategias de recursos humanos enfocadas en mejorar productividad de la mano de obra.
uc
SAR effects on evaporation fluxes from shallow groundwater
Comúnmente, los suelos salinos están presentes en zonas áridas, donde la evaporación desde napas subterráneas someras es uno de los componentes principales del balance hídrico. Así, para un correcto manejo del recurso hídrico de esas zonas, es importante cuantificar los flujos de evaporación. La evaporación en suelos salinos es un proceso complejo que incluye el movimiento de solutos, calor, agua líquida y vapor de agua, y depende directamente del contenido de agua del suelo. Las reacciones de precipitación o disolución de solutos pueden cambiar la estructura del suelo y alterar los patrones de flujo, modificando los flujos de evaporación. En este trabajo se evalúo experimentalmente el efecto de la relación de adsorción de sodio (RAS) en las propiedades hidráulicas del suelo; curvas de retención, Ɵ(h) y de conductividad hidráulica, Ƙ(h) Además, se usó el modelo HYDRUS-1D para representar el movimiento de agua líquida y vapor de agua en una columna de suelo salino usando los resultados experimentales. Para determinar el efecto del RAS en los flujos de evaporación, se simuló el proceso de evaporación en suelos con distinto RAS. Se encontró que un aumento en el RAS aumenta la capacidad de retención de agua del suelo y también aumenta su evaporación acumulada. Además, se determinó que los flujos de evaporación producen un aumento de las concentraciones de sal en la zona cercana a la superficie, cambiando la capacidad de retención de agua del suelo en esa zona. Este transporte de sales también causa diferencias en los flujos de evaporación. Así, para una correcta simulación del proceso de evaporación en suelos salinos, es necesario incorporar reacciones de precipitación/disolución y su efecto en la curva de retención del suelo.
uc
Modelling the oxygen dissolution rate during oenological fermentation.
Las adiciones de oxígeno son comunes durante la fermentación enológica para ayudar a evitar problemas durante este proceso y resaltar características aromáticas del vino. Dado que el fenómeno de la disolución del oxígeno durante la fermentación aún no se comprende por completo, las adiciones a escala industrial aún son hechas de manera empírica generando concentraciones de oxígeno irreproducibles y heterogéneas dentro de las cubas. En este trabajo se presenta un modelo que predice la evolución de la tasa de disolución de oxígeno en el mosto durante la fermentación alcohólica. El modelo consiste en dos ecuaciones diferenciales parciales que describen la distribución espacial del oxígeno en las fases líquida y gaseosa. Estas ecuaciones incorporan los efectos de recirculación y mezclado. Además, el modelo considera un conjunto de ecuaciones diferenciales ordinarias que describen la cinética de variables relevantes en la fermentación. El modelo fue validado con fermentaciones vínicas hechas en una columna de burbujeo equipada con cinco micro-burbujeadores para adicionar oxígeno. Las adiciones se hicieron cada diez puntos de descenso en la densidad del mosto. Las simulaciones y los resultados experimentales confirman que el CO2 es el principal responsable de la reducción en la tasa de disolución del oxígeno durante la fase de crecimiento exponencial, además, las levaduras viables también reducen esta tasa en comparación con un sistema sin el componente biológico. El modelo desarrollado ayudará a tener un acercamiento práctico para generar políticas de oxigenación a través de micro-burbujeo durante la vinificación.
uc
Identification and characterization of odorant compounds in Carmenere red wine.
El aroma de un vino es uno de los atributos más importantes que determinan la preferencia de los consumidores y por consiguiente, el mercado en el cual podrá ser comercializado y su precio final. Durante el año 2013, Chile se posiciona en el cuarto lugar entre los mayores países exportadores de vino por detrás de Francia, Italia y España. Según el último reporte de la Organización Internacional de la Vid y el Vino (OIV), las exportaciones Chilenas fueron cercanas a los US$ 1,900 millones en 2013, con USA, Inglaterra y China como los mayores destinos de estas exportaciones. Vitis Vinifera cv. Carmenere es una variedad de vino tinto originaria de la región de Bordeaux, Francia. Luego de la plaga de filoxera (Dactylosphaera vitifoliae) en Europa, se pensó que esta variedad Carmenere se había extinguido. Sin embargo, en 1994, ésta fue redescubierta en Chile, lugar donde en la actualidad se encuentran plantadas la mayor cantidad a nivel mundial de viñas de esta variedad. Sólo existen unos pocos estudios relacionados con los aromas que caracterizan la variedad de vinos Carmenere, los cuales han sido descritos con notas vegetales, especiadas y frutales. Los compuestos odorantes relacionados con los aromas vegetales, así como también, sus umbrales de percepción sensorial y valores de concentración, han sido bien abordados hasta ahora. Sin embargo, existe escasa información sobre los compuestos odorantes relacionados con los aromas frutales y especiados. Identificar cuáles son los principales compuestos odorantes relacionados con los aromas frutales en vinos Carmenere, es de gran importancia para poder elaborar los vinos de esta variedad según distintos estilos. Por lo tanto, el objetivo del presente trabajo de investigación fue identificar y caracterizar las principales zonas odorantes en un vino Carmenere, con especial énfasis en aquellos compuestos odorantes relacionados con los aromas frutales. Para este propósito, este estudio comenzó con un barrido de los compuestos odorantes más importantes, por medio del uso de cromatografía gaseosa acoplada a olfatometría y estudios de factores de dilución. Entre los odorantes identificados, se puso especial énfasis en los compuestos metil 2-metilbutanoato y metil 3-metilbutanoato, los cuales se reportan por primera vez en este trabajo en vinos tintos. El énfasis en estos compuestos resulta principalmente del hecho que podrían potenciar los aromas frutosos en vinos tintos. Adicionalmente, algunos estudios sobre tioles volátiles en vinos tintos reportaron que el compuesto 4-metil-4-sulfanil-2-pentanona podría ser el responsable del aroma a cassis, así como también que los compuestos 3-sulfanil-1-hexanol y 3-sulfanilhexil acetato podrían actuar como potenciadores de aromas frutales en vinos tintos. Por lo tanto, para entender mejor el rol de los tioles volátiles en vinos Carmenere se realizaron experimentos de cromatografía gaseosa acoplada a olfatometría y estudios de factores de dilución Los resultados obtenidos muestran la presencia de 2-furanilmetanotiol, 3- sulfanil-1-hexanol, 3-sulfanilhexil acetato y 2-metil-3-sulfanil-1-butanol, este último reportado por primera vez en vinos Carmenere. Adicionalmente, el compuesto 3- sulfanil-1-hexanol con un factor de dilución de 100, podría contribuir de manera importante al aroma de los vinos Carmenere. Por último, se propone la optimización para la extracción y cuantificación en una sola corrida cromatográfica, para analizar los cinco tioles volátiles más importantes en enología. El método propuesto proporciona una nueva herramienta para el análisis que permitirá entender de mejor manera el rol que cumplen los tioles volátiles en muestras de vinos, así como también, todos los hallazgos realizados en el presente trabajo de investigación, contribuirán a aumentar el conocimiento acerca de los aromas en vinos Carmenere.El aroma de un vino es uno de los atributos más importantes que determinan la preferencia de los consumidores y por consiguiente, el mercado en el cual podrá ser comercializado y su precio final. Durante el año 2013, Chile se posiciona en el cuarto lugar entre los mayores países exportadores de vino por detrás de Francia, Italia y España. Según el último reporte de la Organización Internacional de la Vid y el Vino (OIV), las exportaciones Chilenas fueron cercanas a los US$ 1,900 millones en 2013, con USA, Inglaterra y China como los mayores destinos de estas exportaciones. Vitis Vinifera cv. Carmenere es una variedad de vino tinto originaria de la región de Bordeaux, Francia. Luego de la plaga de filoxera (Dactylosphaera vitifoliae) en Europa, se pensó que esta variedad Carmenere se había extinguido. Sin embargo, en 1994, ésta fue redescubierta en Chile, lugar donde en la actualidad se encuentran plantadas la mayor cantidad a nivel mundial de viñas de esta variedad. Sólo existen unos pocos estudios relacionados con los aromas que caracterizan la variedad de vinos Carmenere, los cuales han sido descritos con notas vegetales, especiadas y frutales. Los compuestos odorantes relacionados con los aromas vegetales, así como también, sus umbrales de percepción sensorial y valores de concentración, han sido bien abordados hasta ahora. Sin embargo, existe escasa información sobre los compuestos odorantes relacionados con los aromas frutales y especiados. Identificar cuáles son los principales compuestos odorantes relacionados con los aromas frutales en vinos Carmenere, es de gran importancia para poder elaborar los vinos de esta variedad según distintos estilos. Por lo tanto, el objetivo del presente trabajo de investigación fue identificar y caracterizar las principales zonas odorantes en un vino Carmenere, con especial énfasis en aquellos compuestos odorantes relacionados con los aromas frutales. Para este propósito, este estudio comenzó con un barrido de los compuestos odorantes más importantes, por medio del uso de cromatografía gaseosa acoplada a olfatometría y estudios de factores de dilución. Entre los odorantes identificados, se puso especial énfasis en los compuestos metil 2-metilbutanoato y metil 3-metilbutanoato, los cuales se reportan por primera vez en este trabajo en vinos tintos. El énfasis en estos compuestos resulta principalmente del hecho que podrían potenciar los aromas frutosos en vinos tintos. Adicionalmente, algunos estudios sobre tioles volátiles en vinos tintos reportaron que el compuesto 4-metil-4-sulfanil-2-pentanona podría ser el responsable del aroma a cassis, así como también que los compuestos 3-sulfanil-1-hexanol y 3-sulfanilhexil acetato podrían actuar como potenciadores de aromas frutales en vinos tintos. Por lo tanto, para entender mejor el rol de los tioles volátiles en vinos Carmenere se realizaron experimentos de cromatografía gaseosa acoplada a olfatometría y estudios de factores de dilución Los resultados obtenidos muestran la presencia de 2-furanilmetanotiol, 3- sulfanil-1-hexanol, 3-sulfanilhexil acetato y 2-metil-3-sulfanil-1-butanol, este último reportado por primera vez en vinos Carmenere. Adicionalmente, el compuesto 3- sulfanil-1-hexanol con un factor de dilución de 100, podría contribuir de manera importante al aroma de los vinos Carmenere. Por último, se propone la optimización para la extracción y cuantificación en una sola corrida cromatográfica, para analizar los cinco tioles volátiles más importantes en enología. El método propuesto proporciona una nueva herramienta para el análisis que permitirá entender de mejor manera el rol que cumplen los tioles volátiles en muestras de vinos, así como también, todos los hallazgos realizados en el presente trabajo de investigación, contribuirán a aumentar el conocimiento acerca de los aromas en vinos Carmenere.
uc
Modelo microscópico de tráfico en dos dimensiones basado en fuerzas sociales.
Los modelos de tráfico fueron introducidos en la década de 1950. En sesenta años su fidelidad para reproducir la realidad ha ido en constante aumento. Sin embargo, todavía les queda un camino importante por recorrer. Entre los modelos de tráfico se distingue a los microscópicos. En éstos, se lleva cuenta de las variables cinemáticas de cada vehículo individualmente (en contraposición a tratar el flujo como un todo). Existen fenómenos de tráfico documentados pero insuficientemente comprendidos. Algunos de ellos han sido modelados con éxito mediante reglas ad hoc (i.e., concebidas explícitamente para producir de manera directa el efecto buscado). Está pendiente, por tanto, un modelo con reglas que los produzcan indirectamente. Entre dichos fenómenos destacan la caída de capacidad y la fricción lateral. El primero se refiere a la concurrencia de dos síntomas en un cuello de botella físico; por un lado, el menor flujo no se produce en el lugar del cuello de botella sino aguas abajo; por otro, luego de unos minutos la capacidad (cantidad máxima de vehículos por unidad de tiempo) del sistema cae de manera perceptible. El segundo dice relación con la velocidad de una pista que se ve disminuida por factores externos: ya sean vehículos más lentos u objetos físicos en la pista adyacente. El objetivo de esta tesis es aportar al cumplimiento de esas tareas pendientes, así como contribuir a la explicación de los fenómenos mencionados mediante su reproducción indirecta. De ese modo, se arrojará una luz que contribuya a entender su causa y génesis. Se propone un modelo microscópico de tráfico en dos dimensiones. El modelo propuesto contribuye significativamente a responder los problemas planteados. Su formulación sigue el paradigma de fuerzas sociales o generalizadas. Incluye y demuestra la posición lateral y el ancho de los vehículos como factores incidentes en el tráfico. Todo lo anterior se busca lograr de manera simple y con asiento en datos empíricos existentes. Sólo se estudiará tráfico ininterrumpido. Se privilegiará la simplicidad del modelo: la fidelidad a la realidad a nivel de detalle quedará para trabajo futuro.
uc
Design and assessment of incentives to the incorporation of energy efficiency measures.
En este trabajo se ha estudiado y evaluado el diseño de algunas medidas o mecanismos para mejorar el uso eficiente de la energía en Chile. Entendiendo la eficiencia energética (EE) como las acciones que optimizan la relación entre la cantidad de energía consumida y la cantidad final de productos y servicios obtenidos con ella, es pertinente preguntar ¿Por qué incentivar la EE en un país como Chile? La respuesta a esta pregunta tiene tres aristas fundamentales. En primer lugar, para crecer de manera sustentable como país, es necesario contar con energía limpia al menor costo posible. Sin embargo, basta con observar la proyección de crecimiento de la demanda de energía eléctrica en el país para los próximos años, la composición de fuentes de energía primaria con las que se está generando electricidad hoy en día, y los precios a los que está disponible la energía, para darse cuenta que sí es necesario tomar una serie de medidas conducentes a hacer un uso más eficiente de la energía que consume el país. Este desafío, sin embargo, no es solo de Chile. Son muchos los países que desde hace un tiempo están trabajando en incorporar medidas de EE en sus mercados de energía. Los mecanismos para promover la EE son muy variados, incluyen medidas como la entrega de información respecto a los consumos de los artefactos electrónicos domiciliarios, la incorporación de nuevas tecnologías de producción y transporte más eficientes y la creación y fortalecimiento de una institucionalidad, pública o privada, encargada de la promoción, diseño, evaluación y seguimiento de las medidas implementadas. A este respecto, es necesario señalar que para ser más efectiva la promoción de la EE, es necesario aplicar mecanismos diseñados e implementados considerando no sólo las características del instrumento en sí, sino también del público al cual están dirigidas. En esta línea, este trabajo ha contribuido con el diseño de una metodología para la evaluación de impactos, directos e indirectos, de los programas de EE, que permite además detectar factores que influyen en los resultados del programa. Esta metodología se aplicó en la evaluación de 12 programas de EE, implementados entre el año 2011 y 2012, por la Agencia Chilena de Eficiencia Energética (AChEE). La evaluación se centró en los impactos indirectos de dichos programas y el resultado general obtenido permite señalar que los participantes y beneficiarios de los programas de la AChEE valoran muy positivamente el concepto de EE y la intervención de la que fueron partícipes, la que además los motivó a tomar diversas acciones de EE, tanto en el hogar como en su trabajo. La debilidad detectada, sin embargo, es la información y capacitación en el tema. Por otra parte, y como se señaló anteriormente, existen variadas formas de promover la EE. Algunos mecanismos son de aplicación global y otros de aplicación más específica. Este trabajo ha contribuido con el diseño y determinación de los potenciales beneficios de un mecanismo de aplicación específica, como un sistema de tarificación flexible tipo Time Of Use, simétrico, para el sector residencial del Sistema Interconectado Central (SIC). Este esquema de tarificación, por una parte, permite dar señales de precios a los clientes residenciales de modo que tomen sus decisiones de consumo de acuerdo al costo de generar la energía, promoviendo así la EE y la disminución de sus gastos en energía eléctrica; y por otra parte, permite a las empresas distribuidoras de electricidad obtener beneficios económicos con respecto al caso base, correspondiente a un esquema tarifario fijo y regulado, de US$811,7 millones para el periodo de estudio (2005-2007), considerando iniciativas que promuevan un ahorro de 5% en el consumo durante las horas de mayor demanda durante los meses de verano y de invierno. Finalmente, este trabajo contribuye a la evaluación y comparación de la efectividad de una medida global propuesta por el Gobierno de Chile para reducir las emisiones de gases de efecto invernadero, consistente en un impuesto de US$5/Ton CO2e, y algunas medidas de EE en el sector eléctrico SIC. El análisis y comparación de estas medidas se ha realizado entendiendo que los mecanismos de EE, además de buscar optimizar el uso de la energía consumida, también tienen como objetivo reducir las emisiones de CO2. Los resultados obtenidos indican que el impuesto al carbón propuesto produce en promedio una reducción de 1% en las emisiones de CO2 en el SIC durante el periodo 2014-2024. Sin embargo, también produce un incremento promedio de 3.4% en el costo marginal de generación de energía. Por otra parte, este trabajo también muestra que la introducción de algunas medidas de EE que reduzcan en 2% la proyección de la demanda residencial en el SIC puede alcanzar mayores reducciones en las emisiones de CO2 y simultáneamente no incrementar el precio de la energía.
uc
A multifactor stochastic volatility model of commodity prices.
Nosotros proponemos una novedosa representación de los precios spot de commodities en la cual el cost-of-carry y la volatilidad del precio spot son ambas explicadas por un nmero arbitrario de factores de riesgo, anidando así muchas de las ya existentes especificaciones. El modelo exhibe unspanned stochastic volatility, provee simples y cerradas expresiones para los precios futuros y entrega fórmulas analíticas para opciones europeas sobre futuros. El modelo es estimado utilizando datos de futuros y opciones sobre petróleo, encontrando que la valorización de los contratos observados es precisa para un amplio rango de madureces y precios de ejercicio. Los resultados sugieren que al menos tres factores de riesgo en la volatilidad del precio spot son necesarios para ajustar correctamente la superficie de volatilidad presente en las opciones sobre futuros de petróleo, destacando así la importancia de usar modelos generales y multifactoriales en la valorización de derivados de commodities.
uc
Femenina, ferviente y disidente : mandolina metodista pentecostal como herramienta de control y desarticulación de normas de género
La presente investigación tiene como objetivo principal analizar las funciones que desempeña la ejecución de la mandolina por parte de hombres en relación con las normas de género en el ámbito metodista pentecostal chileno. Para cumplir este propósito, este texto se divide en tres capítulos que abordan un espacio específico de dicha práctica. En el primero, se demuestra la presencia de la marca femenina sobre la mandolina y su función como dispositivo de control y representación del espacio de la mujer dentro del ámbito religioso metodista pentecostal. En el segundo capítulo, se presenta un estudio etnográfico que caracteriza la práctica de dicho instrumento por parte de varones durante los últimos treinta años en iglesias de la Región Metropolitana. Finalmente, el último capítulo es un estudio de caso de la performance musical actual de Felipink, músico y performer chileno ex evangélico, con foco en las estrategias de actualización de elementos propios de la música y cultura evangélica chilena, específicamente en el uso que le da a su mandolina y el diálogo que existe en su práctica con el punto de predicación evangélico.Dentro de las principales conclusiones de esta investigación destaca la comprobación de la marca femenina de la mandolina, así como también la función que esta cumple como elemento fijador de una norma que delimita un espacio de la mujer dentro de su cultura, apoyada por nociones patriarcales fundamentadas bíblicamente en la doctrina paulina. Por otro lado, se presenta la práctica de la mandolina por parte de hombres, así como el uso de tácticas y estrategias que estos incorporan para sobrellevar una práctica que no se corresponde con el ideal esperable, en cuanto a género, dentro de las iglesias evangélicas. Se evidencia, además, la presencia de creencias en torno a la predestinación que otorgan a la práctica masculina de la mandolina cierta validación por parte de la divinidad. Finalmente, se concluye que existen ciertas estrategias de actualización performativas en la práctica musical actual que Felipink, que dialogan directamente con espacios propios de la cultura evangélica ligados a la práctica de la mandolina y los puntos de predicación a la calle.
uc
Trayectorias desplazadas : proyecto de investigación y creación en danza contemporánea : movimiento y experiencia histórica
La investigación es una exploración creativa acerca de las formas en que la experiencia histórica se devela y emerge a través del movimiento corporal, como un fenómeno que surge de la reacción de los participantes frente a diferentes estímulos: sonoro, visual, y verbal, que dan origen a patrones de movimiento como un fenómeno particular y/o único, ligado a aspectos de historia y memoria corporal en los participantes. Se llevó a cabo con un grupo mixto de cinco personas, cumpliendo condenas por delitos comunes bajo un sistema de reclusión cerrada, al interior del recinto carcelario no concesionado La Pólvora, ubicado en Valparaíso Quinta Región de Chile. En el texto se intentará plasmar las reflexiones acontecidas durante el proceso, el que culmina con la realización de una muestra escénica final, basado en lo constitutivo del movimiento de los cuerpos.
uc
Sentimiento, interpretación y romanticismo en la música de Robert Schumann : el caso del concierto para violonchelo y orquesta op 129 en La Menor : mi experiencia personal
El presente trabajo aborda, desde mi propia experiencia como ejecutante, la interpretación del concierto para violonchelo y orquesta en la menor Op. 129 de Robert Schumann, el contexto histórico en que fue escrito y la vida de su autor. También se elabora un análisis bajo un aspecto temático y de carácter, articulando la parte práctica con la investigación crítica. Finalmente, aborda la problemática de la sobre-interpretación, intentando dilucidar el trabajo del intérprete en la reconstrucción de una obra musical desde su propia contemporaneidad.
uc
Tramas, estructuras y evocaciones: el cuerpo de la memoria
Esta memoria contiene la recopilación de dos años de trabajo e investigación respecto al desarrollo de una instalación escultórica nacida dentro del marco del programa de Magíster en Artes de la Pontificia Universidad Católica de Chile. Buscando elementos para comenzar el desarrollo de este trabajo, descubrí dentro de un paquete (parte de una herencia algo abandonada) un grupo de papeles que me conmovieron profundamente, tanto por su frágil belleza, como por su origen. Este hecho orientó mi búsqueda hacia regiones más emocionales y personales, lo que fue el inicio de un viaje que comenzó dentro de la memoria familiar y que fue transitando por territorios del pasado y la memoria ; las artes visuales, la escultura y la instalación así también por la historia social y educacional de nuestro país y que desembocó en la revisión profunda de las formulas y dispositivos que involucraba en mi obra, de la forma en la que me relacionaba con el espacio y el entorno y el redescubrimiento de las capacidades expansivas del desmenuzamiento y análisis conceptual de un proyecto plástico. La muestra final, es parte de un proceso de permanente desarrollo, que involucra a todo tipo recursos participantes y donde el límite que lo contiene será siempre una decisión autoral.
uc
El arte de hacer visible lo invisible : producción, descripción y análisis de la obra visual de Magdalena Leal
La presente memoria describe y analiza las obras que la artista Magdalena Leal desarrolló mientras cursó su Magister en Artes Visuales entre los años 2012-2014. Usando el Cementerio General de Santiago como espacio de reflexión y ejecución artística, las cuatro obras que se describen en esta memoria (Paisajes de Desaparición, Nichos Vacíos, Tumba Vacía y Desde una Tumba) indagan en la producción del arte como un ejercicio de hacer visible lo invisible (Hegel), revisando esta idea a partir de los conceptos de vacío, ausencia y desaparición.
uc
Informe para una academia : escenificación corporal para un espacio performativo
La presente tesis se centra en realizar un análisis y posterior teorización del proceso de elaboración y puesta en práctica de mi obra titulada “Informe para una academia : escenificación corporal para un espacio performativo”. Desde esta perspectiva, abordaré el marco teórico de mi investigación y el contexto histórico y artístico de Franz Kafka, que se desprende en temáticas tales como culturización, domesticación y dominación. Además, despliego el concepto de panóptico propuesto por Bentham y desarrollado por Michel Foucault, a su vez que sugiero un cruce a partir de la noción de animalidad presente en el cuento de “Informe para una academia”. Me interesa revelar cómo este espacio de caos y desborde, propio de las pulsiones del cuerpo, iría contra la constitución de sentido, develando a su vez posibles imprecisiones en los dualismos que dieron forma a lo humano como construcción moderna. Desde lo anteriormente señalado, me centro en el espacio y su correspondiente visualidad, como componentes y contenedores de esta escenificación corporal. Por último, me focalizo en la noción de cuerpo carnal y sus posibles derivaciones a partir de la inversión y verticalidad corporal, viendo cómo ello logra a su vez des-articular el texto desde la sonoridad a partir de lo fragmentario.Este estudio, pretende entonces reflexionar sobre el rol del cuerpo en las nuevas modalidades artísticas contemporáneas, produciendo un desplazamiento en el concepto tradicional de corporeidad. A su vez, desde las técnicas de control panópticas, el cuerpo como materia de dominación instalará la necesidad de un arte en acción-crítica, que desplazará la idea y noción tradicional de cuerpo escénico hacia una corporalidad que asumirá condiciones materiales como la calidad expresiva, orgánica y performativa. Un cuerpo en constante mutación y resistencia al panóptico que, a su vez, intenta dinamitar la significación sicológica y los subterfugios expresivos de la teatralidad. La animalidad del protagonista será entonces subyugada, corregida, domesticada y transformada en sujeto de dominación, con el fin de culturizar el origen simiesco de Pedro el Rojo.
uc
El espectador implícito en obras de teatro para niños del Teatro UC : el caso de El pequeño violín (2007) y ¿Quién no sabe cómo es el dragón? (2008)
La presente tesis aborda una investigación teórica sobre el concepto de espectador implícito propuesto por el semiólogo, historiador e investigador teatral italiano Marco De Marinis (1982 ; 2005), esta vez articulado en el ámbito del Teatro para niños. En particular, esta investigación se enfoca en hacer patente el tipo de recepción construida o predeterminada de forma parcial desde el interior de dos espectáculos dedicados a niños, con el fin de inferir el tipo de niño-espectador que las obras prefiguran. Conforman el corpus del análisis dos obras producidas por el TEUC (actual Teatro UC) y estrenadas en Santiago de Chile. Estas son El pequeño violín (2007) y ¿Y quién no sabe cómo es un dragón? (2008). En función de ello, se efectúa un estudio teórico sobre las conductas del niño como espectador y sus condiciones de recepción, observadas y referidas por diversos autores. Con base en ello, se establecen cinco parámetros con los cuales develar la relación entre los medios artísticos y comunicativos empleados en cada montaje y el recorrido receptivo que este prevé parcialmente a través de un análisis temático, argumental y semiótico de los dos espectáculos.
uc
Instrumento de evaluación dinámica basado en cómics para medir la comprensión lectora en alumnos de tercero básico
El uso de la tecnología en la evaluación de la comprensión lectora no ha sido extensivo en el último tiempo, limitándose a la digitalización de pruebas estandarizadas. Su evaluación requiere múltiples indicadores para medir las variables subyacentes y evitar problemas de validez de constructo. La evaluación dinámica puede ser una alternativa interesante a las pruebas tradicionales, pues es capaz de medir y adaptarse al nivel del estudiante. Por otro lado, un alumno se acerca a un cómic por una motivación intrínseca, lo que lo hace especialmente atractivo como instrumento de medición. Para esta investigación se desarrolló un instrumento de evaluación dinámica, basado en cómics, para medir la comprensión lectora en alumnos de tercero básico. El instrumento se diseñó para ser usado en tablets y luego se validó internamente, y externamente con una prueba estandarizada y las notas de los alumnos en Lenguaje y Comunicación. La experimentación realizada se llevó a cabo utilizando el software mencionado en cursos donde previamente se había aplicado la prueba SEPA, desarrollada por MIDE-UC, de forma independiente por los profesores de cada establecimiento. Los resultados del instrumento son comparables con aquellos que pueden entregar los métodos de evaluación tradicionales, por medio de pruebas estandarizadas. Además, el software es capaz de entregar estos resultados en tiempo real y hacerse accesible a un gran número de estudiantes a un muy bajo costo a través de internet.
uc
Compensación demandada y su relación con el riesgo percibido : la aceptabilidad pública y la confianza en instituciones que regulan peligros ambientales
En los últimos años se ha estudiado la relación entre la percepción del riesgo, la confianza en las autoridades reguladoras y la aceptabilidad pública de actividades y tecnologías. Sin embargo, poco se sabe de estas relaciones cuando se habla de peligros ambientales. Los peligros ambientales son considerados males públicos, ya que su producción o consumo generan externalidades negativas afectando el bienestar del individuo y la sociedad. La economía del bienestar sugiere dos medidas para estimar el cambio en el bienestar de una persona: la disposición a pagar (DAP) o la compensación demandada (CD). Utilizar una medida u otra depende de quién tiene los derechos de propiedad de un bien o servicio. Para el caso de peligros ambientales, los derechos de propiedad se encuentran en la sociedad que exige mayor regulación para el riesgo al que se someten producto de estos impactos al medioambiente. Esto conlleva a un interés por estudios que reflejen la realidad nacional y que a su vez aporten a la disciplina del análisis de riesgo en general. En Chile, estudiar las precepciones de la gente en cuanto a los riesgos ambientales a los que están sometidos es muy importante para la gestión de riesgos tanto del sector público como del privado. Avanzar en la compresión de los factores que influyen estas percepciones ayudará a desarrollar estrategias efectivas de comunicación y participación ciudadana.El objetivo principal de esta tesis es explorar si la compensación demandada se relaciona con las variables clásicas utilizadas en el área de percepción de riesgo (riesgo percibido, aceptabilidad y confianza en autoridades reguladoras). Para lograr dicho objetivo se realizaron tres estudios con dos muestras de la población de Santiago. La primera, con un total de 421 participantes que evaluaron 29 peligros ambientales para las cuatro variables de estudio. La segunda, con un total de 500 encuestados que evaluaron las cuatro variables para dos peligros particulares: uno de carácter local (contaminación atmosférica) y otro de carácter global (cambio climático). Con la primera muestra se realizaron dos estudios: el primero de carácter exploratorio con el fin de determinar la relación entre la compensación demandada, la aceptabilidad, el riesgo percibido y la confianza en las autoridades reguladoras; y el segundo de carácter confirmatorio cuyo objetivo era probar si las relaciones encontradas en el primer estudio se mantenían si se incorporaba en el análisis el medio ambiente afectado y la actividad económica generadoras de estas externalidades. Nuestra investigación exploratoria arrojó dos resultados principales. El primero es que la compensación demandada mantiene una relación directa y positiva con el riesgo percibido y una relación directa y negativa con la aceptabilidad.El segundo resultado sugiere que no existe una relación entre la compensación demandada y la confianza en las autoridades encargadas de regular los riesgos medioambientales. Nuestro segundo estudio avanza en la compresión de los factores que determinan la compensación demandada cuando se afecta la atmósfera, los lagos y ríos, el suelo y el océano como causa del desarrollo de actividades económicas como la minería, la urbanización, la pesca y la agricultura. Para esto planteamos un segundo objetivo en el cual exploramos si la compensación demandada y sus relaciones con las variables (riesgo percibido, aceptabilidad y confianza en autoridades) dependen del medio ambiente afectado y/o del sector económico que genera los impactos. Los resultados mostraron que la compensación demandada depende del riesgo percibido, la aceptabilidad, la confianza en las autoridades y de la actividad económica, pero no así del medio ambiente afectado. La aceptabilidad depende de la confianza en las autoridades, del riesgo percibido y de la actividad económica.El riesgo percibido depende de la confianza en las autoridades, de la actividad económica y del medio ambiente afectado. En general, los impactos ambientales de la minería son percibidos como más riesgosos, menos aceptables, y tienen una mayor compensación demandada que las otras actividades económicas. Estos resultados sugieren que, para lograr el desarrollo sostenible, las regulaciones deben considerar no sólo los impactos ambientales, sino también el sector económico que los origina. Finalmente, nuestro tercer y último estudio utiliza una segunda muestra para determina con un modelo confirmatorio si la relación entre estas cuatro variables se mantiene tanto para la contaminación atmosférica como para el cambio climático. Nuestros resultados sugieren que las relaciones difieren por tipo de peligro, encontrándose un mayor efecto de todas las variables sobre la compensación demandada para la contaminación atmosférica.
uc
Implementation of a counter current packed column for fractionation of key six-carbon apple aromas using supercritical CO2
La extracción supercrítica de mezclas líquidas con CO2 supercrítico es un proceso de fin de línea, típicamente utilizado para fraccionar materiales extraídos por métodos convencionales. Las principales aplicaciones de fraccionamiento son las mezclas de lípidos, aceites esenciales, y bebidas alcohólicas. El Fraccionamiento con Fluidos Supercríticos a Contra Corriente (FFS-CC) en columnas empacadas es un área de investigación no explorada en Chile. Por lo tanto, esta tesis entrega una revisión exhaustiva del uso del FFS-CC y de otras tecnologías menos comunes como contactadores de membrana, arreglos mezclador-decantador, y procesos de aspersión. El FFS-CC es una tecnología alternativa para concentrar y fraccionar aromas de fruta natural ricos en agua. Un extracto de aroma súper-concentrado obtenido por FFS-CC es un producto de mayor valor agregado que los obtenidos por métodos convencionales, y por ende, el uso del FFS-CC puede ser atractivo para los concentradores de jugo de fruta. El objetivo de este trabajo fue implementar una columna para el FFS-CC de compuestos de seis-carbonos (C-6) característicos del aroma de manzana. Para este propósito, y con el objetivo de obtener condiciones de operación razonables para el FFS CC, se realizaron mediciones de equilibrio (líquido + vapor) (ELV). Un nuevo aparato, armado en este trabajo, fue utilizado para medir datos experimentales de ELV de los sistemas ternarios (CO2 + (E)-2-hexenal + agua) y (CO2 + hexanal + agua). Especialmente, para (E)-2-hexenal se observó un muy alto factor de separación del agua (~104). El valor más alto de éste, para ambos compuestos, ocurrió a una temperatura de 313 K y entre 12 a 14 MPa.Una columna empacada de FFS-CC fue puesta en operación mediante el estudio del efecto de la temperatura, presión y la razón solvente-alimentación (S/F) sobre la concentración, y el fraccionamiento de los compuestos C-6 característicos del aroma de manzana de compuestos menos relevantes como 1-hexanol y agua. Con la obtención de un extracto en dos fases claramente separables fue posible mostrar que el FFS-CC es altamente capaz de producir un extracto de aromas súperconcentrado y libre de agua. Sin embargo, el fraccionamiento de los compuestos importantes para el aroma de 1-hexanol fue muy pobre. La concentración máxima de aromas C-6 en el extracto total fue aprox. 20 %w/w, y el rendimiento de extracción de aromas fue >86%. La S/F tuvo el efecto más significativo en la extracción de los compuestos C-6 del aroma de manzana. Adicionalmente, los modelos de superficie de respuesta indicaron que las mejores condiciones para concentrar los compuestos C-6 del aroma de manzana son 40 ºC, 14 MPa, y S/F= 5.
uc
Construction of a yeast platform for the synthesis of high value natural flavours
La ingeniería metabólica ha abierto una oportunidad para la producción de una amplia variedad de compuestos de alto valor industrial, especialmente aquellos producidos en bajas concentraciones desde fuentes no-renovables, o cuya síntesis química es difícil y costosa. En el caso de los terpenos, existen numerosas oportunidades y estrategias para su síntesis bioquímica usando microorganismos naturales o “ingenierizados”. Saccharomyces cerevisiae es uno de los principales microorganismos usados para la expresión heteróloga de genes, debido principalmente a su rápido crecimiento en diferentes fuentes de carbono, el amplio conocimiento de su genoma y las herramientas para su manipulación, y su robustez en fermentaciones a gran escala. Además, en el caso de S. cerevisiae, la vía del mevalonato que lleva finalmente a la producción de ergosterol, es también capaz de producir precursores de compuestos de alto valor. Avances en el campo de la biología de sistemas, ingeniería evolutiva, y biología sintética han acelerado el progreso para el uso de esta levadura como la factoría celular microbiana de elección.En este trabajo se construyeron una serie de plataformas en levadura para la síntesis de dos tipos de terpenos: el monoterpeno carvona y el norisoprenoides β-ionona. Los monoterpenos son principalmente producidos por las plantas como mecanismo de defensa contra depredadores, y pueden ser usados por la industria de los alimentos como antisépticos, fragancias y aditivos. Los norisoprenoides son conocidos por su agradable aromas y también usados en la industria de alimentos como aditivos, pero además, altamente apreciados por la industria cosmética. En este estudio, se usaron diferentes promotores de expresión y plasmidios para controlar la transcripción y la dosis génica. Para la síntesis de norisoprenoides, se construyeron varias cepas de levadura, capaces de producir β-ionona. Primero, se integraron tres genes heterólogos en la cepa ingenierizada SCGI22a: los genes carotenogénicos crtYB y crtI de Xanthophyllomyces dendrorhous, para producir β-caroteno, y el gen dioxigenasa de escisión de carotenos, (gen PhCCD1), de Petunia hybrida, para producir β-ionona. En esta cepa se alcanzó una concentración final de 0,63 ± 0,02 mg/g biomasa en matraces. Una posterior expresión de estos tres genes en vectores de alta copia, mejoró la concentración final, alcanzando mas de 5 mg/L en cultivos batch (Capítulo 2).La acumulación de ß-caroteno en todas las cepas construidas, puede indicar una baja eficiencia en la actividad de la enzima CCD1, o una baja expresión de su gen. Debido a que en este estudio, la sobre-expresión de este gen resultó en cepas que crecían muy lento, se decidió cambiar el promotor original usado para este gen (PTEF1) por el promotor Gal1 inducible por luz. En este sistema, el factor de transcripción Gal1 fue dividido en sus dominios de unión a ADN (BD) y de activación (AC), y estos dos componentes fusionados a dos criptocromos de Neurospora crassa llamados White collar -1 (WC-1) y Vivid-1 (VVD1). Estas dos flavoproteínas responden a luz azul interaccionando una con otra, reconstituyendo el factor de transcripción Gal1. A pesar de que este sistema funcionó con un gen reportero, no se logró optimizar la producción de β-ionona, probablemente por la inducción prolongada con luz, lo que afectaría a los carotenos (Capítulo 3). Sin embargo, este sistema presenta varias ventajas y futuras optimizaciones son promisorias.Finalmente, utilizando el mismo diseño usado para la producción de norisoprenoides, se construyó una cepa de levadura para la producción de los monoterpenos limoneno y carvona (Chapter 4). Para ello, se expresaron cinco genes heterólogos: El gen GPPS de Abies grandis que codifica para la enzima geranil difosfato sintasa; los genes de Mentha piperita, LS, LH y CD para la producción de los monoterpenos limoneno, trans-carveol y carvona respectivamente; y una versión mutada del gen de levadura ERG20, que codifica para la enzima que produce geranil difosfato (GPP) y farnesil difosfato (FPP). Ningún monoterpeno fue detectado en cultivos de esta cepa, debido posiblemente a la volatilidad/toxicidad de los monoterpenos y la ausencia de su precursor directo GPP. Otras optimizaciones son necesarias. Aún hay mucho espacio para la optimización de las cepas creadas en este estudio. El conocimiento generado, junto con los extraordinarios avances en biología sintética, nos permitirán la posibilidad de producir compuestos industrialmente competitivos, a través de procesos sustentables y de bajo costo.
uc
Optimización reactiva para itinerarios de aviones cargueros de corto plazo
En la industria aérea de carga ocurre frecuentemente que poco antes de efectuarse el vuelo, la carga reservada no se presenta o lo hace parcialmente, llega fuera de plazo o a última hora. Para afrontar este problema las aerolíneas ajustan el itinerario de último minuto de manera manual, basándose en la experiencia de los tomadores de decisión. Estas acciones son correctivas y locales de manera de impactar lo menos posible los turnos de las tripulaciones asignadas, sin existir certeza de que éstas sean las mejores. En esta tesis se aborda este problema mediante un Pickup and Delivery con Ventanas de Tiempo (PDPTW) para aviones cargueros. El modelo considera simultáneamente las etapas de diseño de itinerarios, ruteo de aviones y ruteo de carga, sujeto a impactar lo menos posible a las tripulaciones asignadas. Para resolverlo se emplea descomposición de Dantzig-Wolfe con generación de columnas, donde los subproblemas se resuelven con metaheuristica adaptive neighborhood search (ANS) y la relajación lineal del problema maestro se soluciona con solución exacta. Para transformar la solución relajada en entera, se propone un algoritmo de mezcla basado en ANS.La metodología de resolución fue testeada bajo diferentes escenarios de operación dependiendo de la priorización de tramos de vuelo y usando información de una importante aerolínea de carga nacional. Los resultados muestran que el algoritmo propuesto obtiene utilidades que son en promedio un 13% mejor que las obtenidas por MIP solver y con tiempos computacionales un 86% más rápidos. Los resultados obtenidos muestran que el modelo planteado puede ser utilizado con fines operacionales al permitir a los tomadores de decisión generar itinerarios alternativos en un reducido tiempo computacional.
uc
Building a query language for the web of data : efficiency in an open world
Al consultar bases de datos incompletas es importante tener la posibilidad de extender los resultados cuando hay información adicional disponible. Esta funcionalidad ha sido ampliamente adoptada para consultar la Web Semántica, dado que la información en la Web es inherentemente incompleta. Desafortunadamente, la implementación de esta funcionalidad en SPARQL, el lenguaje recomendado por el World Wide Web Consotrium (W3C) para consultar datos en la Semantic Web, trae consigo algunos efectos negativos. Dos de los más importantes son un incremento en la complejidad de evaluar consultas, y un conflicto entre SPARQL y el supuesto de mundo abierto. Diferentes caminos han sido tomados para arreglar estos problemas, de los cuales el más adoptado ha sido restringir SPARQL a patrones bien-diseñados. Sin embargo, aun sigue abierto el problema de determinar si éste es el enfoque correcto en términos de complejidad de evaluación y poder expresivo. El punto de partida de esta tesis el estudio de las propiedades fundamentales que debiese satisfacer un lenguaje de consultas para la Web Semántica, en particular considerando que la información es incompleta.Para esto, investigamos las técnicas que han sido desarrolladas en la lógica de primer orden para caracterizar sintácticamente propiedades semánticas. Luego presentamos un marco teórico que nos permite aplicar estas técnicas al caso de SPARQL, definiendo lenguajes que resultan naturales para capturar las propiedades deseadas. También estudiamos las propiedades computacionales de estos lenguajes para entender su aplicabilidad en implementaciones del mundo real. Lo primero que hacemos es mostrar que los enfoques adoptados anteriormente no son suficientes para conciliar la semántica de SPARQL con el hecho de que la información en la Web es incompleta. Luego definimos un nuevo operador para obtener información opcional, el cual nace naturalmente de las técnicas que estudiamos en lógica de primer orden. Este operador nos permite definir fragmentos de SPARQL con buenas propiedades en términos de poder expresivo y complejidad de evaluación. Luego, nos enfocamos en consultas SPARQL de tipo CONSTRUCT, que son aquellas que generan como resultado el mismo tipo de estructuras que reciben como entrada (grafos RDF). Bajo este fragmento somos capaces de definir un lenguaje de consultas que es simple y a la vez captura las nociones semánticas de interés. Por último, mostramos que este lenguaje presenta, sorprendentemente, una menor complejidad de evaluación que los fragmentos que han sido presentados anteriormente.
uc
Interactive instruction with open collaborative - interaction mechanisms
Con el avance de la tecnología, hoy es importante que los alumnos logren habilidades que les permitan enfrentarse a los nuevos desafíos que trae consigo esta realidad, las llamadas ‘habilidades del siglo XXI’. Una de las habilidades que los alumnos requieren para desempeñarse tanto en el ámbito escolar como laboral, es la colaboración. La relevancia que ha tenido el aprendizaje colaborativo ha ido en aumento en los últimos años. Esto se refleja con la importancia que PISA le ha dado a éste, ya que desde del año 2015 se comenzará a medir la capacidad de resolver problemas de manera colaborativa. Sin embargo, aún no hay claridad sobre qué es lo que diferencia a la colaboración de la cooperación, especialmente en actividades que distingan uno u otro tipo de aprendizaje. Por otro lado, la instrucción participativa es un método de enseñanza, que ha sido fundamental en la enseñanza de matemáticas en países con altos niveles de desempeño en esta materia. Sin embargo, la adopción de tecnologías que soporten este tipo de aprendizaje no ha sido totalmente efectiva, como es el caso de las pizarras interactivas o clickers. Single Display Groupware (SDG) ha surgido como una alternativa para la instrucción participativa y el aprendizaje colaborativo, debido a los beneficios que éste trae a los participantes cuando colaboran. Esta tesis tiene como objetivo estudiar cómo se puede insertar de manera concreta la instrucción participativa en el aula utilizando la tecnología de SDG y mecanismos de interacción colaborativos abiertos.Para esto, se desarrolló un modelo para la creación de actividades colaborativas y cooperativas que permite a los diseñadores de ambientes colaborativos poder integrar el aprendizaje colaborativo en el aula. Este modelo queda determinado por dos elementos esenciales: Degree of Dependency, los que definen la interacción entre los alumnos y las Activity Structures, que articulan las componentes que son necesarias para lograr el objetivo, siguiendo una lógica específica. Así, las actividades cooperativas se diferencian de las colaborativas debido a que tienen distintos Degree of Dependency. En segundo lugar, se llevó a cabo un desarrollo de un software que permitiera la instrucción participativa, el que fue utilizado por profesoras en sus clases regulares de matemáticas. Con esta experiencia se pudo mostrar que la instrucción participativa con aprendizaje colaborativo mediado por SDG resulta ser efectivo. Además, se observó que patrones silenciosos aparecieron en la pantalla de manera natural, lo que complementa investigaciones anteriores que hablan del concepto de ‘colaboración silenciosa’, la cual se da cuando los alumnos no pueden hablar de manera fluida por estar sentados de manera distante.Adicionalmente, un estudio para profundizar cuándo es mejor utilizar lo observado con respecto a la colaboración silenciosa, mostró que ésta puede ser un puente concreto para la enseñanza de habilidades colaborativas, especialmente en alumnos que no les gusta trabajar en equipo. Pues el desempeño académico de los alumnos depende de su disposición a trabajar en grupo, y este efecto es mayor cuando los alumnos se sientan contiguamente. Por último, al final de esta tesis se sugiere una serie de trabajos futuros para poder indagar sobre la colaboración silenciosa y cómo ésta puede ser una herramienta que permita a los alumnos aprender las habilidades colaborativas que se han tornado tan importante. Además de poder estudiar cómo el modelo propuesto en esta tesis puede ser integrada en otras áreas que no sea matemáticas y lenguaje.
uc
Saddled with attention : the case of bankruptcy filings
En esta tesis se analiza el efecto de la atención de los inversionistas sobre los precios accionarios de empresas públicas en torno a sus solicitudes de bancarrota de Capítulo 11 en Estados Unidos. Se mide la atención de los inversionistas como volumen anormal de búsqueda en Google, como volumen anormal de transacciones y como cobertura noticiosa. Se encuentra que las empresas que llaman más la atención tienen retornos anormales más negativos en los días antes y durante sus solicitudes de bancarrota y retornos más positivos después de la solicitud, en comparación con las empresas que no llaman la atención de los inversionistas. En otras palabras, los inversionistas sobrereaccionan en casos de empresas que llaman la atención y subreaccionan en caso contrario. Esto indica que la atención tiene efectos opuestos en escenarios negativos en contraste con escenarios neutrales o positivos, lo que no es consistente con la literatura previa. Este patrón es más pronunciado para empresas con baja participación de inversionistas institucionales y se mantiene al controlar por predictores estándar de desempeño bursátil en tiempos de bancarrota.
uc
Mathematical simulation of heat and mass transfer during controlled depressurization of supercritical CO2 in extraction vessels
Aun con casi cuarenta años presente en la industria, las compañías son reacias a utilizar CO2 supercrítico (sc) como solvente en extracciones debido a que piensan que los costos de producción serán elevados. La literatura en este tema sugiere que utilizar múltiples extractores simulando flujo contracorriente podría abaratar los costos de producción. Sin embargo, a más extractores se usen, menos tiempo habrá para reacondicionarlos si se desea tener una operación semi-continua; y si la despresurización se realiza demasiado rápido, el material del extractor puede dañarse permanentemente. Pensando en una eventual optimización de este proceso, se realizó un modelo que simula las variaciones de temperatura y masa de un extractor de 1 L cargado con materiales. Se utilizaron correlaciones reportadas en literatura para calcular el flujo de masa, conductividades efectivas y convección entre el sólido y el fluido. Mediante optimización, se obtuvieron parámetros de una correlación para el coeficiente de transferencia de calor en la pared del extractor, resultando en la ecuación Nu = 0.0777 Da-0.0373 Ra0.397 . Las simulaciones para temperatura, presión y flujo de masa evacuada fueron razonablemente buenas, además de que se mejoraron los valores predichos en un 20% con respecto a los obtenidos usando una correlación propuesta en la literatura.Para explorar el uso del modelo en situaciones prácticas, se simularon despresurizaciones con diferentes volúmenes de extractor, geometrías del mismo, y condiciones iniciales. Las pruebas con extractores de hasta 1 m3 mostraron que era posible usar el volumen para obtener la apertura de válvula que permite mantener la temperatura mínima por sobre cierta temperatura. Las pruebas con diferentes condiciones iniciales en extractores de 1 m3 mostraron que los cambios de estado en el CO2 eran relevantes a la hora de determinar el efecto de la temperatura inicial sobre la despresurización. El máximo tiempo de despresurización obtenido fue de 54.5 minutos en un extractor de 1 m3 comenzando a 60 °C y 70 MPa. Este modelo puede ser usado más adelante para determinar el tiempo de reacondicionamiento óptimo para plantas industriales en una minimización de costos.
uc
Tectonic role of margin-parallel and margin - transverse faults during oblique subduction at the southern volcanic zone of the Andes
Los márgenes tectónicos caracterizados por subducción oblicua tienden a desarrollar sistemas de falla paralelos al margen en la placa cabalgante, los cuales son responsables del crecimiento de cadenas montañosas y de la partición de la deformación interplaca. Sin embargo, en estos ambientes tectónicos también es común encontrar fallas transversales al orógeno, las que han sido ampliamente ignoradas en los análisis de partición de deformación. Es relevante entonces establecer si los sistemas de falla transversales cumplen un rol en la acomodación de deformación tectónica resultante de la subducción oblicua. Mediante la implementación de un modelo 3D de la subducción en el margen andino de Chile utilizando el método de los Elementos de Borde, fue posible determinar la respuesta elástica de fallas de distinta orientación durante las etapas del ciclo sísmico de subducción (CSS). Los resultados muestran que el sistema de falla de Liquiñe Ofqui (SFLO), paralelo al margen, exhibe una cinemática de largo plazo dextral-inversa durante el período intersísmico del CSS con un deslizamiento oblicuo a tasas de 1 a 7 mm/año. Fallas de rumbo NW deslizan con una cinemática sinistral-inversa a una tasa de 1.4 mm/año mientras que fallas de rumbo ENE exhiben una cinemática de rumbo dextral a 0.85 mm/año.Durante el período cosísmico del CSS todas las fallas modeladas invierten sus cinemáticas: fallas ENE adquieren una cinemática sinistral y fallas NW exhiben un deslizamiento normal-dextral. Esta tensión cosísmica en fallas NW puede ser significativa (hasta 0.6 MPa) lo cual sugiere que estas fallas pueden comportarse como canales transientes de transporte de magma a través de la corteza. Los resultados del modelo demuestran que la partición de la deformación es un proceso más complejo de lo reconocido hasta la fecha: fallas transversales son capaces de absorber significativa deformación resultante de la convergencia oblicua, comúnmente atribuida sólo a fallas paralelas al margen. El deslizamiento en fallas transversales puede desencadenar terremotos corticales con una magnitud máxima de Mw 6.0 a 6.7 mientras en trazas del SFLO pueden esperarse terremotos de un rango de Mw 6.2 a 6.9.
uc
Agendamiento dinámico de citas médicas a través de un proceso de decisión markoviano
Uno de los principales problemas que enfrentan muchos hospitales públicos de Chile es la falta de suficientes especialistas para atender la demanda. Esto ha generado listas con tiempos de espera extensos para algunos de ellos. A pesar de que la solución a largo plazo para este problema es añadir más especialistas, a corto plazo el hospital tiene que asignar prioridades a los pacientes en la lista de espera con el fin de hacer el mejor uso del tiempo de los especialistas existentes. En el siguiente trabajo se propone una metodología para optimizar el agendamiento de los pacientes. Se trató el sistema como un Proceso de Decisión Markoviano dado el dinamismo y la estocasticidad del sistema. El objetivo es mejorar los indicadores como los tiempos de espera de los pacientes y obtener una política de agendamiento óptima. Para que sea útil para la planificación, este sistema debe ser muy flexible y capaz de ser utilizado por personas que no poseen una formación matemática o informática. El modelo desarrollado fue aplicado al Hospital del Salvador de Santiago de Chile. Para el caso en estudio se concluyó que se necesita de un aumento de horas médicas en un 2%, 2,1% y 2,8% para las especialidades quirúrgicas de Urología, Traumatología y Cirugía respectivamente, para disminuir en un 18% el tiempo de espera medio total hasta su agendamiento. Para el Hospital del Salvador, esto se traduce en un aumento de 42, 55 y 108 horas extras anuales, lo que representa un costo total de $2.877.000 pesos chilenos anuales.
uc
Modelación de preferencias en consumidores de vino
Las preferencias de los consumidores en el caso de alimentos son sumamente variables y no muy bien entendidas. El vino es un producto particularmente complejo y las preferencias por él han demostrado ser altamente heterogéneas. Esta tesis pretende identificar y medir las preferencias individuales por vinos del mercado chileno; centrándose en los atributos específicos de éste. Para estudiar los atributos más relevantes del vino, se utilizó un diseño experimental eficiente y se entrevistó a una muestra de 129 consumidores a quienes se solicitó participar en un ejercicio de preferencias reveladas que simulaba la compra, degustación y re-compra del vino. Con los datos recogidos, se estimaron modelos de elección discreta, como el logit mixto y modelos híbridos permitiendo variaciones sistemáticas de gustos, efecto panel y ranking, y corrigiendo la endogeneidad del precio.Como era de esperar, el precio es un impulsor de la elección. Bajo el supuesto que el precio está asociado a la calidad esperada del vino, se encontró que su efecto sobre la utilidad era cuadrático. Sin embargo, tras la degustación los consumidores ajustaron sus preferencias, especialmente cuando se les presentó la alternativa de no comprar. Por otro lado, el descuento fue el atributo extrínseco más preferido, seguido del contenido alcohólico; mientras que la cepa Syrah resultó ser el atributo de menor preferencia. Los modelos revelaron heterogeneidad en los gustos y, debido a la forma en que se formó el banco de datos, también resultó significativo un efecto panel. El experimento recreó el proceso de elección de vinos; comenzando por la selección de una botella en una tienda, con conocimiento limitado, hasta enfrentar la elección de re-compra con información completa (esto es, incluyendo atributos intrínsecos). Las lecciones del estudio deberían permitir una comprensión acabada del proceso de compra de vinos y elicitar los atributos más valiosos del vino buscados en el mercado chileno.
uc
Pre acondicionamiento con el uso de debilitamiento dinámico con explosivos en minería por caving
Actualmente, la explotación de los denominados “Super Caves”1, va asociada con un plan de minería masiva subterránea, que puede involucrar un ambiente más confinado y macizos rocosos más competentes, que requieren hacer más eficiente los procesos de extracción minera y de conminución en planta, que, para el caso de minas por Caving, implica introducir técnicas de perforación y tronadura para pre acondicionar el macizo rocoso in situ en altura. Este trabajo pretende evaluar y dar bases a los diseños del pre acondicionamiento (PA) con explosivos en este nuevo ambiente, ¿Cómo la existencia de las estructuras y esfuerzos determinan o interfieren en el método de pre acondicionamiento que se ocupará?, ¿Qué explosivo es más adecuado para este ambiente confinado? Además, ciertas sugerencias y recomendaciones asociadas al diseño y operación para un óptimo consumo energético y fragmentación de la roca.Del estudio se entiende: 1) No existen métodos de diseños para PA por Caving propiamente tal, han sido desarrollados para tronadura de destressing a escala masiva, y sus principales indicadores son empíricos y más bien de carácter subjetivo; 2) No es fácil ser exitoso (con extensiones de fracturas del orden de 3.7 metros) con diseños que deben hacerse en función de los layouts de la mina (mallas grandes y bajos PF ≈ 0.045-0.12 Kg/m3); 3) De los modelamientos numéricos realizados, se propone un diseño de pre acondicionamiento innovador, que tiene sustento en las tronadura de bateas, en dónde, a través de una chimenea piloto, se crea una cara libre mayor (estilo "canalón") hacía la cual se direcciona la tronadura, asegurando fragmentación y resguardando el daño.4) La importancia de la geología; las estructuras in situ, su orientación y relleno, dado que gobiernan la resistencia del macizo rocoso. Seguido de los esfuerzos in situ, cuyo aumento disminuye la efectividad de la técnica; 5) Orientar los tiros de la forma más favorable, de acuerdo al estado tensional in-situ, para lograr mayores extensiones de fracturas e interacción entre tiros; 6) Respecto a la conceptualización del diseño, debiese hacerse con propiedades dinámicas de la roca (y no estáticas como se hace actualmente). Utilizar modelos numéricos cuyos fundamentos son orientados a la mecánica de fractura de la roca, o mejor aún, realizar campañas tomográficas a fin de capturar variables dinámicas de la roca.Dada la configuración de esfuerzos y competencia de los macizos rocosos hoy en día, no se recomienda usar mallas más grandes que 10x10 m, de preferencia trabadas; 7) Existen ciertos antecedentes de terreno, análisis en términos de planificación e iniciativas tecnológicas que avalarían el hecho de realizar un PA de una altura de tan solo un 30-40% de la altura de columna de mineral primario; 8) Hacer uso de explosivo emulsión, por su alta energía de choque, velocidad de detonación (VoD) asociado y por ser el único (bajo actuales condiciones de diseño) capaz de lograr un efecto supersónico en el macizo rocoso; 9) Respecto de los aspectos operativos, se recomienda no ser tan ambicioso e ir por métodos de implementación más sencillos para garantizar el éxito, teniendo un control de variables operativas tales como longitud y desviación de tiros, al igual que realización de tacos a través de QA/QC medidos bajo altos estándares. 10) Los riesgos implícitos asociados a la técnica son los estallidos de roca (del punto de vista de la seguridad), y la apuesta es a la disminución de colgaduras y sobre tamaños a fin de disminuir la discontinuidad operacional 11) Acutalmente existen una serie de barreras (culturales / marco legal) asociadas al desarrollo tecnológico de iniciativas tales como: carguío automatizado (detonadores inalámbricos), pre carguío, uso/no uso de tacos, destressing de campo lejano (cara libre-slot borrer) que apuestan a mejorar el control del daño, disminuyendo la exposición de personas a actividades críticas (de alto riesgo) y aumentando la productividad.
uc
Modeling of flash floods in the Andean foothills : reducing the uncertainty associated with the sediment concentrations
Crecidas rápidas inducidas por precipitación son eventos comunes en regiones cercanas a la Cordillera de los Andes. El rápido desarrollo urbano en esta región, combinado al cambio climático y los efectos de los eventos ENSO han resultado en una alarmante proximidad de los cauces propensos a inundaciones, a áreas densamente pobladas en la precordillera Andina, incrementando el riesgo de ciudades e infraestructura. Simulaciones de crecidas rápidas en estas cuencas son particularmente desafiantes, debido a la compleja morfología, la insuficiencia de datos hidrometeorológicos, y la incertidumbre generada por la variabilidad en la concentración de sedimentos. Altas concentraciones producidas por la erosión de las laderas y el escurrimiento de flujos superficiales en áreas con pendientes empinadas y baja cobertura vegetal, pueden cambiar la dinámica del flujo a medida que la inundación se propaga en el canal. En esta investigación, nosotros desarrollamos un modelo bidimensional en volúmenes finitos de las ecuaciones no lineares de flujos someros, acopladas con la conservación de la masa de sedimentos, considerando los efectos de la densidad y los cambios en la reología del flujo.Nosotros llevamos a cabo simulaciones para evaluar los efectos de la concentración de sedimentos en inundaciones en la Quebrada de Ramón, una cuenca Andina en Chile central. Nosotros simulamos una confluencia y un largo total del canal de 10.4 km, con el mismo hidrograma de agua clara y diferentes concentraciones de sedimentos en los tributarios. Nuestros resultados muestran que los efectos más importantes en la propagación de la inundación son observados en el rango de concentraciones desde 0% a 20%. Comparando simulaciones con agua clara y una concentración de 60%, nosotros encontramos que la máxima profundidad del flujo en diferentes locaciones a lo largo del canal incrementa en un 38%, y el área total inundada es un 75% más grande en el último caso. Simulaciones también muestran que variables tales como el tiempo de arribo del caudal máximo, y la forma del hidrograma no son significativamente afectados por la concentración de sedimentos, y depende mayoritariamente de la empinada morfología del canal. Mediante este trabajo nosotros proveemos un marco de referencia para futuros estudios dirigidos a mejorar la evaluación del peligro, la planificación urbana, y los sistemas de alerta temprana en áreas urbanas cercanas a ríos de montaña con datos limitados, y afectados por eventos de crecidas rápidas.
uc
Blur adaptive sparse representation of random patches for race recognition on blurred images
A pesar de que el reconocimiento de caras, en ambientes no controlados, ha sido ampliamente estudiado en los últimos 25 años, el estado del arte en estos algoritmos continúan con bajos rendimientos en imágenes borrosas. En este documento se aborda el reconocimiento de rostros en imágenes que se encuentran borrosas, al ejecutar un algoritmo que es una modificación del algoritmo Adaptive Sparse Representation of Random Patches (ASR+). Este algoritmo extrae, al azar, parches de cada una de las imágenes de sujetos previamente enlistados. Luego, ASR+ construye un diccionario adaptivo el cual concatena los ‘mejores’ diccionarios de cada sujeto. Finalmente, usando este diccionario, cada parche de la imagen de prueba es clasificado acorde a la metodología de Sparse Representation Classification (SRC). En la fase de prueba, la imagen en cuestión es clasificada por mayoría de votos de los parches previamente clasificados. En este artículo proponemos bASR+, o blur ASR+, que crea diccionarios con distintos niveles de desenfoque sintético a partir de distintos niveles de desenfoque gaussiano.Cada set de imágenes borrosas será descrito por una métrica de nitidez. Cuando se inicia el reconocimiento de la imagen de prueba, la métrica de nitidez s de la imagen es calculada y comparada a la métrica de nitidez de cada uno de los set de imágenes. Luego, se selecciona el diccionario que más se parece a la métrica s. Así, un diccionario adaptivo es contruído a partir del set de imágenes borrosas y la metodología ASR+ continúa para realizar el reconocimiento. Se diseñaron experimentos basados en imágenes borrosas, que fueron creadas tomando fotografías des-enfocadas, a las imágenes de cara de sujetos de la base de datos AR, desplegadas en un monitor. En nuestros experimentos, bASR+ sobrepasa a los algoritmos del estado del arte y software comerciales obteniendo reconocimientos de 85.6% en imágenes sumamente borrosas.
uc
Aerodynamic and geometric characterizations for fog collecting meshes
La eficiencia aerodinámica de colección de un atrapanieblas depende principalmente de la solidez bidimensional y el coeficiente de caída de presión (C0) de la malla. La solidez bidimensional puede ser medida de manera precisa usando análisis de imágenes digitales con el software ImageJ (descarga gratuita). El método consiste en tomar una fotografía de la malla y convertirla en una imagen binaria de pixeles blancos y negros. Luego, la solidez es calculada según la proporción de los pixeles. El coeficiente de caída de presión fue medido con un túnel de viento capaz de medir la caída de presión a través de la malla y la velocidad del viento aguas arriba de ésta. Finalmente, se hizo una caracterización de dos tipos de malla para obtener el coeficiente de caída de presión en función de la solidez bidimensional. Los resultados muestran que las mallas con filamentos redondos tienen un menor C0 para una misma solidez que las mallas de filamentos de cinta. Así la máxima eficiencia aerodinámica teórica de una malla con filamentos de cinta es 0.2102 a una solidez de 0.502, mientras que las mallas con filamentos redondos pueden alcanzar 0.263 a una solidez de 0.68.Debido a que las mallas de filamento redondo tienen filamentos más delgados que las tipo cinta, tienen también mejor eficiencia de deposición. Así, la máxima eficiencia total de colección de una malla de filamento redondo puede ser un 123% mayor que una malla de filamento tipo cinta para velocidades de viento de 2 ms-1. Para velocidades de 10 ms-1, la eficiencia total de colección de una malla de filamento redondo es un 36% mayor que la de una malla de filamento tipo cinta.
uc
La ruta endocítica temprana-reciclaje regula la activación del factor de transcripción CREB y la expresión génica requerida para la arborización dendrítica inducida por BDNF
La neurotrofina BDNF y su receptor TrkB son expresados ampliamente en el sistema nervioso central y regulan la morfología neuronal mediante la inducción del crecimiento y ramificación de dendritas. Sin embargo, los mecanismos celulares y moleculares subyacentes a los efectos de BDNF aún no han sido establecidos. Un aspecto clave que regula la señalización de TrkB es su internalización y posterior tráfico intracelular, dado que determina la disponibilidad de TrkB en la superficie celular, los adaptadores intracelulares de señalización que une y su cinética de degradación. Estos procesos, en su conjunto, determinan la respuesta biológica a neurotrofinas. El tráfico endócitico de proteínas de superficie está regulado por las GTPasas monoméricas de la familia Rabs. Particularmente Rab5 y Rab11, regulan la endocitosis inicial y reciclaje de receptores. Es sabido que BDNF activa a TrkB tanto en dendritas como axones y las señales generadas en estas regiones distales deben propagarse hasta el núcleo activando factores de transcripción y así modificar la expresión génica. El trabajo de esta tesis se centró en estudiar si el tráfico post-endocítico regulado por Rab5 y Rab11 está involucrado en la duración de la señalización mediada por TrkB, teniendo consecuencias en la activación de factores de transcripción y la morfología neuronal.Nuestra hipótesis postuló que: "Las GTPasas Rab5 y Rab11 son requeridas para la activación sostenida de la señalización neurotrófica y los posteriores cambios transcripcionales y morfológicos regulados por CREB e inducidos por BDNF”. Usando neuronas de hipocampo de rata en cultivo (9 DIV), en el presente trabajo hemos establecido que el sistema endosomal compuesto por las GTPasas monoméricas Rab5 y Rab11 es necesario para la señalización BDNF/TrkB, activación del factor de transcripción CREB y aumento en la expresión de genes relacionados con arborización dendrítica. Encontramos que la expresión de mutantes dominantes negativo de Rab5 y Rab11 redujo la activación de ERK1/2 y la posterior activación de CREB en el núcleo en respuesta a la estimulación con BDNF. Además, la activación de TrkB aumentó los niveles de proteína de Rab5a y Rab11a de una manera dependiente de la traducción y la actividad de la quinasa mTOR. También, encontramos que BDNF aumentó la transcripción de Rab5a.Esto podría permitir la existencia de un feedback positivo para la señalización neurotrófica de TrkB desde endosomas. Finalmente, además de ser requerido para la activación de CREB, hemos identificado a Rab11 como un regulador de la expresión génica de c-Fos, Egr-1 y Arc (entre otros), genes que están relacionados con el crecimiento y plasticidad neuronal y que son inducidos por BDNF, vinculando por primera vez a la actividad de Rab11 en los efectos transcripcionales promovidos por BDNF. En resumen, nuestros resultados identifican nuevos componentes celulares requeridos rio arriba de la activación de CREB y posterior arborización dendrítica inducida por BDNF en neuronas del sistema nervioso central.
uc
Modelación de la calidad del agua del Río Mapocho frente a escenarios futuros
Los modelos de calidad del agua son herramientas matemáticas utilizadas para predecir el comportamiento de la calidad del agua frente a diferentes excitaciones y ayudan a comprender la realidad y anticiparse a problemas que podrían generarse en el futuro, en particular el cambio climático. Actualmente, estudios corroboran que el cambio climático puede generar efectos adversos en la calidad del agua de algunos ríos. El objetivo de este trabajo es implementar un modelo de calidad de aguas para el río Mapocho frente a escenarios futuros, considerando como variables principales el cambio climático, crecimiento/decrecimiento poblacional, industrial y agrícola. La modelación se desarrolla en el software QUAL2K; el cual se calibra y valida con información obtenida en terreno. Luego, se implementan en él los cuatro escenarios futuros creados con horizonte de tiempo año 2030, evaluados en dos periodos: noviembre a enero y febrero a abril, correspondientes a máximos y mínimos caudales, respectivamente. En todos los escenarios futuros la concentración de OD disminuye con respecto al escenario base y las concentraciones de los demás parámetros simulados aumentan (DBO5, NH4 y NO3). Se concluye que la calidad del agua del río Mapocho en el futuro cercano será peor que la calidad actual, en caso que no se tomen medidas concretas que mitiguen o anulen los efectos causados por el aumento poblacional, industrial y el Cambio Climático.
uc
Estudio, diseño e implementación de un driver de reloj para CCDS utilizando la fuente de corriente de Howland mejorada
Los detectores CCD son dispositivos ampliamente utilizados en la astronomía que cumplen la función de generar carga eléctrica medible a partir de fotones. El proceso de lectura de los CCDs implica una etapa de transferencia de carga, la cual traslada la carga recolectada en cada pixel hacia los amplificadores de salida. Este proceso se realiza mediante la variación del voltaje aplicado a los electrodos de cada pixel del detector. Parámetros de las señales de lectura tales como la excursión de voltaje, tiempos de subida/bajada y tasa de subida/bajada, se relacionan en forma directa con el desempeño del proceso de transferencia de carga. Si consideramos la naturaleza capacitiva de los pixeles del CCD, los drivers de generación de señales de lectura existentes no son eficaces, debido a que el control de la forma de onda se realiza mediante un amplificador de voltaje. Esta arquitectura de control no permite establecer con precisión la tasa de subida/bajada de la señal de voltaje, ya que su establecimiento siempre respetará la respuesta dinámica del amplificador. Este trabajo estudia y propone el uso de la fuente de corriente de Howland mejorada para generar las señales de reloj para la lectura de los CCDs. Esta idea aprovecha la característica capacitiva de los pixeles del CCD, lo que permite establecer con precisión la tasa de subida/bajada de las señales de lectura, y en consecuencia, mejorar el desempeño del proceso de transferencia de carga.
uc
Leaders and markets :national leadership and stock market performance
En esta tesis se busca determinar si los jefes de Estado son capaces de influenciar a los mercados bursátiles. Mediante el uso de salidas repentinas de líderes de turno se analiza si estos eventos exógenos causan cambios en los retornos de los índices bursátiles transversalmente en los diferentes países. Se consideran los casos en que el término del mandato fue gatillado ya sea por un accidente mortal o por el deterioro de la salud producto de una enfermedad. Los resultados sugieren que las salidas debido a accidentes no generan un cambio significativo en los retornos ni tampoco en la volatilidad. Por otro lado, las salidas debido al deterioro de salud están asociadas a retornos anormales positivos y significativos pero no a variaciones de volatilidad. Este efecto se amplifica en el caso de líderes de regímenes autoritarios y con un bajo nivel educacional. Finalmente, el inicio de rumores respecto a problemas de salud de los jefes de Estado genera una caída significativa en los retornos anormales pero no influyen en la volatilidad. Esto sugiere que el mercado espera un deterioro en la capacidad de gestión del líder enfermo.
uc
Using orchestration to integrate ICT into the educational process
La búsqueda constante de idear y desarrollar herramientas que proporcionen estrategias para perfeccionar el proceso educativo está generando una alta tasa de inserción de nuevas tecnologías al proceso de enseñanza apuntado, entre otros objetivos, a una mejora en el proceso de aprendizaje de los alumnos. No obstante lo anterior, la buena instrucción no es sólo determinada por los factores a nivel de la escuela y los conocimientos, creencias y actitudes de los profesores sino también por la consideración de las necesidades de los estudiantes y de factores a nivel de la clase y los alumnos. En esta tesis se plantea la necesidad de considerar lo que ocurre dentro del aula, la relación social de los actores, en particular los intereses y necesidades de los profesores y alumnos cuando dentro de las aulas enfrentan el desafío de generar ambientes propicios para el aprendizaje. El propósito de esta tesis es generar discusión y propuestas pedagógicas y no tecnológicas, en el marco de políticas de informática educativa. En este sentido, el objetivo es generar evidencias sobre una herramienta, llamada orquestación, que agrupa y coordina diversas prácticas docentes centradas en el estudiante, para lograr efectividad en la integración de recursos digitales y convencionales.Con el fin de entregar una amplia comprensión de la orquestación como andamio para los profesores en su tarea de manejar una nueva tecnología en su clase y a la vez promover un efectivo ambiente de aprendizaje, se realizaron diferentes estudios. Primero se analizaron los elementos logísticos y pedagógicos que conciernen a una clase cuando existe tecnología, siendo esta una primera aproximación teórica a la orquestación. En segundo lugar, se estudió si en un escenario donde existe tecnología, poner a disposición de los profesores diversidad de recursos convencionales y digitales orquestados, mejora el aprendizaje de los alumnos, siendo esta la primera aproximación de la orquestación en el aula. Esto se estudió en el marco de una política gubernamental en Uruguay (Plan Ceibal) y mediante un diseño cuasi experimental con un grupo control y un grupo intervención analizado con un Modelo Lineal Jerárquico. Tercero, mediante una investigación mixta de métodos cualitativos y cuantitativos, se estudiaron elementos implícitos dentro del aula, explorando si existen necesidades e intereses divergentes entre profesor y estudiantes. Esto con el fin de identificar elementos que pudieran enriquecer el modelo de orquestación ya probado. Finalmente, en el marco de un programa interministerial del gobierno de Colombia y por medio de un análisis de Regresión Lineal Multivariado en un diseño cuasi experimental de grupo control e intervención, se volvió a estudiar la correlación entre el uso de orquestación y mejoras en el aprendizaje de los estudiantes, pero esta vez con un modelo de orquestación enriquecido con los elementos implícitos dentro del aula estudiados previamente.A partir de los estudios realizados, esta tesis ofrece una serie de resultados. Primero, entrega como resultado un marco que especifica el rol de la tecnología en un ambiente en que se integran prácticas convencionales y prácticas basadas en recursos digitales. Esto entrega una estructura para el desarrollo de orquestaciones. Segundo, constata para el contexto de Uruguay que el aprendizaje de los estudiantes mejora en la medida en que sus docentes tienen acceso y usan sistemáticamente la orquestación para integrar apropiadamente recursos de diferente naturaleza. Esto sugiere la importancia de considerar dentro de políticas de entrega de computadores en escuelas, el apoyo y guía para que los docentes usen apropiadamente la tecnología en aula. Tercero, identifica que existe disparidad entre la visión de profesores y estudiantes en torno a los objetivos dentro del aula, necesidades de los estudiantes, expectativa de los estudiantes sobre el rol docente, y participación de las familias en el proceso educativo. Con estos resultados se sugiere el desarrollo de estrategias que ayuden a los docentes a acortar las brechas entre las visiones que convergen en su aula, facilitando así la consecución de las metas de la comunidadeducativa. Cuarto, se constató en un contexto diferente al primero, que los estudiantes cuyos maestros han dispuesto de orquestaciones para integrar la tecnología en su labor pedagógica, mostraron un mayor incremento en aprendizaje frente a alumnos cuyos profesores no tenían orquestación. En esta misma experiencia se constata una asociación positiva entre los incrementos en los aprendizajes de los estudiantes y el uso sistemático del material que aborda las debilidades individuales de los alumnos. Esto sugiere la importancia de considerar dentro de las actividades pedagógicas y elección de recursos, los diferentes ritmos de aprendizaje presentes en el aula y no solo las exigencias curriculares. Finalmente, esta tesis propone trabajos futuros en torno al estudio de la orquestación en distintos niveles y áreas curriculares, enriquecer nuevos modelos de orquestación con elementos relacionales que ocurren en un aula, y estudiar la instalación de capacidades en docentes en servicios para que ellos desarrollen sus propias orquestaciones.
uc
Large-group collaboration with pre-defined collaborative patterns of interaction
La colaboración ha sido motivo de gran interés en los últimos años, lo cual se puede ver a través de que ha sido definida como una componente esencial de las habilidades del siglo XXI y porque se ha incluido la resolución de problemas colaborativos al estudio PISA 2015. Es por esto que la inclusión del desarrollo de esta habilidad a la sala de clases es relevante. El área de Computer-Supported Collaborative Learning (CSCL) ha demostrado en distintos ámbitos que es posible introducir la colaboración en el aula. Sin embargo, la bibliografía presenta trabajos principalmente con grupos pequeños y no con grupos grandes. Las investigaciones se han centrado en analizar cuáles son las acciones necesarias que tienen que hacer los alumnos en forma individual para completar una tarea en particular, y no en las acciones necesarias que debe realizar el grupo completo para trabajar colaborativamente. Por otra parte, cuando grupos grandes trabajan colaborativamente emergen problemas de coordinación y comunicación que hay que tener en cuenta. El objetivo de esta tesis es determinar y analizar patrones de interacción colaborativos explícitos silenciosos para grupos grandes dentro de la sala de clases, que promuevan la colaboración y faciliten la interacción de los integrantes del grupo. Con el fin de obtener una comprensión sobre la colaboración silenciosa en grupos grandes, se realizaron diferentes estudios. El primero, siendo la aproximación inicial a estos temas, fue un estudio en el cual se analizaron las condiciones necesarias para lograr aprendizajecolaborativo en la sala de clases y en el cual se diseñó e implementó el primer patrón explicito colaborativo silencioso. De aquí, se descubrió que los patrones explícitos colaborativos de interacción sí pueden ser una solución para hacer colaborar a grupos grandes de estudiantes, pero también se encontró que al utilizar este patrón surgían problemas de comportamiento inesperados en los estudiantes. A partir de estos aprendizajes, se diseñó la siguiente experiencia. El objetivo principal del segundo estudio fue extender el dominio de los patrones de interacción explícitos, lo cual se hizo creando un segundo patrón explícito de colaboración silencioso. El último estudio se focalizó en profundizar el conocimiento sobre la colaboración silenciosa, en términos de cómo es influenciada dependiendo en donde se utiliza. Para esto el estudio se realizó en dos contextos distintos, la sala de clases y el laboratorio de computadores. A partir de los estudios realizados, esta tesis brinda diversos resultados. Los principales son que las dinámicas de colaboración silenciosa presentan una buena usabilidad, lo que demostró que son fáciles de usar y aprender por los estudiantes. Además, estos pueden ser aplicados en diversos ambientes, con diferentes actividades y dinámicas, promoviendo la motivación y participación de los estudiantes. Por último, el espacio físico en donde se utilizan las dinámicas de colaboración silenciosa influye en la calidad de la colaboración, por lo que es relevante considerarlo al momento de llevar la colaboración al aula.Como esta tesis estuvo enmarcada en un contexto específico en términos de edad de los estudiantes con los que se trabajó, contenidos y actividades, se proponen trabajos futuros en torno a la colaboración silenciosa en distintos niveles educativos, con distintas necesidades curriculares, y de esta manera observar el impacto y alcance que esta tiene. Por otro lado, se observó que la colaboración silenciosa puede ser un buen medio para hacer colaborar a estudiantes con necesidades educativas especiales, por lo que se propone estudiar la colaboración silenciosa en estudiantes con distintas capacidades de aprendizaje.
uc
Quantification of hepatic steatosis using magnetic resonance imaging
Entre otras, el hígado tiene como funciones principales la síntesis de proteínas plasmáticas, una función desintoxicante, almacenaje de glucógeno, secreción de bilirrubina y colesterol. Es el responsable de neutralizar y eliminar de la sangre sustancias que puedan resultar nocivas para el organismo. El consumo excesivo de alcohol y grasas son comportamientos que alteran la integridad de las células hepáticas. Un signo característico es la acumulación intracelular de microvesículas de grasa. A esta acumulación de grasa se le denomina esteatosis hepática, que si persiste en el tiempo puede producir esteatohepatitis y finalmente cirrosis. El principal método de diagnóstico de la esteatosis hepática es la biopsia, que extrae una muestra del tejido hepático y cuantifica el contenido de grasa intracelular en el laboratorio. Este es un procedimiento invasivo y riesgoso, con problemas de muestreo ya que solo toma un 0.05% del total del órgano. Por esta razón, es necesario un método de cuantificación no invasivo y global. Un hígado con esteatosis puede progresar hasta cirrosis o enfermedad crónica hepática (CLD) y la hipertensión portal (PH) es una condición frecuente en estos pacientes que se caracterizan por un incremento en la resistencia del hígado al flujo de sangre.No toda la grasa acumulada en los tejidos tiene las mismas características químicas ni biológicas. Además, la grasa acumulada por un paciente no necesariamente tiene las mismas características que la grasa acumulada por otros pacientes. Por lo tanto no solo es necesario avanzar en una mejor cuantificación de la grasa total, sino que también en su caracterización no-invasiva. En este trabajo se proponen algunas formas de medir la cantidad de grasa en el hígado utilizando métodos indirectos, como la hipertensión portal intrahepática, y la espectroscopía para caracterizar la presencia de ácidos grasos en un voxel, con el objetivo de extrapolar este trabajo a una imagen. El objetivo es caracterizar la grasa por medio de sus metabolitos. Además, por medio de un algoritmo de optimización, se puede estimar qué tipo de ácidos grasos la conforman, con el objetivo de modelar el estado de la grasa y también clasificarlo como normal, esteatosis hepática o esteatohepatitis. Los resultados del trabajo de perfusión muestran que es posible clasificar pacientes con hipertensión portal de voluntarios sanos, y sugiere que es posible establecer una escala del grado de esteatosis presente utilizando el volumen de sangre en la vena portal intrahepática. En el trabajo de espectroscopía, los resultados muestran que es posible estimar la presencia de ácidos grasos en un voxel utilizando MRS de 9.4T. Finalmente, en el trabajo de imágenes metabólicas, los resultados muestran que es posible extraer la información metabólica de agua y grasa desde las imágenes y por tanto estimar la presencia de ácidos grasos utilizando MRI de 1.5T.
uc
Mathematical modeling of space-time variation in acoustic transmission and scattering from schools of swim bladder fish
Se utiliza un enfoque de ecuaciones diferenciales acopladas para investigar las variaciones espaciales y temporales de la propagación acústica de cardúmenes y burbujas. Este método incorpora coherentemente las interacciones acústicas entre individuos. El presente trabajo consiste en tres secciones principales:(1) El modelo descrito es usado para investigar las propiedades acústicas de cardúmenes en la dirección de la onda incidente (dirección posterior). Se presentan los resultados de un análisis de datos de transmisión, obtenidos en 1995 durante un experimento realizado en el Golfo de Lion en el mar Mediterráneo. El presente análisis conduce a estimaciones significativamente mayores de abundancia de peces que el análisis anterior. (2)Este modelo también se compara con el enfoque del medio efectivo, ampliamente usado en problemas de dispersión acústica. La comparación teórica de los modelos muestra una buena concordancia cerca de la región de resonancia en la dirección posterior, donde los efectos de interferencia tienen un efecto mínimo.También se observa una buena concordancia en la dispersión de retorno para frecuencias bajas, donde la longitud de onda λ ≥ 4s, y s es la separación media entre vecinos más cercanos. La comparación con datos de baja frecuencia resulta igualmente buena para la dispersión posterior, mientras que en la dirección de retorno el método del medio efectivo diverge fuertemente para λ < 4s. (3) Se propone una solución en el dominio del tiempo para calcular la respuesta al impulso de una nube de burbujas en un medio compresible, incorporando los efectos de dispersión múltiple entre burbujas. Este método se basa en la teoría de perturbación y proporciona una solución aproximada, formulada mediante la adición de una perturbación a la descripción matemática de un problema exactamente soluble. El modelo se aplicó con éxito a las mediciones experimentales de una nube artificial de burbujas en un entorno de agua dulce de poca profundidad
uc
Estudio numérico-experimental de la respuesta límite de chapas de aluminio en procesos de conformado
El objetivo de este trabajo es determinar experimentalmente y numéricamente la influencia de la anisotropía plástica en la curva límite de conformación (FLC) para una chapa de aleación de aluminio AA1100 con tratamiento térmico. Con ese fin, la aleación de aluminio comercial AA1100-H14 disponible como chapa laminada en frío de 1 mm de espesor, se trató térmicamente a 300°C durante 1 hora y, posteriormente, fue enfriada en aire a temperatura ambiente. En la primera parte se realizaron pruebas experimentales para caracterizar el material mediante: análisis químico, difracción de rayos X, medición de textura, microscopía óptica, microdureza, ensayos de tracción. Las curvas de límite conformación fueron obtenidos por del ensayo Nakajima, donde se evaluó el efecto de anisotropía en el FLC usando muestras de tipo reloj de arena tomadas a RD (0°), DD (45°) y TD (90°) con respecto a la dirección de laminado de la chapa. Dichas pruebas se complementan con la información aportada por el análisis de acopado hidráulico. La determinación experimental de las deformaciones límites, se realiza mediante el método tradicional y el análisis propuesto por Bragard. Las propiedades mecánicas del material se derivaron primero a través de ensayo de tracción, complementando estos datos con las mediciones de textura cristalográfica. En la segunda parte, estos datos se utilizaron para calibrar las respuestas de tres modelos de plasticidad policristalinas, es decir, viscoplástico autoconsistente-tangente (VPSC), viscoplástico autoconsistente-tangente con ajuste del coeficiente α (α-VPSC) y el modelo de Taylor basado en el esquema decondiciones totalmente impuestas (FC), suponiendo el mismo comportamiento de la tasa sensible constitutiva de un solo cristal y, las leyes de endurecimiento potencial y saturación. La simulación de la FLCs se obtiene mediante el acoplamiento de los modelos de plasticidad cristalina con la técnica de Marciniak y Kuczynski (MK). El efecto de las orientaciones de cristal se reproduce numéricamente en la FLC, y una comparación detallada se hace entre los tres modelos. Las deformaciones límites previstos en el lado izquierdo de la FLC están bien de acuerdo con las mediciones de los ensayos experimentales a lo largo de las tres direcciones, mientras que las diferencias se encuentran en los estados de estiramiento biaxial. Particularmente, MK-VPSC predice un perfil de deformación límite inesperado en el lado derecho de la FLC para las muestras analizadas a lo largo de la dirección transversal. Sólo MK-αVPSC, predice satisfactoriamente el conjunto de mediciones FLC con un factor de ajuste de 0.2. Por último, también se discutió la correlación de las deformaciones límite prevista con la superficie de fluencia predicha por cada modelo, donde la forma de la superficie de fluencia es menos sensible a la evolución de la textura asociada con las trayectorias de las cargas impuestas.
uc
Optimal exercise policy for American options under general Markovian dynamics
En esta tesis se propone un algoritmo iterativo rápido y preciso para resolver la frontera de ejercicio óptimo y valorizar opciones Americanas. El algoritmo se basa en una iteración de punto fijo derivada de la representación de ejercicio óptimo de opciones Americanas y aborda el problema de resolver su frontera de ejercicio óptimo bajo modelos Markovianos generales. Esta tesis extiende el trabajo realizado por Dattas (2015) en la aplicación del algoritmo para la valorización de opciones Americanas bajo el modelo de Volatilidad Estocástica de Heston. El algoritmo es puesto a prueba usando un conjunto de especificaciones anidadas incluyendo el modelo de Volatilidad Estocástica con Saltos Contemporáneos de Duffie et al. (2000) y el método Least-Squares Monte Carlo de Longstaff and Schwartz (2001) es utilizado como referencia. El método es estable y robusto, y converge a la frontera de ejercicio óptimo bajo todos los escenarios sometidos a prueba. Cuando se compara con el LSM, se halla que el algoritmo descubre fronteras de ejercicio óptimo más precisas y que permite tomar mejores decisiones de ejercicio cuando se prueba utilizando datos históricos del índice S&P500. Además, el algoritmo exhibe una mayor eficiencia pues se presta para realizar programación paralela de sus cómputos.
uc
Control híbrido para conversor multinivel con múltiples capacitores flotantes
Los convertidores de potencia son fundamentales para el desarrollo y globalización puesto que juegan roles tan diversos que van desde el cargador de baterías más pequeño hasta sistemas DC de alta corriente que interconectan países. Un problema con ellos es que introducen contaminación indeseable en la red eléctrica, lo cual se hace cada vez más perjudicial dada la masificación en aplicaciones como electrónica del hogar y energías alternativas. Es por esto que hoy en día se requiere el desarrollo de tecnologías que reduzcan la contaminación producida por estos, para mitigar los problemas que puedan causar estos en el futuro. Los conversores multinivel han surgido como una tecnología capaz de suplir los conversores convencionales, con operación a alta potencia y baja distorsión. Un problema con ellos es su complejidad para mayor número de niveles, el cual supone un obstáculo para competir con los convertidores convencionales. Aún así, en los últimos años los conversores multinivel han aumentado su número de aplicaciones y su investigación resulta importante dadas las soluciones que ofrecen.El siguiente trabajo propone un sistema de control que permita reemplazar múltiples fuentes flotantes por capacitores, a implementarse en un conversor multinivel en cascada. El control propuesto disminuye la complejidad y el costo, mejora la eficiencia, y permite una operación de baja distorsión en todo el rango de voltaje y frecuencia. Para llevarlo a cabo, la investigación desarrolla una formulación matemática, una serie de simulaciones y una implementación experimental de estas en un conversor puente-H en cascada para posterior análisis. Las soluciones y procedimientos elaborados son aplicables a cualquier tipo de topología de conversor multinivel en cascada, con especial énfasis en conversores puente-H en serie. El conversor puede ser utilizado en múltiples aplicaciones, como control de motores, generación de potencia y FACTS.
uc
Cuantificando la influencia del oleaje en el régimen de sumersión de organismos del intermareal rocoso : nuevo método y consecuencias eco-fisiológicas
Los organismos que habitan el intermareal rocoso alternan entre sumersión y emersión (exposición aérea) producto de las fluctuaciones en el nivel del mar causadas por las mareas y el oleaje. Como estos organismos son de origen marino y de escasa movilidad en su etapa adulta, la emersión modula la exposición a condiciones fisiológicamente estresantes (e.g. temperaturas corporales extremas), mientras que la sumersión, el acceso a recursos (e.g. nutrientes, oxígeno). Sin embargo nuestro conocimiento sobre los regímenes de sumersión y sus forzantes es aún muy escaso y está basado en conceptos y metodologías desarrolladas para costas dominadas por una gran amplitud de mareas, que no son útiles en regiones expuestas al oleaje, como lo es gran parte de la costa de Chile. Esta limitación se debe en gran parte a un desarrollo insuficiente de metodologías para medir el régimen de sumersión en ambientes energéticos, lo que a su vez limita críticamente el estudio, interpretación y modelación de respuestas evolutivas, fisiológicas y ecológicas frente a variaciones meteorológicas y el cambio climático. El sistema de estudio corresponde al intermareal rocoso de Chile central donde investigaciones previas, que no consideraban el rol del oleaje, sugerían condiciones térmicamente estresantes, debido a bajas alturas de marea en las horas cercanas al mediodía de los días de verano. Estas investigaciones previas incluyen el desarrollo de un modelo biofísico para predecir temperaturas corporales en el mitílido Perumytilus purpuratus, un competidor dominante en el uso del sustrato primario en el nivel medio del intermareal rocoso. Además, se ha observado, la ocurrencia de blanqueamiento (i.e. daño al tejido fotosintético) en varías especies de algas durante días de primavera-verano, incluyendo a Gelidium chilense, una especie formadora de hábitat en el nivel medio-bajo del intermareal rocoso.Los objetivos de esta tesis fueron: (1) Desarrollar y validar un nuevo método para cuantificar regímenes de sumersión (2) Caracterizar el régimen de sumersión en el intermareal rocoso expuesto al oleaje de Chile central (3) Generar modelos estadísticos para predecir diferentes aspectos del régimen de sumersión a partir de propiedades de marea y oleaje (4) Evaluar el efecto del oleaje sobre el régimen de temperaturas corporales del mitílido P. purpuratus (5) Explorar la capacidad de modelos estadísticos del régimen de sumersión para predecir la ocurrencia e intensidad de eventos de blanqueamiento en el alga G. chilense. En el primer capítulo se desarrolló y validó un nuevo método para cuantificar regímenes de sumersión, basado en el procesamiento de imágenes, al que denominamos método telemétrico. El método consiste en la instalación de referencias visuales en posiciones de interés en el intermareal rocoso, las cuales son monitoreadas mediante una cámara de video puesta en un lugar seguro. Algoritmos computacionales desarrollados en la tesis permiten discriminar entre sumersión y emersión a través de las imágenes de los videos y generar así series de tiempo muy detalladas del régimen de sumersión. El método fue validado satisfactoriamente mediante comparación con observaciones directas en terreno. Este método telemétrico difiere de las metodologías previas en que la información es captada y almacenada de manera remota, lo que facilita la obtención de registros de largo plazo y alta resolución temporal.En el segundo capítulo, se empleó el método telemétrico para realizar una caracterización empírica del régimen de sumersión en los niveles medio y bajo del intermareal rocoso expuesto al oleaje de Chile central. Además, se modeló estadísticamente el porcentaje de sumersión y la exposición a emersiones prolongadas a partir de datos de altura de marea y de ola. Tanto el porcentaje de sumersión como la exposición a emersiones prolongadas fueron en promedio relativamente moderados, lo que se explica por la ocurrencia durante la mayor parte del tiempo, de eventos de sumersión numerosos pero de breve duración. Notablemente, los resultados muestran que gran parte de la zona intermareal de Chile central, desde las bandas característicamente identificadas como ‘intermareal bajo’, se encuentran por sobre el límite de las mareas más altas. Esto significa que los organismos “intermareales” de Chile central son estrictamente dependientes del oleaje para su subsistencia. Sin embargo, a pesar de la naturaleza intermitente de la sumersión, forzada por el oleaje predominante, los análisis estadísticos indican que la altura de marea tiene una importante capacidad predictiva del régimen de sumersión. Lo que se entiende por el control de las mareas sobre la altura del mar y la ‘penetración’ de las olas hacia la zona intermareal. La incorporación de la altura de la ola permite mejorar la calidad de la reconstrucción del régimen de sumersión, especialmente cuando la altura del oleaje se desvía del valor promedio.En el tercer capítulo se utilizó un modelo estadístico para reconstruir en el largo plazo el régimen de exposición a emersiones prolongadas en el nivel medio del intermareal rocoso de Chile central. Esta reconstrucción a partir de series de tiempo de marea y oleaje se utilizó para forzar un modelo biofísico (balance térmico) de temperatura corporal del mitílido P. purpuratus y para explorar la asociación entre emersiones prolongadas y el blanqueamiento de G. chilense. Los resultados muestran que el oleaje proporciona una enorme protección frente a temperaturas corporales elevadas en el mitílido, contrastando con investigaciones previas en donde se proyectaban condiciones extremas asumiendo un régimen de sumersión determinado solamente por la marea. Por otra parte, el efecto del régimen de sumersión sobre la radiación solar incidente permitió explicar la ocurrencia y la intensidad del blanqueamiento experimentado por G. chilense, un fenómeno típicamente muy complejo de anticipar.En resumen, esta tesis presenta una importante contribución al estudio del intermareal rocoso expuesto al oleaje. El método telemétrico presenta numerosas ventajas comparativas respecto a las metodologías previas, por lo que debiera favorecer el conocimiento y modelación de regímenes de sumersión realistas. La caracterización que hemos realizado del régimen de sumersión en el intermareal de Chile central, contribuye a ampliar nuestro conocimiento de las condiciones ambientales a las cuales estos organismos están expuestos y de alguna manera cambian nuestra manera de pensar e interpretar el efecto de oleaje en comunidades intermareales. Las pocas caracterizaciones cuantitativas disponibles para otras costas expuestas al oleaje del mundo muestran diferencias cualitativas, ya que esos regímenes de sumersión son comparativamente más dominados por marea. La modelación estadística de la ocurrencia de emersiones prolongadas permitió por primera vez evaluar temperaturas corporales de organismos intermareales en una costa con un régimen de sumersión fuertemente influenciado por el oleaje y los resultados muestran que ello es esencial para el desarrollo de modelos de respuestas a cambio climático. Además, en nuestro conocimiento, esta es la primera vez que se logra explicar la ocurrencia e intensidad de eventos de blanqueamiento observados en terreno para un alga intermareal. En su conjunto, esta tesis ilustra la importancia de desarrollar modelos realistas del régimen de sumersión, los cuales son necesarios para estudios de biofísica, fisiología, evolución, ecología y para modelar y anticipar las consecuencias del cambio climático.
uc
Hemicanales formados por Cx43, Panx1 y el receptor P2X, son críticos en la respuesta neuroinflamatoria inducida por la exposición maternal a glucocorticoides y la epilepsia
La inflamación se asocia frecuentemente a una respuesta del sistema inmune, dirigida a eliminar agentes infecciosos y señales moleculares de peligro o productos del daño tisular. Sin embargo, la inflamación puede ser causa o consecuencia de un gran número de enfermedades crónicas y es estrictamente controlada por varios complejos multimoleculares citosólicos denominados inflamasoma presentes no sólo en las células del sistema inmune, sino que además han sido detectadas en diversas células parenquimales. Tras la activación del inflamasoma, las células liberan mediadores inflamatorios (Ej.: IL-1β), que desempeñan un papel crucial en el desarrollo de la neuroinflamación en trastornos neurodegenerativos y trastornos psiquiátricos, como la epilepsia y la depresión, respectivamente. El aumento de Ca+2 citoplasmático promueve el ensamblaje de los componentes del inflamasoma y su activación; por lo cual se ha sugerido la participación de los hemicanales (HCs) formados por las conexinas (Cxs) y pannexina 1 (Panx1), así como el receptor de P2X7 (P2X7R), en la activación del inflamasoma inducida por ATP. Cabe hacer notar que la epilepsia puede ser consecuencia de una alteración traumática o estrés perinatal y se desconoce si la neuroinflamación desencadenada en dicho período de vida se refleja en la activación de los HCs gliales. Por otro lado, evidencias clínicas y experimentales sugieren una posible conexión entre la epilepsia y la neuroinflamación, que se caracteriza por la acumulación, activación y proliferación de microglias y astrocitos. Sin embargo, los fármacos de uso actual para tratar la epilepsia están dirigidos a blancos moleculares localizados en neuronas y no en las células gliales.En el estrés agudo y en especial el estrés crónico o los altos niveles de glucocorticoides (GCs) inducen la respuesta neuroinflamatoria, que se refleja en un aumento de la expresión de las proteínas del inflamasoma y la reactividad de microglias y astrocitos. No obstante, la participación de los oligodendrocitos en estos procesos ha sido poco estudiada. Más aún, se desconoce si en oligodendrocitos se expresa y activa un inflamasoma en procesos neurodegenerativos. En base a estos antecedentes, aquí se postula que, “los oligodendrocitos expresan el inflamasoma NLRP3 que se activa con la exposición prenatal a glucocorticoides, y que a su vez, como en la epilepsia inducida por PTZ, promueven la activación de hemicanales y el receptor purinérgico P2X7R en células cerebrales”. Con el fin de generar información que aclare las incógnitas descritas arriba, en la presente tesis se utilizaron crías (2 días de edad) de madres controles y madres tratadas con dexametasona (DEX, GC sintético) desde el día 12 de gestación. Rebanadas de cerebro de crías controles revelaron la presencia de las proteínas que conforman el complejo multimolecular: la proteína de señalización, NLRP3; la proteína adaptadora, ASC y la proteína de activación, caspasa-1 (Casp-1, forma activa); cuyos niveles incrementaron significativamente en rebanadas de cerebro de crías de madres expuestas a DEX.La actividad de los HCs (ensayos de captación de etidio en cortes de hipocampo) aumentó en microglias, astrocitos y oligodendrocitos de crías de madres expuestas a DEX y fue inhibida por bloqueadores de HCs Panx1 y Cx43 (péptidos 10panx1 y Gap26, respectivamente) y del P2X7R (A740003). Además, se utilizó D4, un bloqueador selectivo de HCs Cxs identificados por “screening” virtual de la base de datos del NCI y utilizando la estructura cristalina de la Cx26 y boldina como farmacóforo. D4 inhibió completamente la actividad de los HCs en células gliales. La actividad de los HCs inducida por exposición prenatal a DEX persistió durante al menos 8 semanas después del nacimiento y no fue revertida por los cuidados de una nodriza no expuesta a DEX durante el primer mes o la posterior crianza junto a los hermanos del mismo sexo durante el segundo mes de vida. Por lo tanto, el inflamasoma en las células gliales se activaría por la por la exposición a DEX y se mantendría durante un largo tiempo postnatal. Se sugiere que estos cambios podrían alterar la neurogénesis y conectómica perinatal.Para estudiar el posible papel de los HCs en la epilepsia, se utilizaron ratones machos adultos que fueron tratados con pentilentetrazol (PTZ), un agente epileptógeno que actúa como antagonista no selectivo de los receptores GABAA. Las convulsiones fueron evidentes en ~7 min después de la administración de PTZ seguido por un período de varias horas, en la cual los ratones presentaron actividad motora muy baja y espasmos musculares esporádicos con ~70% de supervivencia. Sin embargo, en los animales pretratados con D4 se previno las convulsiones en su mayoría. Cuando no se previnieron las convulsiones, el período de estatus epiléptico se acotó a ~7 min después de la administración de PTZ. Transcurrida la convulsión, los animales se comportaron como los controles con 100% de supervivencia. Además, D4 inhibió completamente la actividad de los HCs gliales inducida por PTZ. Por otro lado, el pretratamiento con el bloqueador P2X7R también inhibió la actividad de los HCs inducida por PTZ. En consecuencia, la activación de los HCs inducida por PTZ en neuronas y células gliales involucra la participación de HCs Cxs y P2X7R. Además, se observó que crías de madres tratadas con DEX durante el período de gestación y luego tratadas con una dosis subepileptógena de PTZ manifiestan convulsiones características de un episodio de epilepsia, sugiriendo que la inflamación desencadenada en la gestación favorece la manifestación de epilepsia en estado adulto. Estos resultados en conjunto apuntan a los HCs gliales como potenciales blancos terapéuticos en estados patológicos cerebrales que conllevan a procesos inflamatorios.
uc
Transcitosis apical-basolateral inducible del receptor de opioides tipo delta en células MDCK
Las células epiteliales cumplen funciones vectoriales de absorción y secreción en base a su fenotipo con polaridad apical-basolateral. Este fenotipo se caracteriza por una membrana plasmática dividida por las uniones estrechas en dos dominios con estructura, composición y funciones distintas: el dominio apical se orienta hacia el lumen de una cavidad mientras que el dominio basolateral está en contacto con las células vecinas y con la membrana basal. La composición proteíca de cada dominio se mantiene por el tráfico vesicular en la ruta exocítica y endocítica que destina proteínas cargo al dominio correspondiente según las señales apicales o basolaterales codificadas en su estructura. Las proteínas de transmembrana basolateral alojan señales específicas en su región citosólica, en su mayoría basadas en residuos de tirosina en el contexto NPxxY, YxxΦ y dileucinas en los contextos DxxLL o [D/E]xxxL[L/I]. Las señales apicales son más diversas y pueden estar en la secuencia de la proteína o bien ser modificaciones post-traduccionales como glicosilaciones. Estas señales son decodificadas por la célula a través de una maquinaria de adaptadores citosólicos. El adaptador AP1B que se localiza principalmente en el endosoma de reciclaje común (CRE) se ha involucrado en la destinación basolateral, mientras que la maquinaria de destinación apical es menos conocida. Una vez insertas en la membrana plasmática ciertas proteínas se endocitan y pueden ser destinadas a degradación en lisosomas o recicladas a su polo de origen o al polo opuesto por transcitosis.Gran parte del conocimiento sobre la transcitosis proviene de estudios sobre la ruta de transcitosis apical-basolateral del receptor de poliinmunoglobulinas (pIgR), caracterizándose sus señales de destinación, los compartimentos endocíticos involucrados y el requerimiento del citoesqueleto. La ruta inversa desde el polo apical al basolateral se ha estudiado principalmente para proteínas solubles (albúmina e inmunoglobulinas) y sólo para una proteína de transmembrana, el receptor neonatal Fc (FcRn). FcRn transita de manera constitutiva desde el polo apical al basolateral y vice-versa, incluyendo un paso por el CRE y su dependencia del citoesqueleto es distinta según el sentido del tráfico. Datos de nuestro laboratorio indican que los receptores de opioides al ser expresados en células epiteliales (MDCK) se destinan inicialmente a la superficie apical, pero al ser activados por agonista se redistribuyen a la región basolateral. Sin embargo, está pendiente definir si esto correspondería realmente a transcitosis apical-basolateral porque no se ha logrado detectar si los receptores opioides se insertan realmente en la membrana plasmática basolateral. En esta tesis nos concentramos en estudiar el tráfico del receptor opioide δ (DOR) planteándonos la siguiente hipótesis: “El tráfico del DOR en células MDCK involucra señales apicales y basolaterales y una ruta de transcitosis apical-basolateral regulada que incluye al CRE y a la función del citoesqueleto”. Y los objetivos específicos: 1) Definir si el DOR estimulado por agonista desde el polo apical se transporta vía vesículas y se inserta en la membrana plasmática basolateral; 2) Definir las señales apicales y basolaterales que determinan la ruta de transcitosis apical-basolateral del DOR; 3) Evaluar si la ruta apical-basolateral del DOR incluye el tránsito por el CRE y si depende del complejo adaptador AP1B;4) Evaluar la contribución del citoesqueleto de microtúbulos y actina en esta ruta. Primero implementamos nuevas estrategias para la detección y cuantificación de la aparición del DOR en la superficie basolateral, ya que las técnicas de biotinilación dominio-selectiva fueron infructuosas. Nuestros resultados mostraron que el DOR activado se endocita desde la superficie apical y luego de su transporte en vesículas se inserta en la membrana del polo basolateral. Demostramos así que entra en una ruta de transcitosis apical-basolateral regulada por estímulo externo. Análisis por inmunofluorescencia utilizando marcadores endosomales mostró que el DOR endocitado desde el polo apical pasa por el CRE. Sin embargo, en células MDCK silenciadas para el complejo AP1B, que reside en este compartimento, mostramos que el transporte del DOR al polo basolateral no se altera, indicando que es independiente de este adaptador.Abordamos la búsqueda de posibles señales de destinación apical y basolateral mediante mutaciones sitio dirigida de residuos dentro las secuencias análogas a las descritas. Mutando los motivos de N-glicosilación demostramos que la distribución apical del DOR es independiente de N-glicosilación. Mutaciones en dos supuestos motivos basolaterales basados en tirosinas interrumpieron la salida del DOR desde el retículo endoplásmico, impidiéndonos evaluar la contribución de estos motivos en la destinación basolateral post-transcitosis. Mutaciones que reemplazaron dos leucinas presentes en la tercera asa intracelular de DOR no afectaron su transcitosis hacia el polo basolateral. También demostramos que la endocitosis del DOR es independiente de actina, mientras que su transcitosis al basolateral se inhibió con latrunculin A, un inhibidor de la polimerización de los monómeros de actina, acumulándose vesículas en la región subapical. Como no se ha descrito una función para la actina en la transcitosis apical-basolateral, esto sugiere la existencia de una nueva ruta de transcitosis, que no sólo sería inducible sino también dependiente de microfilamentos de actina.
uc
Exploración de la relación entre rendimiento académico de alumnos de pregrado, consultas de los servicios de biblioteca y multidisciplinariedad, aplicando técnicas de minería de datos.
Se explora la relación entre el rendimiento académico de los alumnos de pregrado de la Pontificia Universidad Católica de Chile, el uso de las colecciones de Bibliotecas UC y la multidisciplinariedad de las consultas, aplicando técnicas de minería de datos. Este estudio es una de las primeras experiencias en Chile para conocer como los factores relacionados con el uso de los servicios de biblioteca influyen en el rendimiento académico de los estudiantes. Se busca identificar y explorar los perfiles de usuarios cuyos préstamos de material de biblioteca reflejan consultas multidisciplinarias, para responder la primera hipótesis del estudio “Menos del 50% de las consultas son multidisciplinarias”. Luego se analiza la relación entre el uso de los servicios de la biblioteca, presencial y electrónica, y el rendimiento de los alumnos, con una evaluación en el tiempo, para responder a la segunda hipótesis de este estudio “Los alumnos con mayor rendimiento son los que usan los servicios de la biblioteca por sobre el promedio”, y aportar a una de las hipótesis del proyecto Fondecyt no. 1131109 en cuanto a determinar “Cuáles son las métricas apropiadas para establecer relaciones entre uso de biblioteca, tecnología de investigación electrónica y resultados de aprendizajes”. Adicionalmente se compara, con una evaluación en el tiempo, las consultas en la biblioteca y a la colección electrónica, con el fin de definir la tercera hipótesis del estudio “Existe relación entre las consultas de la colección electrónica y el uso de la biblioteca presencial”. Se trabajó con datos de las transacciones en los servicios presenciales, entre los años 2010-2014, datos de consulta a la colección electrónica y de rendimiento de los alumnos, entre los años 2012-2014. Se utiliza técnicas de análisis estadístico y se aplican modelos de asociación y clustering. Los resultados indican que, respecto al uso de la colección presencial, se observa una disminución de las transacciones en todas las áreas, con una disminución mayor en aquellas áreas que tradicionalmente presentan mayor cantidad de transacciones. Existe una tendencia a la consulta en una o dos áreas, las consultas multidisciplinarias son menos que las monodisciplinarias. Se observa una débil correlación entre la cantidad de áreas consultadas y el rendimiento académico. No existen usuarios, de carreras ni áreas, que consulten exclusivamente de su área. Se detectó tres grupos de alumnos, el grupo minoritario presenta la mayor cantidad de transacciones y las mejores notas. En general, la correlación entre notas y uso de la biblioteca es positiva: en la medida que suben las transacciones hay mejores notas, entre los usuarios que consultan por sobre el promedio de consultas la mayoría tienen notas sobre el promedio. En relación a las consultas a la colección electrónica se observó que existe una fuerte tendencia a ir aumentando la cantidad de sesiones en el tiempo, en los usuarios de todas las áreas. Hay una correlación positiva entre cantidad de sesiones y uso de la biblioteca, la que ha ido disminuyendo en el tiempo sin llegar a ser negativa. También se detectó tres grupos, el grupo minoritario de alumnos presenta sesiones sobre la media y las mejores notas. Se observa una tendencia a tener mayor cantidad de transacciones en aquellos con mejores notas. Lo mismo sucede con la variable duración de las sesiones. Se observa además una tendencia a tener pocas sesiones y cortas, no existen casos de alumnos con una alta cantidad de sesiones y larga duración. En general, se observa lo mismo que para las transacciones presenciales, entre los usuarios que consultan por sobre el promedio de consultas la mayoría tienen notas sobre el promedio.
uc
Elecciones presidenciales 2013 : un análisis semántico de la prensa digital chilena
El presente trabajo realiza un análisis de la cobertura a las elecciones presidenciales chilenas en cuatro de los medios más importantes de prensa digital durante el periodo comprendido entre la inscripción de candidaturas y la primera vuelta de la elección presidencial utilizando el método computacional de Análisis de Semántica Latente (LSA), el cual entrega como resultado grupos de términos con significados relacionados en forma de campos semánticos. El objetivo de este estudio es comprobar, mediante el procesamiento masivo de los artículos de prensa usando LSA, si es posible determinar tendencias en la cobertura de prensa enfocándose en los campos semánticos resultantes. Los resultados encontrados muestran marcadas diferencias de contenido temático y volumen de artículos entre las coberturas de cada candidato a través de los medios estudiados.
uc
Improved estimation of PC-Saft equation of state parameters using a multi-objective variable-weight cost function
Obtener parámetros de compuestos puros y discernir entre conjuntos de parámetros que parecen ajustar igualmente bien son importantes desafíos al momento de calibrar ecuaciones de estado (EoS) de la familia Statistical Associating Fluid Theory (SAFT). En este trabajo, un nuevo método para mejorar la estimación de parámetros de compuestos puros es propuesto y aplicado a perturbed chain SAFT (PC-SAFT). El método consiste en el uso de información de un análisis de sensibilidad para definir una función de costo de peso variable y fijar el parámetro menos sensible. El modelo es calibrado con una función de costos sesgada hacia aquellas propiedades y rangos de temperatura donde la EoS es más sensible. Para evaluar este enfoque, otro conjunto de parámetros es obtenido usando el método clásico, que consiste en usar una función de costo sin pesos. Resultados de cuatro 1-alkanoles y cuatro n-alquilaminas demuestran que los parámetros obtenidos con el método propuesto correlacionan de mejor manera con el peso molecular. Además, ajustan y predicen las propiedades de mezclas de manera más precisa. En promedio, el error de predicción del equilibrio líquido-vapor fue reducido de 7.17% a 6.49% para la fase líquida y de 3.55% a 3.13% en la fase vapor. Adicionalmente, el error de la predicción de densidad de mezcla líquida fue reducido de 0.53% a 0.31%. Finalmente, el error de predicción de equilibrio liquido-vapor ternario fue reducido un 15% para la composición de vapor y un 43% para la temperatura de equilibrio.El equipo de mayor importancia en el diseño industrial de Pressurized Hot Water Extraction (PHWE) es el extractor, que asegura que el solvente se mantenga en estado líquido. Es fundamental predecir los cambios de fase a altas presiones de mezclas hidroalcohólicas adecuadas para extraer productos naturales y así minimizar los costos de construcción y asegurar la correcta operación del proceso. Los parámetros puros de PC-SAFT y de mezcla fueron ajustados para agua, metanol, etanol y glicerol. La predicción de temperatura de burbuja a alta presiones de mezclas binarias y ternarias fue realizada para temperaturas entre los 323.15 K y 573.15.
uc
Modelación de la demanda por transporte terrestre desde aeropuertos : el caso de Santiago de Chile
Cuando un pasajero llega al terminal aéreo debe decidir qué modo de transporte elegir para ir a su lugar de destino en la ciudad. Una mala oferta de transporte significará no sólo una mala percepción del servicio en cuestión sino que una mala impresión de la ciudad. Este trabajo busca identificar y entender los factores que un pasajero internacional considera más trascendentes al momento de elegir el modo de transporte desde el aeropuerto a su lugar de destino en Santiago. Para esto, se desarrolló una encuesta de preferencias declaradas y posteriormente se realizó una modelación de elección discreta. Se evaluó cómo afectan factores como viajar con o sin maletas y el periodo del día en que se arriba al aeropuerto. También se construyeron perfiles de pasajeros: hispanoparlante, con necesidades especiales y según quién financia el viaje. Para cada uno de estos, se obtuvieron valoraciones del tiempo. Finalmente, se evaluó la percepción que existiría si se incorporara un nuevo servicio del sistema de transporte público- Transantiago.Por un lado, los resultados indican que los principales atributos considerados por un pasajero al viajar son el costo de viaje, el tiempo de viaje, el periodo del día, y el número de maletas. También se pudo percibir que según el perfil del pasajero, hay modos que son más propensos a ser utilizados que otros. Así, se encontró que para el escenario base el minuto de tiempo diurno de viaje ahorrado es valorado en promedio en $0,5USD y que este valor aumenta para viajes nocturnos entre el doble al triple para modos de transporte compartidos. Cuando el viaje es pagado por un tercero o el pasajero tiene una necesidad especial, este valor aumenta al doble del valor base calculado previamente. Por otro lado, para conceptualizar un modo de transporte público se propone considerar siete medidas que harían el sistema más atractivo:1) Crear un recorrido que minimice los trasbordos y tiempos de viaje, 2) Garantizar bajos tiempos de acceso al modo, 3) Entregar información en inglés en el terminal y en el bus, 4) Establecer horarios de funcionamiento, 5) Tener tarifas diferenciadas con el resto del sistema, 6) Garantizar accesibilidad al menos para pasajeros en sillas de rueda, lesionados o con coches con niños, 7) Asegurar comodidad y seguridad para transportar el equipaje.
uc
Diseño e implementación de un algoritmo de clasificación de objetos peligrosos en radiografías utilizando el modelo bag of words
La detección y clasificación de objetos es uno de los principales problemas a los que se ha enfocado el reconocimiento de patrones y el aprendizaje de máquina. Existen diversos estudios cuyo fin es poder crear poderosos programas automáticos de reconocimiento que permitan, mediante una imagen, obtener información clave de objetos y personas. No obstante, existen pocos estudios que utilicen imágenes de radiografías, debido a la falta de bases de datos robustas y al poco interés masivo en ellas. Estos estudios permitirían realizar programas que detecten objetos peligrosos en equipajes, entre otras aplicaciones. En este trabajo se propone una metodología enfocada en detectar objetos peligrosos en equipajes de aeropuertos, mediante el uso de radiografías. Se utilizan técnicas de reconocimiento de patrones mezcladas en un modelo de Bag of Words. Los pasos de esta metodología son: procesamiento de las imágenes, extracción de descriptores SIFT y LBP, creación del Bag of Words y entrenamiento mediante Random Forest.Usando este método se obtienen 3 clasificadores binarios de 3 objetos diferentes que se consideran peligrosos: pistolas, shurikens y hojas de afeitar. Estos clasificadores son evaluados utilizando diversas métricas de desempeño y mediante un nuevo set de imágenes a clasificar. Los mejores resultados (mostrados en porcentajes de Precision-Recall respectivamente para cada clase) fueron 100% y 82% para hojas de afeitar; 100% y 92% para shurikens y 88% y 99% para pistolas. El promedio de rendimiento fue de un 90%. Este estudio demostró que es factible crear un clasificador de objetos peligrosos enfocado en radiografías, pudiendo ser extendido a más objetos si se ajustan los parámetros adecuados. En este trabajo sólo se estudia la clasificación de objetos, y no la detección.
uc
Understanding and optimizing the design layout of horizontal residential condominium
El diseño de Condominios Residenciales Horizontales (CRH) consiste en un proceso iterativo en el cual los principales elementos de urbanización y su distribución espacial son definidos. Desafortunadamente, la práctica actual fracasa al momento de desarrollar soluciones óptimas debido a una serie de restricciones que limitan el estudio de alternativas, siendo explorada una región acotada del espacio de diseño. Esta investigación aplica optimización de diseño paramétrico en el diseño de urbanizaciones de CRH para extender esta exploración. Los investigadores intentan contestar las preguntas de investigación y contribuir al conocimiento a través del desarrollo de un modelo de optimización. Una formalización del proceso de diseño es necesaria en orden de poder generar el modelo paramétrico en el que se basa la herramienta computacional desarrollada. Esta busca apoyar a los diseñadores en la etapa de diseño conceptual de CRH; mejorar el espacio de diseño estudiado y presentar alternativas adicionales que se escapan de las soluciones sub-óptimas que la industria alcanza. El proceso de formalización conduce al grupo de las principales variables consideradas por los desarrolladores en el proceso de diseño. Con estas se desarrolla una estructura del problema de diseño que facilita la selección de variables y la implementación para el modelo de optimización. Los resultados de los diferentes escenarios de simulación muestran que la aplicación de la herramienta ofrece una gama más amplia de alternativas de diseño y cuenta con soluciones que normalmente no son consideradas en el proceso.
uc
Collpad 2, un scaffold colaborativo : su impacto en el aprendizaje de geometría
A lo largo de los últimos años, se ha intentado mostrar qué tan grande es el impacto del ingreso de tecnologías en las aulas de clases. Se han presenciado experiencias con dispositivos digitales que presentaron un efecto positivo en el aprendizaje. Para que la tecnología tenga un impacto positivo en el aprendizaje, su uso debe estar alineado con el objetivo del profesor durante la clase. De esta manera, integrarla consistentemente en el trabajo en clases permite entregarle a los alumnos distintas experiencias. Y más aún, deben aportar valor adicional por sobre los dispositivos regulares presentes en la sala. Bajo este escenario, se desarrolla una tecnología que presenta colaboración (habilidad a explotar en el siglo XXI, según el Programa de Evaluación Estudiantil Internacional) como valor agrega-do. ¿Tendrá la tecnología un impacto positivo en el aprendizaje, ante una clase orquestada? En primera instancia, se presenta una experiencia en que la tecnología no resultó ser un recurso con valor adicional sobre una clase orquestada. Para asegurar colaboración en una experiencia similar, se consideró un modelo pedagógico de ejercicios colaborativos de la literatura denominado CollPad. Tras asegurar que se cumplen condiciones expuestas en la literatura para lograr la colaboración, se diseñó un nuevo scaffold, o estructuración, de ejercicios colaborativos: CollPad 2. Este modelo pedagógico fue implementado en una aplicación web para su uso en tablets en la sala de clases, para luego ser usado para analizar el impacto en el aprendizaje logrado por el diseño.Luego de analizar los datos, las conclusiones obtenidas fueron similares a la experiencia inicial. A pesar de haber cumplido todas las condiciones para que la colaboración se dé, la experiencia aporta nueva evidencia de que la tecnología es un recurso más que no es suficientemente significativo para hacer la diferencia en el aprendizaje. Por lo tanto, hay algo más que debe tener la tecnología para que aporte valor al agregarlo a la sala de clases. Así, queda como trabajo futuro medir más habilidades del siglo XXI, como puede ser el pensamiento crítico o las habilidades ICT.
uc
Modelación de la interacción vehículo-peatón sobre un mismo arco durante evacuaciones
La simulación de evacuación es una poderosa herramienta para el apoyo a la planificación de este tipo de procesos, especialmente cuando el tiempo de respuesta es limitado. Actualmente existen variados modelos de evacuación, pero ninguno de ellos considera la interacción entre peatones y vehículos sobre la misma vía de evacuación. Este comportamiento hace la planificación más compleja y ha sido observado en países como Chile. En esta tesis se propone un modelo matemático de naturaleza macroscópica basado en el Modelo de Transmisión de Celdas (Daganzo, 1994) o MTC. Las extensiones integradas al MTC se elaboraron a partir de evidencia empírica de evacuaciones reales en el norte de Chile. El modelo propuesto considera la interacción entre vehículos y peatones cuando estos comparten la misma vía de evacuación. El modelo propuesto permite evaluar el efecto que vehículos tienen sobre la evacuación de peatones y viceversa. Los resultados muestran que el principal efecto de una clase sobre la otra es sobre la velocidad de evacuación, sin verse afectado el tiempo total de vaciamiento de la red. Este modelo es general y, por lo tanto, puede ser aplicado en otras regiones del país y otros países, además de otro tipo de situaciones donde se observa una interacción entre vehículos y peatones. De este modo, puede servir como base para el desarrollo de una herramienta de simulación más completa que permita la simulación de una red real.
uc
Modelling wine consumer preferences using hybrid choice models : inclusion of intrinsic and extrinsic attributes
La industria alimentaria enfrenta un mercado crecientemente competitivo, forzando a los productores a buscar constantemente oportunidades para diferenciar sus productos de sus competidores. La diferenciación requiere conocer y ocuparse de las preferencias de los consumidores, pero medir preferencias de consumidores no es tarea fácil. Esta tesis apunta a validar los modelos de elección discreta como una herramienta apropiada y útil para medir las preferencias de consumidores de alimentos y bebidas. Basándonos en el Total Food Quality Model (Grunert, 2005), identificamos tres capacidades críticas que cualquier modelo apropiado y útil debiera tener: (i) modelación de la heterogeneidad de preferencias, (ii) consideración del efecto positivo del precio como un indicador de calidad (asociación entre precio y calidad) y (iii) modelación conjunta de la influencia de atributos intrínsecos y extrínsecos en la decisión de compra. Los atributos extrínsecos son aquellos observables por los consumidores antes de comprar el producto por primera vez (por ejemplo el empaque, el precio y la publicidad), mientras que los intrínsecos son aquellos que sólo pueden ser percibidos después de consumir el producto (por ejemplo, sabor y aroma). Nos ocupamos de cada punto a través de un análisis de tres experimentos distintos, usando el vino como caso de estudio. El vino es un producto ideal para estudiar dada su complejidad social, química y sensorial, destacando todas las particularidades de los alimentos y bebidas.El primer experimento modela la heterogeneidad de preferencias en una forma útil para aplicaciones de marketing. Mediante un estudio de preferencias declaradas (PD) descubrimos actitudes de los consumidores que explican la heterogeneidad en sus preferencias, pero también encontramos que es difícil ligar estas actitudes a características observables de los consumidores. Esta última falta de correlación torna difícil extrapolar conclusiones a nivel de la población. El segundo experimento busca medir separadamente el efecto positivo del precio (como indicador de calidad) de su efecto negativo como limitante dada la restricción presupuestaria de los consumidores. Hacemos esto mediante el uso de variables latentes. El enfoque usado funciona como es de esperar, permitiendo una estimación más precisa de los parámetros de precio y ayudando a evitar problemas de sesgo de especificación que tornan los parámetros estimados inconsistentes. El tercer experimento mide conjuntamente el efecto de atributos intrínsecos simples y extrínsecos. Usamos un modelo en cuya estructura el efecto de los atributos intrínsecos en la compra está medida por el nivel de agrado del consumidor con el producto. El modelo también funciona adecuadamente, permitiendo calcular incluso disposiciones al pago por atributos intrínsecos lo que es bastante novedoso. Descubrimos que armonizando la estructura de los modelos de elección con una versión simplificada del Total Food Quality Model podíamos alcanzar mejoras significativas. Más precisamente, logramos una mejor comprensión de las preferencias del consumidor y su proceso de compra en general. Estas mejoras hacen de los modelos de elección discreta una herramienta adecuada y útil para modelar preferencias de consumidores de alimentos y bebidas.
uc
Análisis crítico del método conjuntos de incertidumbre para estimar tiempos de espera en un sistema GI/G/1
Recientemente, Bandi y Bertsimas propusieron un nuevo método para analizar sistemas de espera, basado en el teorema central del límite (TCL). Como es sabido, el TCL permite acotar sumas de variables aleatorias i.i.d. con bastante precisión cuando el número de sumandos es razonablemente alto (entre 30 y 50). Los autores aplican su enfoque primero a sistemas de espera simples no exponenciales (GI/G/m), para los cuales no existen fórmulas matemáticas cerradas, y luego extienden el análisis a redes de sistemas de espera. La información publicada por ellos es imprecisa, tanto en cuanto a algunas demostraciones asociadas al método, como en la especificidad de los casos para los que muestran la precisión del método. Cuando se comparan contra resultados de simulaciones los autores reportan errores en las predicciones cercanos al 5% para el sistema GI/G/1.En esta tesis se desarrolla un análisis exhaustivo de esta metodología para el sistema GI/G/1. En base a un análisis numérico riguroso, se logran identificar completamente los casos reportados por Bandi y Bertsimas, pero también se analizan otros casos, con distintos parámetros, en que el error de la predicción puede superar el 100 %. Adicionalmente, se desarrollan demostraciones matemáticas claves asociadas al método. Más adelante, se desarrolla un análisis experimental para detectar si existe una relación causal entre el número de sumandos en la aplicación del TCL y la calidad de la estimación obtenida; los resultados muestran que existiría más bien una relación inversa entre ellos. Luego, se desarrolla una simplificación de los cálculos asociados a esta metodología. Finalmente, se propone un método más simple para estudiar el sistema en cuestión, a partir de una aplicación más inmediata y sencilla del TCL. Los resultados obtenidos demuestran que esta cota es más simple e igual o más eficiente que la de Bandi y Bertsimas.
uc
Soiling effect on reflective mirrors of concentrating solar plants under Chilean climatic conditions
Las plantas solares de concentración térmica utilizan espejos para reflejar la radiación solar sobre un receptor térmico. El ensuciamiento disminuye la reflectancia de los espejos y por ende disminuye la producción térmica de la planta. La medición de la tasa de ensuciamiento es un proceso fundamental en el desarrollo de una planta solar de concentración ya que aporta en la estimación de producción por ser un input influyente en la producción energética. En este trabajo se estudia el efecto del ensuciamiento en espejos refletores. Se realizan pruebas de exposición para medir valores de disminución de reflectancia diaria para dos materiales distintos en las afueras de San Felipe en la Región de Valparaíso, Chile. Luego, se propone un modelo económico para obtener el ciclo óptimo de limpieza de los espejos considerando una reflectancia objetivo anual. La tasa de ensucimianto promedio diaria encontrada para los materiales estudiados fue de 2,14% para las láminas poliméricas y de 1,16% para las muestras de vidrio monolítico. La diferencia en sus tasa de ensuciamiento indica que para mantener una misma reflectancia anual, las láminas poliméricas deben compensar con una mayor frecuencia de limpieza o disminuyendo su producción energética.Para el modelo económico propuesto, se utilizaron los valores de ensuciamiento medidos en las pruebas en terreno. Los resultados entregan costos y frecuencias para distintos tamaños de plantas solares de concentración. Para plantas pequeñas se utilizan métodos manuales de limpieza, sin embargo cuando las plantas ya superan los 10.000 m2 de superficie reflectora de los espejos es conveniente usar metodos automatizados como los camiones de limpieza. En conclusión, el ensuciamiento en las plantas solares es un problema que afecta la producción energética y la contabilidad del proyecto. Es importante tener mediciones locales y estacionales de la tasa de ensuciamiento para así hacer modelaciones reales de cual es el ciclo óptimo de limpieza y no tener gastos excesivos.
uc
Numerical modelling of the cyclic torsional shear test on granular media
En esta investigación fue modelado un ensayo de corte cíclico de torsión utilizando el método de los elementos discretos 3D (DEM). Los resultados se comparan frente a datos experimentales y se discuten los aspectos micro-mecánicos del suelo durante el ensayo. En particular, el énfasis de la investigación es estudiar la homogeneidad de las deformaciones durante esta prueba de laboratorio, y comparar el comportamiento micro-mecánico de la muestra de suelo para diferentes niveles de deformación. La investigación experimental se realizó con un material sintético de esferas de vidrio que simula un suelo, lo que simplifica el modelamiento y la calibración ya que las fuerzas de interacción normales no inducen rotación de las partículas. Se estudió una granulometría uniforme y otra no uniforme para evaluar el rol de la granulometría del suelo en los resultados experimentales y su modelación mediante DEM.La etapa de calibración consistió en un ajuste de la fricción de contacto de partículas usando un modelo DEM del ensayo de corte directo basado en el trabajo de Salazar et al. (2015). A continuación, se desarrolló el modelo de ensayo de corte torsional utilizando las propiedades del material calibrado en el paso anterior. Ambos modelos y pruebas experimentales utilizaron la misma granulometría y tamaños de partícula. En este estudio se demuestra que el modelo del ensayo de torsión puede reproducir correctamente los ciclos de histéresis tanto en inclinación como amplitud. Por lo tanto, se obtuvo una estimación robusta para el módulo de corte secante y factor de amortiguamiento en diferentes niveles de distorsión angular. Con esto, fue posible construir una curva de degradación de la rigidez y de aumento de amortiguamiento y comparar con los datos experimentales obtenidos a partir de ensayos de torsión cíclica. Se muestra que la distribución de tensiones y deformaciones en la muestra se concentran cerca de la parte superior a medida que aumenta la amplitud del giro, es decir, distinto al supuesto estándar de distribución de deformación uniforme.
uc